2
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

Kubernetes 1.31!あなたのクラスターが変身する魔法 🎉✨

2
Last updated at Posted at 2024-07-29

こんにちは、クラスターの魔法使いの皆さん!待ちに待ったKubernetes 1.31がついに登場です。今回のアップデートは、まるでドラえもんのポケットから出てきたような素敵な道具がいっぱい。さぁ、一緒に冒険の旅に出かけましょう!

1. クラウドプロバイダーコードの卒業式 🎓

何が起こった? Kubernetesコアから全てのクラウドプロバイダー固有のコードが削除されました。

つまり? Kubernetesが「おいちゃん、もう一人前や!」って言って、クラウドプロバイダーコードを実家から追い出したんです。

使い方: マルチクラウド戦略が簡単に!「ねえねえ、AWSくん、GCPちゃん、Azureさん、みんな仲良く遊ぼう♪」ってな感じです。

技術的詳細:

  • Kubernetesコアがクラウドに依存しない形に
  • Cloud Controller Managerを通じてプラグイン形式で管理
  • Kubernetesの更新サイクルとクラウドプロバイダーの機能追加のサイクルを分離

2. AppArmorで最強の鎧をゲット! 🛡️

何が起こった? AppArmorのサポートが正式に安定版に!

つまり? コンテナたちが「俺たちの鎧、最強だぜ!」って自慢できるようになりました。

使い方: セキュリティ要件がシビアな現場でも、「えいえい、おー!AppArmor発動!」で安心です。

技術的詳細:

  • PodのSpecificationでAppArmorプロファイルを指定可能
  • コンテナごとに詳細なセキュリティポリシーを適用
  • 潜在的な攻撃面を減少

3. PodDisruptionBudget(PDB)がパワーアップ 💪

何が起こった? PDBに新しく「PodHealthyPolicy」が追加!

つまり? Podたちが「オラ、元気になったぞ!」って叫びながら、より賢く働けるようになりました。

使い方: 24時間365日のサービスも、「はい、交代の時間です〜」ってスムーズに運用できちゃいます。

技術的詳細:

  • PodHealthyPolicyでPodの健康状態をより細かく考慮
  • Ready状態のPodも考慮に入れることが可能に
  • アプリケーションの可用性をより正確に維持

4. スワップメモリで変身! 🦸‍♂️

何が起こった? ノードレベルでのスワップメモリ使用が正式サポートに。

つまり? ノードたちが「メモリが足りない?任せろ!変身だぁー!」って叫びながらスワップしちゃいます。

使い方: メモリ使用量の変動が激しいアプリも、「まかせなさい!スワップの術じゃ!」で難なく対応。

技術的詳細:

  • Kubeletの設定でmemorySwap.swapBehaviorパラメータを使用
  • メモリ使用量の予測が難しいワークロードに対応
  • パフォーマンスへの影響を考慮し、適切に設定が必要

5. cgroup v2への引っ越し大作戦 🚚

何が起こった? cgroup v1のサポートがメンテナンスモードに移行。v2への移行を推奨。

つまり? 「v1くん、そろそろ卒業だね。v2くん、よろしくね!」ってことです。

使い方: 最新のLinuxディストリビューションに引っ越して、「わーい、新居きもちいー!」って喜びましょう。

技術的詳細:

  • リソース管理の一貫性と予測可能性が向上
  • メモリ、CPU、I/Oの管理が改善
  • コンテナ間の干渉をさらに減少
  • 使用するLinuxディストリビューションのcgroup v2サポート状況の確認が必要

6. 差分スナップショットで時間旅行! ⏰

何が起こった? CSI Differential Snapshotの機能が追加されました。

つまり? 「えーっと、5分前に戻りたいなぁ」ってときに、ピンポイントで戻れちゃいます。

使い方: バックアップが「ズバッ!」と効率的に。タイムマシンみたいでしょ?

技術的詳細:

  • 前回のスナップショットからの変更点のみを保存
  • ストレージ使用量を大幅に削減
  • スナップショットの作成と復元を高速化
  • VolumeSnapshotContentオブジェクトに新フィールドを追加

7. トークンがより賢く、より強く 🧠💪

何が起こった? サービスアカウントトークンの改善がされました。

つまり? トークンが「僕、賢くなったんだ!」って自慮リカしながら、よりセキュアに働きます。

使い方: 認証がより安全に。「合言葉は?」「ピーマンの天ぷら!」みたいな感じで、よりスマートな認証が可能に。

技術的詳細:

  • PodのNodeに関する情報が自動的に組み込み
  • トークンをNode自体にバインドする機能を追加
  • Nodeが削除された場合、関連するトークンも自動的に無効化
  • 各JWTにUUID (JTI) を含め、APIサーバーへのリクエストの追跡が容易に

8. Kube-Proxyのスーパー健康診断! 🏥🔍

何が起こった? Kube-Proxyの接続信頼性が大幅改善!

つまり? Kube-Proxyが「俺様の体調管理、完璧だぜ!」って自慢できるようになったんです。

使い方: ノードが「あいたた...具合悪いよ〜」ってなっても、「大丈夫!私が見守ってるわ♪」って感じで、接続を賢く管理してくれます。

技術的詳細:

  • 終了中のノードや不健康なKube-proxyのエンドポイントに対する接続処理を改善
  • eTP:Clusterサービスに焦点を当てた変更
  • 以下の3つの主要な変更点:
  1. 終了中ノードの接続ドレイン:

    • ToBeDeletedByClusterAutoscaler taintを使用して終了中ノードを識別
    • healthzチェックを失敗させ、ロードバランサーに接続ドレインを通知
  2. /livezパスの追加:

    • Kube-proxyのヘルスチェックサーバーに /livez エンドポイントを追加
    • データプレーンのプログラミングが古くなっていないかを示す
  3. クラウドプロバイダーのヘルスチェック:

    • Kubernetesの公式サイトにクラウドプロバイダー向けのヘルスチェックガイドを作成予定
    • より良いヘルスチェック実践のための知識共有を促進

この改善により、Kube-Proxyはより賢く、より効率的に接続を管理できるようになります。まるで、クラスターの名医が24時間体制で健康診断をしてくれるようなものですね!

9. サービスのトラフィック、好みの道を選べる! 🚦🗺️

何が起こった? サービス仕様に新しい「trafficDistribution」フィールドが追加!

つまり? トラフィックが「僕、こっちの道が好きなんだ〜」って自分で道を選べるようになったんです。

使い方: 「近場のエンドポイントに行きたいな〜」ってときは、「PreferClose」って指定するだけ。簡単でしょ?

技術的詳細:

  • Serviceの仕様に新しいtrafficDistributionフィールドを追加
  • 以前のtopologyKeysメカニズムよりも柔軟な制御が可能に
  • ルーティングの決定に対してヒントを提供(厳密な保証はなし)

主な特徴:

  • PreferCloseなど、トポロジー的に近いエンドポイントへのルーティング設定が可能
  • 値が設定されていない場合は、実装側にルーティング決定を委ねる
  • ユーザー制御の強化、標準的なルーティング設定、柔軟性の向上
  • 革新的なルーティング戦略のための拡張性を提供

これで、トラフィックの流れをよりスマートにコントロールできるようになります。まるで、トラフィックに「あっち行って〜」「こっち来て〜」って指示できる魔法使いになったみたい!

10. サービスCIDR、無限増殖の術! 🌱➡🌳

何が起こった? 複数のService CIDRをサポートする新機能が登場!

つまり? サービスIPアドレスが「増えろ〜増えろ〜」って言うと、本当に増えちゃうんです!

使い方: 「もっとIPアドレスが欲しいな〜」って思ったら、新しいServiceCIDRを作るだけ。まるで畑を耕すみたい!

技術的詳細:

  • 新しいAPI オブジェクト「ServiceCIDR」と「IPAddress」を導入
  • ユーザーが動的にService IPを増やせるように
  • 新しいアロケータロジックで、利用可能なServiceCIDRから自動的にIPを消費

主な特徴と制約:

  1. ServiceCIDRは作成後は不変(まるで一度植えた木みたい🌳)
  2. ServiceCIDRの削除は、関連するService IPがない場合のみ可能
  3. オーバーラップするServiceCIDRも許可(重なり合う畑、OK!)
  4. APIサーバーがデフォルトのServiceCIDRを確保
  5. 全てのIPAddressは定義されたServiceCIDRに属する必要あり
  6. ClusterIPを持つ全てのServiceには、関連するIPAddressオブジェクトが必要
  7. 削除中のServiceCIDRは新しいIPを割り当てられない(お引越し中はお休み)

これにより、ServiceとIPAddressは1対1の関係に、ServiceCIDRとIPAddressは1対多の関係になります。オーバーラップするServiceCIDRはメモリ内で統合され、そのIPを含む任意のServiceCIDRからIPAddressが提供されます。

Gateway APIなど他のAPIでも使用可能で、将来的にはService範囲に対する管理操作やクラスター全体の操作が可能になります。

まるで、IPアドレスの畑が無限に広がっていくような感じですね。「IPアドレスよ、湧き出でよ!」って魔法をかけられる気分を味わえます!

11. ノードメモリ、スワップで超変身! 🧠💾

何が起こった? Kubernetesにスワップメモリのサポートが正式に追加されました!

つまり? ノードが「メモリ足りないよ〜」って叫んだときに、「はい、スワップ頼むー!」って言えるようになったんです。

使い方: ノード管理者さんは「よーし、パフォーマンスチューニングだ!」、アプリ開発者さんは「うちのアプリ、ちょっとスワップ使いたいな」って時に使えます。

技術的詳細:

  • ノードレベルでのコントロールされたスワップ使用を実現
  • kubeletが特定の設定下でKubernetesワークロードにスワップ空間の利用を許可
  • Linuxノードの運用をスワップで強化
  • 管理者がワークロード用のスワップ使用量を決定可能
  • 現時点では個々のワークロードが自身のスワップ制限を設定することは不可

ポイント:

  1. ノード管理者向け:パフォーマンスチューニングの新しい道具箱をゲット!
  2. アプリ開発者向け:スワップが必要なアプリも、もう安心して動かせます
  3. コントロール重視:ノードレベルで賢くスワップを使えるように
  4. 柔軟な設定:特定の設定下でスワップ空間を活用
  5. 将来の拡張性:個々のワークロードでのスワップ制限設定は今後の課題

これで、メモリ管理がまるで魔法使いのように賢くなります!「メモリ足りない?スワップの出番だ!」って感じで、ノードがより賢く、より効率的に動作するようになりますよ。まるでノードが「メモリの達人」にレベルアップしたみたいですね!

12. Podの相性診断、より繊細に! 💘🔍

何が起こった? PodAffinityとPodAntiAffinityに、MatchLabelKeysとMismatchLabelKeysが導入されました!

つまり? Podたちが「私、あの子と一緒がいい!」「私は、あの子とは別がいいな〜」ってより細かく主張できるようになったんです。

使い方: ローリングアップグレード中に「新しいバージョンのPodさん、こっちこっち!」って、より正確にPodの配置を制御できます。

技術的詳細:

  • PodAffinityTermにMatchLabelKeysを導入
  • PodAffinityとPodAntiAffinityの精度が向上
  • Pod共存の評価範囲をユーザーが指定可能に

主なメリット:

  1. ローリングアップグレード時の配置制御が向上
  2. 新旧Podバージョンが同時に存在する際のスケジューリング課題に対応
  3. 特に飽和状態や遊休状態のクラスターでの効果が顕著
  4. スケジューリングの効率性が向上
  5. クラスターリソースの利用率が改善

これで、Podたちの相性診断がより繊細に!「あら、あなたとはweb-tierラベルが合うわね♪」なんて会話が聞こえてきそうですね。クラスター内のPodたちの人間関係(え、Pod関係?)がより円滑になること間違いなし!

13. PersistentVolumeに、タイムスタンプという名の思い出作り! 📸⏰

何が起こった? PersistentVolumeに新しいタイムスタンプフィールドが追加されました!

つまり? ボリュームたちが「僕、○月○日○時に成長したんだ!」って自慢できるようになったんです。

使い方: クラスター管理者さんが「ふむふむ、このボリューム、いつ解放されたんだっけ?」って思ったときに、さっと確認できちゃいます。

技術的詳細:

  • APIサーバーが新しいタイムスタンプフィールドをサポート
  • ボリュームが異なるフェーズに遷移した時刻を記録
  • 新規作成および状態変更時に現在時刻がセット
  • クラスター管理者向けの便利機能

主な特徴と利点:

  1. PersistentVolumeの一覧表示と並べ替えが遷移時間ベースで可能に
  2. 手動クリーンアップと管理が容易に
  3. Deleteポリシーによるデータ損失問題に対処
  4. Retainポリシーでの未使用ボリューム管理を改善
  5. Releasedフェーズへの最後の遷移時刻を簡単に特定
  6. すべてのフェーズ遷移で汎用的なタイムスタンプ記録
  7. Pending〜Boundフェーズ間の時間測定など、貴重な指標とインサイトを提供

これで、ボリュームたちの人生(え、ボリューム生?)の歴史がしっかり記録されます!まるで、ボリュームたちの「成長アルバム」ができたようなものです。「ねえねえ、私いつ解放されたの?」「そうだねぇ、タイムスタンプを見てみよう!」なんて会話が聞こえてきそうですね。クラスター管理者さんも、ボリュームたちの思い出整理が楽になること間違いなし!

14. ボリュームに魔法の着せ替え機能! 🧙‍♂️👗

何が起こった? 新しい「VolumeAttributesClass」というAPIリソースが登場!

つまり? ボリュームたちが「今日はIOPS衣装で、明日はスループット衣装で!」って、自由にお着替えできるようになったんです。

使い方: 「このボリューム、もうちょっとパワーアップさせたいなぁ」って思ったら、容量はそのままで性能だけ変更できちゃいます。

技術的詳細:

  • 新API リソース「VolumeAttributesClass」の導入
  • アドミッションコントローラーと属性保護コントローラーも一緒に登場
  • IOPSやスループットなどのボリューム属性を容量とは別に管理可能
  • StorageClass.parametersの不変性問題を解決
  • クラウドプロバイダーAPIを直接使わずに属性更新が可能に

主な特徴と利点:

  1. 作成時と既存ボリュームの両方で属性指定・変更が可能
  2. ワークロードに影響を与えない変更が可能
  3. クラウドプロバイダーに依存しない属性指定
  4. ストレージを通じて属性を強制適用
  5. ワークロード開発者が無停止で属性変更可能
  6. StorageClassとの競合はドライバーがエラーとして検出

注意点:

  • OS レベルのIO属性は対象外
  • Pod間のボリューム属性も対象外
  • ノード固有のボリューム属性制限に基づくスケジューリングは未対応

これで、ボリュームたちが自由にパワーアップできちゃいます!まるで、ボリュームたちの「魔法の着せ替えゲーム」ができたようなものですね。「今日はハイパフォーマンス衣装で決めるわよ!」なんて声が聞こえてきそう。クラウドの魔法使いたち(開発者の皆さん)も、もっと自由にボリュームたちをカスタマイズできるようになりました。ボリュームたちのファッションショー、いや、パフォーマンスショーの始まりです!

15. ブロックボリュームの変身を見逃すな!CSI差分スナップショットの秘密 🕵️‍♂️📸

何が起こった? CSIに新しい「SnapshotMetadata」というgRPCサービスが登場!...でも、ちょっと出番を待つことになりました。

つまり? ブロックボリュームが「ねえねえ、私の何が変わったか当ててみて!」って言えるようになるんです。でも、まだ準備中なんですって。

使い方: バックアップアプリが「よーし、変更点だけ教えて!」って言うと、スナップショット間の変更点だけをサクッと教えてくれます。

技術的詳細:

  • 新しいオプションのCSI SnapshotMetadata gRPCサービスを導入
  • 単一スナップショットの割り当てブロックや、スナップショット間の変更ブロックのメタデータを取得可能
  • コミュニティ提供のexternal-snapshot-metadataサイドカーで実装
  • CSIドライバーがデプロイする必要あり
  • セキュアなTLS gRPC接続を通じてスナップショットメタデータにアクセス
  • Kubernetes APIサーバーの負荷を最小限に抑える

主な特徴と利点:

  1. サイドカーがCSIドライバーのSnapshotMetadataサービスと私的なUNIXドメインソケットで通信
  2. Kubernetesの認証トークンの検証、バックアップアプリの認可、RPCパラメータの検証、必要なプロビジョナーシークレットの取得をサイドカーが処理
  3. CSIドライバーがSnapshotMetadataServiceCRを通じてサービスの存在を広告
  4. バックアップアプリは事前にTokenRequest APIで認証トークンを取得する必要あり
  5. 指定されたCAとの信頼関係を確立し、トークンをgRPC呼び出しで使用

目標:

  • ボリュームスナップショットの割り当て済みブロックと変更ブロックを識別するセキュアなCSI APIを提供
  • ストレージプロバイダーから大量のスナップショットメタデータを効率的に中継

これで、ブロックボリュームたちの「ビフォーアフター」が簡単に分かっちゃいます!まるで、ボリュームたちの「変身力」を見逃さない超高性能カメラができたようなものですね。「私の何が変わったか分かる?」「もちろん!髪型...じゃなくて、このブロックが変わったね!」なんて会話が聞こえてきそう。バックアップの魔法使いたち(開発者の皆さん)も、もっと賢くデータを守れるようになりました。ただし、この魔法のカメラ、もう少し修行が必要みたいです。楽しみに待っていましょう!

16. アドミッションポリシーが魔法使いに!変身の呪文を唱えられるように 🧙‍♂️✨

何が起こった? CEL式を使った新しい「変身系アドミッションポリシー」が登場!

つまり? Kubernetesリソースが「アブラカダブラ!ラベル付けて!」って言うと、魔法のように変身しちゃうんです。

使い方: 「このPodに急遽サイドカーコンテナを追加したい!」なんて時に、ちょちょいと呪文(CEL式)を唱えるだけ。

技術的詳細:

  • CEL式を使用したミューテーティングアドミッションポリシーを導入
  • ミューテーティングアドミッションWebhookの代替手段として機能
  • KEP-3488で確立された検証用アドミッションポリシーのAPIをベースに構築
  • CELのオブジェクトインスタンス化とServer Side Applyのマージアルゴリズムを活用

主な特徴と利点:

  1. ラベル設定やサイドカーコンテナ追加などの一般的な変更操作が簡単に
  2. Webhookの管理複雑性と運用オーバーヘッドを削減
  3. kube-apiserverが変更内容を調査し、ポリシー適用順序を最適化可能
  4. 再呼び出しの必要性を最小限に抑制
  5. プロセス内変更はWebhookよりも高速
  6. 全操作適用後の一貫性確保のための再実行が可能

目標:

  • ほとんどのユースケースでミューテーティングWebhookの代替手段を提供
  • Webhookなしでポリシーフレームワークを実現
  • 古いKubernetesバージョンとの互換性のためのツリー外実装を提供
  • GitOps、CI/CDパイプライン、監査シナリオで使用するコア機能をライブラリとして提供

これで、Kubernetesの世界に「変身の魔法」が登場です!まるで、リソースたちが「魔法学校」に通い始めたみたい。「今日の呪文は『ラベルアッド』よ!」「え〜、難しそう...」なんて会話が聞こえてきそうですね。でも心配無用!この魔法、とっても簡単なんです。Webhook魔法使いの皆さん、新しい魔法に乗り換えてみませんか?より速く、より賢く、そしてより柔軟に、Kubernetesの世界を変えていけますよ!

さいごに

Kubernetes 1.31は、まるでドラえもんのひみつ道具箱のよう。これらの新機能を使えば、あなたのクラスターは驚きの力を身につけられるはずです。さぁ、新しいKubernetesの世界で冒険を始めましょう!

忘れずに:アップデートの前には、必ず「バックアップの術」を使っておくことをお忘れなく!

2
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?