LoginSignup
10
9

More than 3 years have passed since last update.

Rook v1.0で読み解くCSI

Posted at

TL;DR

  • CSIはKubernetesなどからストレージを扱うインターフェースのこと。
  • Kubernetes CSI Developer Documentationに実装すべき事項、サンプルが整理されている。
  • Rook v1.0+Ceph CSIも上記に準拠して実装されていることを確認する。

そもそもCSIとは

CSIはContainer Storage Interfaceの略で、ここからも分かるとおり、Kubernetesだけを対象としたものではなく、コンテナオーケストレーションツールからストレージを扱うインターフェースを定めた規格です。
Kubernetesでは1.13からGAとなっているため、先日書いたこの投稿こちらでも1.13.4を使って検証を行っています。

CSIがそれ以前のストレージ関連機能と何が違うのか?という観点では、in-treeout-of-treeかということが良く語られますので、以下に整理してみました。

  • in-treeのVolume Plugin
    • Kubernetesのソースツリーに組み込まれる形で開発されているVolume Plugin。
    • 具体的にはkubernetesのgithubリポジトリのここにソースがある。
    • 各クラウドベンダのストレージやiSCSIのPlugin等が存在することが確認できる。
    • リリースをKubernetes本体と揃えなければならないため、開発に制約が生じていた。
  • FlexVolume
    • CSIより以前から存在する、out-of-tree形式のVolume Plugin。
    • 各ノードにドライバをデプロイし、Kubeletがそれを使ってVolumeをプロビジョニング/アタッチ/デタッチする
    • ソースツリー外での開発が可能となったが、ドライバファイルをルートファイルシステム(具体的には /usr/libexec/kubernetes/kubelet-plugins/volume/exec/)に配置する必要がある。
    • 簡単な構成図はこんな感じ。 image.png
    • CSIがGAとなってもFlexVolumeがなくなるわけではない。
  • CSI
    • FlexVolumeの制約を回避し、より柔軟にVolume Pluginのデプロイが行えることを目指している。
    • provisionerやattacherがdriverを利用して動的なボリュームのプロビジョニング、コンテナへのアタッチ/デタッチを行う。
    • 構成が複雑となり、Rook v1.0の検証でも指摘したように運用に制約が生じるケースがありそうと個人的には思っている。

CSIに対応したPluginを開発するには

Rookの話に入る前に、ストレージプロバイダ(ベンダ)がCSI対応のVolume Pluginを開発するというのはどういうことなのかを見てみましょう。

Kubernetes CSI Developer DocumentationにCSIの開発例が記述されていますが、それぞれコンテナ化された下記のコンポーネントを用意する必要があります。

≪DaemonSetに含まれるコンテナ≫
- CSI Driver Container:コンテナ形式で提供されるドライバ本体。
- node-driver-registar:ドライバを各ノードのkubeletに登録する。

≪StatefulSetに含まれるコンテナ≫
- CSI Driver Container:コンテナ形式で提供されるドライバ本体。
- external-provisioner:APIサーバと通信してPVCの作成をウォッチし、対応するボリュームのプロビジョニングを行う。PVC削除時にはボリュームの削除も担う。
- external-attacher:APIサーバと通信してボリュームのアタッチを行う。
- cluster-driver-registar:CSIDriver Objectを作成して、ドライバをk8sクラスタに登録する。

公式ドキュメントには以下のような図もあげられており、ストレージベンダが実際に開発するのはドライバ本体のみで、それ以外はKubernetesの開発チームが提供することも明示されています。

RookでCeph CSIを使うケースで考える

さて、ここまで長々とCSIの意義・仕様を見てきましたが、実際にRook v1.0でCSIを利用した際にどのようにCSI関連のコンテナが配置されているかを見てみましょう。

Rook v1.0によるCeph Clusterの構築ができた段階

先日の記事で書いたRook v1.0によるCeph Clusterの構築とoperator-with-csiの適用が終わった時点で、CSIの各コンテナまでを詳細に書くと以下のような構成になっています。

image.png
※左側workerがCSIのprovisionerなどが含まれるStatefulSetのPodがデプロイされたノード、右側workerがDaemonSetのPodのみがデプロイされたノードです。真ん中のノードは右側と同一構成となるため、これ以降では省略します。
※RookもCeph CSIによるプロビジョニング・アタッチには関与しません。それらも上図から除外しています。

PVCの作成=CSI Provisionerの動作

以降で先日書いたCSIの動的プロビジョニング/アタッチを試すの中で、実際にCeph CSIで何が行われているかを見ていきます。

先日記事では以下のような手順を書きました。

  1. RBD用のreplicapoolを作成
  2. csi-rbdpluginを呼び出すStorageClassでmonのアドレスを修正して作成
  3. Cephクラスタにclient.Kubernetesの認証情報を作成
  4. ceph auth get-keyでキーを取得してsecret.yamlに反映して作成
  5. PVCを作成
  6. 5.のPVCを利用するPodを作成

この中でCeph CSIと関連するのは5.と6.になります。
5.でPVCを作成すると、下図のようにCeph上にRBDのボリュームが作成され、PVとバインドされます。

image.png

実際にはPVCから参照されるStorageClassにStorage Provisionerが明記されているわけですが、図中では省略しています。

PodでPVをマウント

作成したPVCを利用するPodがデプロイされた時の動きを次に見てみましょう。
先ほどの6. 5.のPVCを作成するPodを作成の部分です。こちらも図で見てみましょう。

image.png

attacherがrbdpluginを使用してPodが稼働するノードでRBDボリュームのアタッチをしています。
ここまででCeph CSIによるプロビジョニングとアタッチは完了です。

まとめ

如何だったでしょうか。
CSIの各コンポーネントの配置、そしてそれを利用したプロビジョニング・アタッチはかなり複雑な処理であることがわかります。

また、その複雑さを説明した資料は日本語で殆ど見つからないため、内部の動きを追うことは難しいといえます。興味が出てきたという方は、先ほど提示したCSIデベロッパー向けドキュメントやこちらの資料をご覧下さい。

よろしくお願いします。

10
9
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
10
9