13
9

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

【CNDT2019への道】GWにやってきた!Rook v1.0のCSIを試す

Last updated at Posted at 2019-05-20

TL;DR

  • 5月頭にリリースされたRook v1.0を試してみた。
  • 7月に発表予定のDB on Kubernetesの検証なのでCeph RBDで使ってみる。
  • RookではBeta版のCSIでやってみる。
  • 手順が煩雑でドキュメントに分かりづらい部分もあるけど動いたよ。

Rook v1.0、リリース

Rookはv0.8の頃から試しており、過去にPostgreSQL on Rookということで試してきました。
※過去の投稿はこの辺にあります。

今回、5/3に公式ブログでRook v1.0のリリースが発表されました。
このタイミングでブランディングも更新されたようで、これまでの城砦ロゴだけではなくSirSir(ドルアーガの塔っぽい??)というマスコットが登場しました。

ブログにはいろいろと新しいFeatureが紹介されていますが、現在私が行っている検証で気になるのは下記のあたりですね。

  • Ceph Nautilusに対応。性能も改善しているらしい。
  • CSI対応はnow available for testingでBeta版。v1.1でStableを目指すらしい。

RookをCeph CSIで試す

では、Rookを用いて構築したCephクラスタにCSIでアクセスする構成を検証していきます。
今回のシステム構成図は以下のようになります。

image.png

コンポーネントは大きく分けると、RookとCeph、そしてCeph CSIの3つから構成されています。

検証時のKubernetesバージョンは1.13.4で、Amazon EC2のインスタンス上にクラスタを構築しています。ホストOSはCentOS7の公式イメージで、こちらにあるような事前準備は不要でした。
更にCeph-CSIを利用する際の前提でこちらのページに以下2点があげられています。これも確認しておきましょう

  • Kubernetesのバージョンはv1.13以上が必須。CSI Spec 1.0のサポートが必要なので。
  • --allow-privileged=true をkubeletとAPI-serverに設定する。

##【前提】BlueStoreとFileStore
Rook v1.0を試す際に注意して欲しいのは、git上のyamlで構築するとRawデバイスが必要な構成になります。これはCephのFileStoreではなくBlueStoreを使うようになっているためで、簡単なお試しには少しハードルが高くなります。

BlueStoreについてはこちらの資料などをご覧下さい。

FileStoreへの切替はこんな感じで

具体的にBlueStoreでなく、FileStoreで使う場合にはcluster.yamlを以下のように変更します。

cluster.yaml
(修正後)
  storage: # cluster level storage configuration and selection
    useAllNodes: true
    # useAllDevicesをtrue -> falseに変更
    useAllDevices: false
    deviceFilter:
    location:
    config:
      # storeTypeでfilestoreを指定
      storeType: filestore
    # FileStoreを配置するディレクトリを以下で指定
    directories:
    - path: /var/lib/rook

(yaml修正サンプルはこちら
なお、以降の検証ではBlueStoreを使っています。

【手順1.】Ceph Clusterの作成

v0.9からファイル構成が変更になっています。過去バージョンではoperator.yamlとcluster.yamlの2本がメインでしたが、common.yamlが追加され、それぞれには以下の内容が記述されています。

  • common.yaml : CephClusterなどの各種CRD、NamespaceやRole等を宣言
  • operator.yaml : rook-ceph-operatorを定義
  • cluster.yaml : CephClusterの内容を定義する、使うCephのバージョン(Luminous,mimic,nautilus)もここで選べる

リポジトリをcloneしたら順番にapplyしていきましょう。

Ceph Clusterの作成
(※標準出力が長いので割愛) 
$ git clone https://github.com/rook/rook.git
$ cd rook/rook/cluster/examples/kubernetes/ceph/

$ kubectl apply -f common.yaml
$ kubectl apply -f operator.yaml
$ kubectl apply -f cluster.yaml

ここまで正常に終了し、Ceph Clusterが立ち上がると以下のようにPodが起動しているはずです。

Ceph Clusterの起動結果
$ kubectl get pod -n rook-ceph
NAME                                           READY   STATUS      RESTARTS   AGE
rook-ceph-agent-78jxd                          1/1     Running     0          20m
rook-ceph-agent-bdhcj                          1/1     Running     0          20m
rook-ceph-agent-jlp7l                          1/1     Running     0          20m
rook-ceph-mgr-a-6486bdd777-drf4n               1/1     Running     0          14m
rook-ceph-mon-a-b6589c4c4-k78cb                1/1     Running     0          15m
rook-ceph-mon-b-b7b95d74-vngbt                 1/1     Running     0          15m
rook-ceph-mon-c-58f8748475-h7s4b               1/1     Running     0          14m
rook-ceph-operator-7bc8459977-zkz5r            1/1     Running     0          10m
rook-ceph-osd-0-5dcf7ffcb6-zsjkh               1/1     Running     0          14m
rook-ceph-osd-1-75bf9f64c-mdr9j                1/1     Running     0          14m
rook-ceph-osd-2-5c56d485d8-wbt79               1/1     Running     0          14m
rook-ceph-osd-prepare-ip-172-31-16-45-bvbmb    0/2     Completed   0          9m16s
rook-ceph-osd-prepare-ip-172-31-19-51-6j42j    0/2     Completed   0          9m14s
rook-ceph-osd-prepare-ip-172-31-28-223-44prs   0/2     Completed   0          9m12s
rook-discover-jgb2n                            1/1     Running     0          20m
rook-discover-sqggt                            1/1     Running     0          20m
rook-discover-v847d                            1/1     Running     0          20m

【手順2.】operator-with-csiの適用

先ほどrook-ceph-operatorを作成しましたが、そちらにCSI関連のパラメータを与えて更新します。そのためにはRBACの設定も必要になるので、そちらも忘れずに適用しておきます。

operator-with-csi.yamlの適用
$ kubectl apply -f csi/rbac/rbd/
serviceaccount/rook-csi-rbd-plugin-sa created
clusterrole.rbac.authorization.k8s.io/rbd-csi-nodeplugin created
clusterrole.rbac.authorization.k8s.io/rbd-csi-nodeplugin-rules created
clusterrolebinding.rbac.authorization.k8s.io/rbd-csi-nodeplugin created
serviceaccount/rook-csi-rbd-provisioner-sa created
clusterrole.rbac.authorization.k8s.io/rbd-external-provisioner-runner created
clusterrole.rbac.authorization.k8s.io/rbd-external-provisioner-runner-rules created
clusterrolebinding.rbac.authorization.k8s.io/rbd-csi-provisioner-role created

$ kubectl apply -f rook-operator-with-csi.yaml
deployment.apps/rook-ceph-operator configured

これで何が行われたかというと、csi-rbdplugin-provisonerというStatefulSetとcsi-rbdpluginというDaemonSetが作成され、Podが下記のように起動してきます。

csi-rbdpluginのPod
$ kubectl get pod -n rook-ceph
NAME                                           READY   STATUS      RESTARTS   AGE
csi-rbdplugin-h2n9j                            2/2     Running     0          4m42s
csi-rbdplugin-hbpzx                            2/2     Running     0          4m42s
csi-rbdplugin-provisioner-0                    4/4     Running     0          6m16s
csi-rbdplugin-tst94                            2/2     Running     0          4m42s
(※以下略)

【手順3.】CSIの動的プロビジョニング/アタッチを試す

ここまででRookによるCephクラスタの構築と、CSIのrbdpluginの準備が完了しました。
しかし、ここからStorageClass->PVC->PVとボリュームを動的にプロビジョニングしてアタッチするまでに、実はもう一山あります。

それが公式ドキュメントのTest RBD CSI Driverになるのですが、手順としては以下のようになります。

  1. RBD用のreplicapoolを作成
  2. csi-rbdpluginを呼び出すStorageClassでmonのアドレスを修正して作成
  3. Cephクラスタにclient.Kubernetesの認証情報を作成
  4. ceph auth get-keyでキーを取得してsecret.yamlに反映して作成
  5. PVCを作成
  6. 5.のPVCを利用するPodを作成

コマンドを実行した結果は以下のようになります。

PodからCSIのプロビジョニング/アタッチを試すところまで
#1. RBD用のreplicapoolを作成
$ kubectl apply -f pool.yaml
cephblockpool.ceph.rook.io/rbd created

#2.csi-rbdpluginを呼び出すStorageClassでmonのアドレスを修正して作成 
$ cd csi/exsample/rbd/
$ vi storageclass.yaml
#   以下の箇所を修正。アドレスには各monのサービス名:portを指定する
#   monitors: mon1:port,mon2:port,...
$ kubectl apply -f storageclass.yaml

#3. Cephクラスタにclient.Kubernetesの認証情報を作成
$ kubectl exec -ti -n rook-ceph rook-ceph-operator-xxx -- bash -c "ceph -c /var/lib/rook/rook-ceph/rook-ce
ph.config auth get-or-create-key client.kubernetes mon \"allow profile rbd\" osd \"profile rbd pool=rbd\""

#4. ceph auth get-keyでキーを取得してsecret.yamlに反映して作成
$ kubectl exec -ti -n rook-ceph rook-ceph-operator-7bc8459977-zkz5r -- ceph auth get-key client.admin|base64
# この結果を(1)としてメモ
$ kubectl exec -ti -n rook-ceph rook-ceph-operator-7bc8459977-zkz5r -- ceph auth get-key client.kubernetes|base64
# こちらは(2)としてメモ
$ vi secret.yaml
  #   以下の箇所を修正
   # Key value corresponds to a user name defined in Ceph cluster
   # admin: (1)を記入
   # Key value corresponds to a user name defined in Ceph cluster
   # kubernetes: (2)を記入
$ kubectl apply -f secret.yaml

#5. PVCを作成
$ kubectl apply -f pvc.yaml
persistentvolumeclaim/rbd-pvc created

#6. 5.のPVCを利用するPodを作成
$ kubectl apply -f pod.yaml
pod/csirbd-demo-pod created

2.から4.までがかなり作業として煩雑です。CSIを使った場合には、provisionerが外部に出てしまうので、そこに認証情報を渡すには今はこれしかないという感じなのでしょうか。
今後のupdateを望む部分です。

ここまで完了するとPVCと動的にプロビジョニングされたPVが作成されています。

csi-rbdpluginで作成されたPVC、PV
[ec2-user@ip-172-31-9-219 rbd]$ kubectl get pvc,pv
NAME      STATUS   VOLUME                                     CAPACITY   ACCESS MODES   STORAGECLASS   AGE
rbd-pvc   Bound    pvc-50f21ed8-7a4a-11e9-a568-062c66232d1c   1Gi        RWO            csi-rbd        43s

NAME                                       CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM             STORAGECLASS   REASON   AGE
pvc-50f21ed8-7a4a-11e9-a568-062c66232d1c   1Gi        RWO            Delete           Bound    default/rbd-pvc   csi-rbd                 25m

初期化が危ない!

ここまで一本道のように見えますが、実はいろいろと試行錯誤をしました。おそらく皆さんが試す際にも同じようになるはずです。

ここで注意点が一つ。

clusterやoperatorを再作成したいという場合、こちらにあるクリーンアップの手順に従うことになります。v0.9の頃からRookのクリーンアップはkubectl deleteだけでは済まずに、ホスト上のファイル削除が必要でした。

しかし、上で書いたBlueStoreを使う場合、さらに一つ手順が追加されます。
それが以下のシェルを作成して各ノードで実行、というもの。

#!/usr/bin/env bash
DISK="/dev/xxx"
# Zap the disk to a fresh, usable state (zap-all is important, b/c MBR has to be clean)
# You will have to run this step for all disks.
sgdisk --zap-all $DISK

# These steps only have to be run once on each node
# If rook sets up osds using ceph-volume, teardown leaves some devices mapped that lock the disks.
ls /dev/mapper/ceph-* | xargs -I% -- dmsetup remove %
# ceph-volume setup can leave ceph- directories in /dev (unnecessary clutter)
rm -rf /dev/ceph-*

これが**非常に危険です。
上記でDISKを書き換えて実行すると
該当ディスクをまっさらに初期化**してくれます。
rootボリュームでも容赦なし、です(試してませんが)。

この初期化を考えるだけでも、テスト時はFileStoreでの構築を強くお勧めします。

まとめ

さて、どうだったでしょうか。

今回はかなりの長文となりましたが、それほど現在のCeph CSIの利用手順は複雑です。
CSIの仕組み自体の解説などは全く出来てませんので、次回はこのRookを例にCSIの各モジュールの配置などが解説できればと思います。

あ、タイトルの説明を忘れていました。
今回のRook、Ceph CSIを使った検証内容をCloudNativeDays Tokyo 2019で発表予定です。こちらもご期待下さい。

よろしくお願いします。

13
9
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
13
9

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?