はじめに
この記事では、タイトルのとおり現時点(2021.01)で最新である__ceph(octopus)__の構築を目的としています。
また、自分で構築した手順の備忘録を兼ねているので、細かいところで間違いなどあるかもしれません。
基本的には公式のDOCUMENTATIONが必要なことを全て網羅しているので一読しておくことをお勧めします。
Linuxの知識もある程度必要になるので他サイトや書籍などで事前に基本は押さえておくとよいでしょう。
準備編等は関連記事を参照してください。
関連記事
Ceph(Octopus)の構築(準備編 ハードウェア)
Ceph(Octopus)の構築(準備編 ソフトウェア)
Ceph(Octopus)の構築(設定編 共通)
Ceph(Octopus)の構築(設定編 ブートストラップ)
Ceph(Octopus)の構築(設定編 mon/mgr/osd)
Ceph(Octopus)の構築(設定編 cephFS/mds) この記事
Ceph(Octopus)の構築(設定編 Crush Map)
cephFSボリュームの作成
ここで作成するcephFSのボリューム名は「share」とします。作成自体はコマンド1つで完了です。
cephadm shell
ceph fs volume create share
mdsの自動展開を無効
自動展開を無効にしておかないとノードに意図した役割を持たせることができません。(勝手にmdsが展開されます。)
自動でやってくれるのはありがたいのですが、今回はノード毎に役割を決めているので無効化しておきます。
cephadm shell
ceph orch apply mds share --unmanaged
mds daemonの数を指定
cephadm shell
cceph fs set $shareName max_mds 3
mds daemonの追加
cephadm shell
ceph orch daemon add mds share ceph-mds01
ceph orch daemon add mds share ceph-mds11
ceph orch daemon add mds share ceph-mds21
dashboardの確認(cephFSボリューム)
dataとmetaのボリュームがあれば問題ありません。device_health_metricsは自動生成されました。
dashboardの確認(mds)
Ranksにあるmdsが稼働中のものです。StandbysはRanksにあるmdsが何らかの理由で止まった場合にアクティブになり、Ranksに入るようです。
おわりに
これでcephの設定は完了です。あとは作ったボリュームをsambaで公開すればwindows等からも使えるようになります。