12
9

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

Elastic Cloud on Kubernetes(ECK)がGAになった(なる予定)のでいろいろさわってみた

Last updated at Posted at 2019-12-23

Elastic Cloud on Kubernetes(ECK)がGAになった(なる予定)のでいろいろさわってみた

本記事はElasticsearchアドベントカレンダー(2019年)の24日目の記事です。
23日が空いてましたが、22日目は@hssh2_binさんによる「LogstashとFilebeatでIISログをあれこれしてみた話」でした。

このエントリは何か?(免責事項)

本記事はElastic Cloud on K8s(ECK)がバージョン1.0としてめでたくGAした?ことを記念するためにアドベントカレンダーにエントリしたものです。
2019/05/21に最初のリリースが行われ、0.8、0.9と順調に開発が進められ、1.0-betaのリリースが2019/10/14だったことから、まぁ遅くても2か月後、年内には1.0がGAするよね、と期待して意気込んでアドベントカレンダーにエントリしたのですが、、
2019/12/23時点では1.0 GAのアナウンスはされていません(涙)
このままだとアドベントカレンダーも取り下げか、、と思ったのですが、昨日Githubを見に行ったところ、

image.png

なんと、4日前(12/18)にVERSIONファイルだけひっそりと1.0-betaから1.0に更新されてました(歓喜)
ただし、まだREADMEも1.0-betaのままですしアナウンスもされてないので、もろもろ調整などをしているのだとは思いますが、時間の問題かと勝手に思っています。
ということで、気持ち的にはGAしたつもりで書きすすめていきますのでおつきあいください。
(注意)本エントリはECK 1.0-betaの内容をもとにしています。1.0 GA時点で一部内容が異なる可能性がある点ご了承ください。

はじめに

Elasticsearchは全文検索以外にもインフラのログ、アクセスログによる分析などここ数年で非常にユースケースが幅広くなってきました。
それにともない、Elasticsearchの環境を構築するにもバリエーションが増えてきました。OS上にパッケージインストールする以外にも、Dockerコンテナで起動したり、SaaSとしてのElasticCloudも運用負荷のオフロードという観点で非常に便利です。

今年に入り、kubernetes(以下、k8s)環境上でElasticsearchやKibanaをOperator経由で管理できるElastic Cloud on K8s(ECK)が新しい選択肢として登場しました。Operatorとはk8s上でのインフラ運用を抽象的なリソースとして扱い、自動化するための仕組みです。これにより、k8s環境上でElasticsearchやKibanaを簡単にインストールしたり、ノードスケールアウトやバックアップといった運用作業もすべて自動化が可能になります。

ECKを使うことで、Elasticsearch/Kibanaの環境を少し触ってみたいような場合にも、一からインストールをしなくてもすぐにセットアップができますし、利用者・テナントごとに必要に応じてアドホックにElasticsearch環境を作ったり消したりするという使い方もできます。従来、社内をまたいで共通基盤的にElasticsearchクラスタを管理していたような組織でも、ECKによりサービス開発チームごとに個別のクラスタを立てるという形が今後主流になるかもしれません。

少し前置きが長くなりましたが、ここではECKの簡単な使い方について紹介します。

前提

お手元にk8s環境がある前提とします。パブリッククラウドではいくつかマネージドなk8sサービスがありますので手軽に試す場合は利用を検討してみてください。
今回はAzureが提供するAKS(Azure Kubernetes Service)を使って動作確認をしています。

手元にk8s環境を準備するのが難しい、あるいは、もっと簡単に試してみたいという方も多いかと思いますので、本稿の最後にブラウザベースでECKが試せる方法もご紹介していますので、よろしければ見てみてください。

各種リソース(リポジトリ、ドキュメント)

ECKはgithub上でコードが公開されています。
https://github.com/elastic/cloud-on-k8s

ドキュメントもelasticsearchと同じくサイトにホスティングされています。(ちなみに、ドキュメントとしては1.0バージョンもすでに公開されています。)
https://www.elastic.co/guide/en/cloud-on-k8s/1.0-beta/k8s-overview.html

なお、AKSを利用するための端末環境ですが、AzureですとAzure Portalからすぐ使えるCloud Shellが便利です。初期状態でkubectlコマンド、azコマンドがインストール済になっています。利用方法は以下のドキュメントを参考にしてください。
https://docs.microsoft.com/ja-jp/azure/aks/kubernetes-walkthrough

利用環境

product version
AKS 1.15.5
kubectl 1.16.0
ECK 1.0-beta
Elasticsearch 7.5.1
Kibana 7.5.1

導入手順

手順の概要は以下の通りです。
 1. AKSのセットアップ
 2. k8s環境へのECK Operatorのインストール
 3. Operator経由でElasticsearchリソースをデプロイ
 4. Operator経由でElasticsearchクラスタとKibanaをデプロイ
 5. アクセス確認

1. AKSのセットアップ

AKSクラスタをセットアップする手順の例を以下にまとめますので、参考にしてみてください。
リソースグループ名やクラスタ名、サブネットのCIDRなど、必要に応じて変更してください。
また、リージョンは東日本を指定していますが、AKSはリージョンごとに利用できるk8sのバージョンが異なる場合がありますので、ご注意ください。(az aks get-versions --location japaneastなどとすると確認できます)

## ログイン
$ az login

## リソースグループの作成
$ az group create --name akstest01rg --location japaneast

## 仮想ネットワークとサブネットの作成
$ az network vnet create \
--name aksVNet \
--resource-group akstest01rg \
--address-prefixes 10.0.0.0/8 \
--subnet-name aksSubNet \
--subnet-prefixes 10.1.0.0/16 \
--location japaneast

## AKS を所属させるサブネットリソースID の取得
$ VNET_SUBNET_ID=$(az network vnet subnet list \
--resource-group akstest01rg \
--vnet-name aksVNet \
--query [].id --output tsv)

## AKSクラスタの作成
$ az aks create --resource-group akstest01rg \
--name aks01 \
--network-plugin azure \
--vnet-subnet-id ${VNET_SUBNET_ID} \
--docker-bridge-address 172.17.0.1/16 \
--dns-service-ip 10.0.0.10 \
--service-cidr 10.0.0.0/16 \
--node-count 3 \
--kubernetes-version 1.15.5 \
--generate-ssh-keys

## クレデンシャル情報の登録
$ az aks get-credentials --resource-group akstest01rg --name aks01
Merged "aks01" as current context in /home/USER/.kube/config

## ノード確認
$ kubectl get node
NAME                       STATUS   ROLES   AGE     VERSION
aks-nodepool1-18086731-0   Ready    agent   3d17h   v1.15.5
aks-nodepool1-18086731-1   Ready    agent   3d17h   v1.15.5
aks-nodepool1-18086731-2   Ready    agent   3d17h   v1.15.5

2. k8s環境へのECK Operatorのインストール

k8s環境にECK Operatorを次の手順でインストールします。基本的にkubectl applyコマンド1つでインストールが完了します。便利ですね。

$ kubectl apply -f https://download.elastic.co/downloads/eck/1.0.0-beta1/all-in-one.yaml
customresourcedefinition.apiextensions.k8s.io/apmservers.apm.k8s.elastic.co created
customresourcedefinition.apiextensions.k8s.io/elasticsearches.elasticsearch.k8s.elastic.co created
customresourcedefinition.apiextensions.k8s.io/kibanas.kibana.k8s.elastic.co created
clusterrole.rbac.authorization.k8s.io/elastic-operator created
clusterrolebinding.rbac.authorization.k8s.io/elastic-operator created
namespace/elastic-system created
statefulset.apps/elastic-operator created
serviceaccount/elastic-operator created
$

CRD(カスタムリソース定義)、Operatorが動くためのnamespace、サービスアカウントとRBAC定義が作られ、続けてOperator用Pod(Statefulset)も起動します。

以下のコマンドでOperatorが起動していることを確認しておきます。

$ kubectl get all -n elastic-system
NAME                     READY   STATUS    RESTARTS   AGE
pod/elastic-operator-0   1/1     Running   0          2m25s

NAME                                READY   AGE
statefulset.apps/elastic-operator   1/1     2m26s

この時点で、環境がどのような状態になっているかを以下の図で示します。これはElastic社の方が先月Barcelona k8s meetupで発表された資料をお借りしています。

image.png

Operatorをインストールした現時点では図の①が完了した状態になります。カスタムリソース定義(CRD)とそれを制御するPodが稼働しています。この後、利用者が個別にリソースリクエストをyamlで投げると(②)、コントローラが動作して(③)、よしなにリソース(ElasticsearchクラスタやKibana)をデプロイ(④)してくれます。
以降では、この②③④の動きをみていきましょう。

3. Operator経由でElasticsearchリソースをデプロイ

Operatorが稼働していれば、いつでもElasticsearch、Kibanaのリソースがデプロイ可能です。さっそく、試しに1環境デプロイしてみます。
リソースデプロイには、リソースを定義したyaml(カスタムリソース定義)を作ります。以下が一例です。

quickstart.yaml
apiVersion: elasticsearch.k8s.elastic.co/v1beta1
kind: Elasticsearch
metadata:
  name: quickstart
spec:
  version: 7.5.1
  nodeSets:
  - name: default
    count: 1
    config:
      node.master: true
      node.data: true
      node.ingest: true
      node.store.allow_mmap: false

ここでは、Master兼Data兼Ingestノードを1台構成しようとしています。バージョンは7.5.1ですね。
「kind: Elasticsearch」と書いてある箇所に注目してください。通常のk8sではこのようなリソース種別はないのですが、Opeartorをインストールする際に、CRD(カスタムリソース定義)としてこれらのカスタムリソースを追加したため、利用者が「kind: Elasticsearch」という抽象化されたリソースをリクエストして使うことができます。
従来利用者はElasticsearchのインストール手順に従ってセットアップを行っていましたが、k8s環境+ECKではこれらがすべてyamlファイルでセットアップできることになります。

それではこのリソース定義ファイルを使って実際にデプロイを行います。

$ kubectl apply -f quickstart.yaml
elasticsearch.elasticsearch.k8s.elastic.co/quickstart created
$

実際にどのようなリソースが作られたのかを確認してみます。

$ kubectl get all
NAME                          READY   STATUS    RESTARTS   AGE
pod/quickstart-es-default-0   1/1     Running   0          11m

NAME                            TYPE        CLUSTER-IP     EXTERNAL-IP   PORT(S)    AGE
service/kubernetes              ClusterIP   10.0.0.1       <none>        443/TCP    3d19h
service/quickstart-es-default   ClusterIP   None           <none>        <none>     11m
service/quickstart-es-http      ClusterIP   10.0.110.167   <none>        9200/TCP   11m

NAME                                     READY   AGE
statefulset.apps/quickstart-es-default   1/1     11m

Elasticsearchノード用のStatefulSetが定義され、それに従ってPodが1つ起動しています。また、9200ポートにアクセスするためのserviceリソースも作成されています。

なお、このリソースは何も考えずにdefaultネームスペースにデプロイしたために、service/kubernetesなどのリソースと同居してしまっています。この後のサンプルでは新たにネームスペースを作成して、その上にデプロイしたいと思います。

「kind: Elasticsearch」として作成したリソースは次のコマンドでステータス確認をすることもできます。1ノードクラスタが状態greenで稼働していることがわかります。

$ kubectl get elasticsearch
NAME         HEALTH   NODES   VERSION   PHASE   AGE
quickstart   green    1       7.5.1     Ready   8m59s
$

リソースを削除したい場合には、kubectl deleteコマンドを使います。リソース名として「kind名/インスタンス名」を指定して次のように実行します。

$ kubectl delete elasticsearch/quickstart
elasticsearch.elasticsearch.k8s.elastic.co "quickstart" deleted
$

4. Operator経由でElasticsearchクラスタとKibanaリソースをデプロイ

次にもう少し実践的な内容を試してみるために、以下の要件を考えます。

  • Elasticsearchリソースを展開するための専用ネームスペースを作る
  • ElasticsearchクラスタをMaster/Data分離構成で作る
  • 可用性を考えてMasterを3ノード構成、Dataを2ノード構成にする
  • 上記Elasticsearchに接続するKibanaをデプロイする
  • AKS外部からアクセスできるよう外部ロードバランサからのアクセス経路を設定する

順を追って作業していきます。

  • Elasticsearchリソースを展開するための専用ネームスペースを作る
$ kubectl create namespace myeckns
namespace/myeckns created
$
  • ElasticsearchクラスタをMaster/Data分離構成で作る
  • 可用性を考えてMasterを3ノード構成にする
  • AKS外部からアクセスできるよう外部ロードバランサからのアクセス経路を設定する

これは以下のようにyamlファイル内ですべて定義ができます。

myes.yaml
apiVersion: elasticsearch.k8s.elastic.co/v1beta1
kind: Elasticsearch
metadata:
  name: myeck
  namespace: myeckns
spec:
  version: 7.5.1
  nodeSets:
  - name: master
    count: 3
    config:
      node.master: true
      node.data: false
      node.ingest: false
      node.store.allow_mmap: false
  - name: data
    count: 2
    config:
      node.master: false
      node.data: true
      node.ingest: true
      node.store.allow_mmap: false
  http:
    service:
      metadata: {}
      spec:
        type: LoadBalancer

少し細かい説明になりますが、"spec.nodeSets"でロール別のノードグループが定義できて、さらに"spec.nodeSets.config"以下にどのロールを持たせるかをtrue/falseで指定できます。ここでは、masterのみtrueのノードを3ノード、data/ingestがtrueのノードを2ノードずつ構成しています。
一番下にはこのクラスタに関連づけるserviceリソースのカスタム定義をしており、AKSで"type: LoadBalancer"を指定することで外部のAzure LoadBalancerを紐づけることができるようになっています。

なお、「version: 7.5.1」とある箇所がElasticsearchのバージョンを指定できる属性ですが、2019/12/22現在で7.6.0のdockerイメージは取得できない(リリースされてない)ため、7.5.1を使っています。

$ sudo docker image pull docker.elastic.co/elasticsearch/elasticsearch:7.6.0
Error response from daemon: manifest for docker.elastic.co/elasticsearch/elasticsearch:7.6.0 not found
$

以下のコマンドでこのリソースを作成してみます。

$ kubectl apply -f myes.yaml
elasticsearch.elasticsearch.k8s.elastic.co/myeck created
$

リソースの確認をする際は、"-n"オプションを付けて明示的にネームスペースを指定する必要がある点に注意してください。

$ kubectl get all -n myeckns
NAME                    READY   STATUS    RESTARTS   AGE
pod/myeck-es-data-0     1/1     Running   0          7m37s
pod/myeck-es-data-1     1/1     Running   0          7m36s
pod/myeck-es-master-0   1/1     Running   0          7m37s
pod/myeck-es-master-1   1/1     Running   0          7m37s
pod/myeck-es-master-2   1/1     Running   0          7m37s

NAME                      TYPE           CLUSTER-IP     EXTERNAL-IP    PORT(S)          AGE
service/myeck-es-data     ClusterIP      None           <none>         <none>           7m37s
service/myeck-es-http     LoadBalancer   10.0.125.221   138.91.14.xx   9200:31475/TCP   7m38s
service/myeck-es-master   ClusterIP      None           <none>         <none>           7m37s

NAME                               READY   AGE
statefulset.apps/myeck-es-data     2/2     7m37s
statefulset.apps/myeck-es-master   3/3     7m37s
$

外部ロードバランサーからアクセスできるようにもなったため、試しにElasticsearchクラスタの9200ポートにアクセスしてみましょう。

ECKではデフォルトでsecurityが有効化されているため、elasticユーザのパスワードを取得する必要があります。パスワードはk8sのsecretリソースにbase64エンコードされていますので、以下のコマンドで取得します。

$ kubectl get secret -n myeckns
NAME                              TYPE                                  DATA   AGE
default-token-2qx47               kubernetes.io/service-account-token   3      27m
myeck-es-data-es-config           Opaque                                1      10m
myeck-es-elastic-user             Opaque                                1      10m  ★ここに格納されている★
myeck-es-http-ca-internal         Opaque                                2      10m
myeck-es-http-certs-internal      Opaque                                3      10m
myeck-es-http-certs-public        Opaque                                2      10m
myeck-es-internal-users           Opaque                                3      10m
myeck-es-master-es-config         Opaque                                1      10m
myeck-es-transport-ca-internal    Opaque                                2      10m
myeck-es-transport-certificates   Opaque                                13     10m
myeck-es-transport-certs-public   Opaque                                1      10m
myeck-es-xpack-file-realm         Opaque                                3      10m
$
$ PASSWORD=$(kubectl get secret myeck-es-elastic-user -n myeckns -o=jsonpath='{.data.elastic}' | base64 --decode)
$ echo $PASSWORD
44gkrmqh75lnzx8p7ppsgcbg
$

elasticユーザのパスワードが変数PASSWORDに格納されましたので、以下のコマンドでcurlアクセスを行います。

$ curl -u "elastic:$PASSWORD" -k https://138.91.14.xx:9200
{
  "name" : "myeck-es-data-1",
  "cluster_name" : "myeck",
  "cluster_uuid" : "o9GKgJVDTTOOIJO8v_bbGQ",
  "version" : {
    "number" : "7.5.1",
    "build_flavor" : "default",
    "build_type" : "docker",
    "build_hash" : "3ae9ac9a93c95bd0cdc054951cf95d88e1e18d96",
    "build_date" : "2019-12-16T22:57:37.835892Z",
    "build_snapshot" : false,
    "lucene_version" : "8.3.0",
    "minimum_wire_compatibility_version" : "6.8.0",
    "minimum_index_compatibility_version" : "6.0.0-beta1"
  },
  "tagline" : "You Know, for Search"
}
$ curl -u "elastic:$PASSWORD" -k https://138.91.14.xx:9200/_cat/nodes
10.1.0.88  6 91 5 0.14 1.03 0.83 lm  - myeck-es-master-2
10.1.0.96  9 91 5 0.14 1.03 0.83 dil - myeck-es-data-0
10.1.0.30 11 97 6 0.16 0.25 0.31 lm  * myeck-es-master-1
10.1.0.41  7 96 9 0.24 0.47 0.54 dil - myeck-es-data-1
10.1.0.37 11 96 9 0.24 0.47 0.54 lm  - myeck-es-master-0
$
  • 上記Elasticsearchに接続するKibanaをデプロイする

Kibanaのデプロイも試してみます。yamlは同じように以下カスタムリソース(「kind: Kibana」)として定義します。一つポイントになるのは"spec.elasticsearchRef.name"がmyeckとなっている点で、これは上記のElasticsearchリソースのnameと一致させる必要があります。これでkibanaの接続先Elasticsearchが紐づけされるためです。

mykibana.yaml
apiVersion: kibana.k8s.elastic.co/v1beta1
kind: Kibana
metadata:
  name: myeck
  namespace: myeckns
spec:
  version: 7.5.1
  count: 1
  elasticsearchRef:
    name: myeck
  http:
    service:
      metadata: {}
      spec:
        type: LoadBalancer

しばらく待った後、リソース確認をしてみます。Elasticsearchクラスタと合わせるとかなり多くのリソースがデプロイできました。

$ kubectl get all -n myeckns
NAME                            READY   STATUS    RESTARTS   AGE
pod/myeck-es-data-0             1/1     Running   0          24m
pod/myeck-es-data-1             1/1     Running   0          24m
pod/myeck-es-master-0           1/1     Running   0          24m
pod/myeck-es-master-1           1/1     Running   0          24m
pod/myeck-es-master-2           1/1     Running   0          24m
pod/myeck-kb-5c846f465c-9jbk9   1/1     Running   0          6m49s

NAME                      TYPE           CLUSTER-IP     EXTERNAL-IP    PORT(S)          AGE
service/myeck-es-data     ClusterIP      None           <none>         <none>           24m
service/myeck-es-http     LoadBalancer   10.0.125.221   138.91.14.xx   9200:31475/TCP   24m
service/myeck-es-master   ClusterIP      None           <none>         <none>           24m
service/myeck-kb-http     LoadBalancer   10.0.170.36    13.78.26.xxx   5601:32406/TCP   6m50s

NAME                       READY   UP-TO-DATE   AVAILABLE   AGE
deployment.apps/myeck-kb   1/1     1            1           6m49s

NAME                                  DESIRED   CURRENT   READY   AGE
replicaset.apps/myeck-kb-5c846f465c   1         1         1       6m49s

NAME                               READY   AGE
statefulset.apps/myeck-es-data     2/2     24m
statefulset.apps/myeck-es-master   3/3     24m

5. アクセス確認

さっそくKibanaにアクセスしてみます。アクセス先IPアドレスは、上記の"service/myeck-kb-http"リソースのEXTERNAL-IPにある"13.78.26.xxx"で、ポートは5601です。セキュリティが有効化されているため、httpsでアクセスする点に注意してください。

image.png

elasticユーザのパスワードは上記のPASSWORD変数に格納されていますので、以下のコマンドを使ってコピペしましょう。

$ echo $PASSWORD
44gkrmqh75lnzx8p7ppsgcbg
$

image.png

無事にKibanaにアクセスできました。
念のため、Monitoringでノード一覧も確認しておきます。

image.png

きちんと想定通りのMasterx3、Datax2になっています。シャード数が7+7になっているのは、サンプルデータをimportした後だからです。(ECK固有のshardがあるということではありません)

ECKの中身とできることについてもう少し

ここまではごく基本的なECKの使い方ですが、もう少しだけ具体的な構成や利用法について説明します。

1. StatefulSetの採用

ECKは初期リリースされた0.8バージョンでは、StatefulSetは使わずに、Operatorが直接Podを管理するアーキテクチャとなっていました。k8sでステートフルなワークロードを扱う際にStatefulSetリソースを利用すると、複数Pod利用時の起動・停止の順序やPVCのマッピングなどの考慮をk8s側が巻き取ってくれるため、他の多くのOperatorではStatefulSetを採用していました。

しかし、ECKでは各ノードがさまざまなロールやスペックを持つ構成がありえるため、StatefulSetのような一意なPodグループでひとくくりに管理する仕組みに当てはめにくく、また、upgradeやノード拡張などの細かなコントロール・配慮が必要なケースでStatefulSetが扱いにくいことから、まずはStatefulSet採用を見送りました。このあたりの経緯はver0.8のころのgithub上のdesign discussionとしてまとまっていて非常に興味深いので参考までにURLをあげておきます。

1.0-betaからはクラスタ内でも同一タイプごとにnodeSetsというグループでまとめて、それぞれStatefulSetとして扱うことにしました。このため、MasterはMaster、DataはDataそれぞれのStatefulSetがPodを管理するというアーキテクチャになっています。

$ kubectl get statefulset -n myeckns
NAME              READY   AGE
myeck-es-data     2/2     72m
myeck-es-master   3/3     72m
$

ここでそれぞれのStatefulSetはyaml定義内のnodeSetsの各グループに対応しています。

実はStatefulSetを採用したことで、ノードのupgradeなどコンテナイメージを差し替える際の所要時間が大幅に短縮できるようになりました。
理由は、StatefulSetにはノード固有のPVC(Persistent Volume Claim)を割り当てる(bind)することができ、永続データは基本的にPV上に格納されることから、コンテナが再起動したり、upgradeなどで新規イメージに更新された際にも、PVCデータは再利用ができるためです。

実際にStatefulSetに属する各々のPodがPVCを持っている様子を確認してみましょう。

$ kubectl get pvc -n myeckns
NAME                                   STATUS   VOLUME                                     CAPACITY   ACCESS MODES   STORAGECLASS   AGE
elasticsearch-data-myeck-es-data-0     Bound    pvc-ddd1efc1-7a2b-4d7d-8c83-cf9d1205c7cb   1Gi        RWO            default        78m
elasticsearch-data-myeck-es-data-1     Bound    pvc-461de1a1-6ce4-4241-8e94-33bfee7df8ab   1Gi        RWO            default        78m
elasticsearch-data-myeck-es-master-0   Bound    pvc-df8174fd-52a1-4deb-9ebc-d9615abc1603   1Gi        RWO            default        78m
elasticsearch-data-myeck-es-master-1   Bound    pvc-ccf71a3c-9428-4e1d-ab16-fe2498ade35b   1Gi        RWO            default        78m
elasticsearch-data-myeck-es-master-2   Bound    pvc-97a9ba87-855b-4157-a074-42a7679ed9fa   1Gi        RWO            default        78m
$

このように、各Podごとに自分専用のPVCを持っており(サイズはデフォルトで1GB)、コンテナの再起動、差し替えに関わらず再利用されます。
StatefulSetの採用前は、コンテナの差し替え時にデータ領域を引き継げずに、都度他ノードからのデータ同期が必要でしたが、この問題が改善できています。

2. ノード構成のカスタマイズ

導入方法の説明時に、yamlファイルにノード数やノード種別(ロール)を指定することで複数ノード構成がとれることを紹介しましたが、ここではもう少し一般的なノード構成のカスタマイズ方法を紹介します。

  • "elasticsearch.yaml"に記載していた設定パラメータ
    • 実は"spec.nodeSets.config"以下にそのまま従来使っていたelasticsearch.yamlファイルの設定を書くことができます。以下は一例です。
myes-custom.yaml
spec:
  nodeSets:
  - name: mlenabled-nodes
    count: 3
    config:
      node.master: true
      node.data: true
      node.ingest: true
      node.ml: true
      xpack.ml.enabled: true
      cluster.remote.connect: false
  • JVMヒープサイズ
    • ヒープサイズの設定もconfig以下に書きたいところですが、これは環境変数ですので、コンテナ設定のenv属性で指定する必要があります(指定がない場合のデフォルト値は1Gです)
    • さらに、この設定をする場合、resources句を用いて、PodにおけるCPU、メモリリソースの制限を明記することをおすすめします
myes-jvmheap.yaml
spec:
  nodeSets:
  - name: node-with-jvmheapsetting
    count: 1
    podTemplate:
      spec:
        containers:
        - name: elasticsearch
          env:
          - name: ES_JAVA_OPTS
            value: "-Xms4g -Xmx4g"
          resources:
            requests:
              memory: 8Gi
              cpu: 0.5
            limits:
              memory: 8Gi
              cpu: 2
  • ボリュームサイズの指定
    • デフォルトでは"default"ストレージクラスから1GiのPVCを割り当てようとします
    • これを変更したい場合、同じようにspec以下に指定します
    • metadata.nameの値は"elasticsearch-data"で固定です(注意:名前をこれ以外に変更してはいけません)
    • 自前のk8s環境で要件に合わせたストレージクラスを用意している場合はstorageClassNameに明示的に指定して使い分けることが可能です
myes-volume.yaml
spec:
  nodeSets:
  - name: data-with-big-and-fast-volume
    count: 3
    volumeClaimTemplates:
    - metadata:
        name: elasticsearch-data ★★注意:この値はelasticsearch-dataから変更不可★★
      spec:
        accessModes:
        - ReadWriteOnce
        resources:
          requests:
            storage: 10Gi
        storageClassName: superfast-ssd
  • スケールアウト・スケールイン
    • ノード拡張したい場合、元のyamlの定義"spec.nodeSets.count"を編集して"kubectl apply"します
    • ノード縮退についても同じです
    • (注意)StatefulSetを使っていることから、以下のコマンドでノード拡張したくなりますが、StatefulSetのコントロールはすべてOperatorが掌握しているため、このコマンドは無視されますので、上記の方法でノード拡張をしてください(※厳密に言うと、replicasが一瞬3になりますが、すぐにOperatorがあるべき設定値(=desired state)である2に戻してしまいます)
$ kubectl scale statefulsets myeck-es-data --replicas=3 -n myeckns
statefulset.apps/myeck-es-data scaled
$ kubectl get statefulset -n myeckns
NAME              READY   AGE
myeck-es-data     2/2     105m  ★★レプリカ数を3にしたが無視されている★★
myeck-es-master   3/3     105m
$
  • Elasticsearch/Kibanaのバージョンアップ

    • ノード拡張と同様で、yaml定義ファイルのspec.versionの値を編集して"kubectl apply"します
    • 基本的な動作としては、既存コンテナは破棄されて、新規コンテナが起動します(ただし、PVC/PVは引き継げるためコンテナ起動時間だけ待てばOKです)
    • バージョンダウンはできない仕様となっています
  • ノードスケジューリング制御

    • Masterノードなどクラスタ可用性を担うロールのノードはk8sクラスタの同一ノードで起動しないように制御したい場合があります
    • ECKではデフォルトで「できるだけ」同じロールのノードは別ホストでスケジューリングされるようになっています
    • デフォルトスケジューリングポリシーを変更して、たとえば「必ず」別ホストでスケジュールさせることも可能です
myes-required-antiaffinity.yaml
spec:
  nodeSets:
  - name: antiaffinity-nodes
    count: 3
    podTemplate:
      spec:
        affinity:
          podAntiAffinity:
            requiredDuringSchedulingIgnoredDuringExecution: ★★同一ホストでの起動を禁止★★
            - podAffinityTerm:
                labelSelector:
                  matchLabels:
                    elasticsearch.k8s.elastic.co/cluster-name: myeck
              topologyKey: kubernetes.io/hostname

上記の例ではk8sホスト名を基準として、このnodeSets(同一ロールのノードグループ)は同一ホスト上では起動させないようにスケジュールしています(podAntiAffinityで"requiredDuringSchedulingIgnoredDuringExcecution"を指定)
Pod数は3としていますので、もしk8sホストが2ノードしかなければ、3番目のPodがPending状態のまま起動ができなくなります。
デフォルトでは"prefferedDuringSchedulingIgnoredDuringExcecution"のポリシーとなっており、この場合、他ノードでどうしても起動できなければ同一ホストでも起動を許可する動きとなります。

  • プラグインインストール
    • kuromojiなど追加でプラグインをインストールするには、コンテナ起動時にinitContainerでplugin-installコマンドを実行するという手順をふみます
myes-plugin.yaml
apiVersion: elasticsearch.k8s.elastic.co/v1beta1
kind: Elasticsearch
metadata:
  name: myeck
  namespace: myeckns
spec:
  version: 7.5.1
  nodeSets:
  - name: default
    count: 3
    config:
      node.master: true
      node.data: true
      node.ingest: true
      node.store.allow_mmap: false
    podTemplate:
      spec:
        initContainers:
        - name: install-plugins
          command:
          - sh
          - -c
          - |
            bin/elasticsearch-plugin install --batch analysis-kuromoji ★★ここでインストール★★
  http:
    service:
      metadata: {}
      spec:
        type: LoadBalancer

きちんとインストールできたかを確認するには以下のコマンドを実行します。指定したkuromojiプラグインが正しくインストールされています。

$ curl -u "elastic:$PASSWORD" -k https://<LBのIP>:9200/_cat/plugins
myeck-es-default-0 analysis-kuromoji 7.5.1
myeck-es-default-1 analysis-kuromoji 7.5.1
myeck-es-default-2 analysis-kuromoji 7.5.1
$

以上、ここまでECKの導入方法、カスタマイズ方法など説明してきました。おおよその内容は公式ドキュメントにも詳細に説明がありますので、上記を読んでざっくり理解してから参考にしていただくと、キャッチアップが短期間でできるかと思います。

One more thing...

ここまで手元のk8s環境でECKを使う手順をご紹介してきましたが、k8s環境なんてすぐに準備できないよ、という方も多くいらっしゃるとは思います。
そこで、いままでご説明してきた内容がほぼブラウザ上で体験できるkatakodaのシナリオを見つけることができましたので、こちらをぜひお試しください。

ブラウザだけでECKのチュートリアルが10分程度で一通り体験できます。すばらしい。
左側ペインには(英語ですが)説明文と実行するコマンドが表示されています。右側ペインはコンソールになっていて、コマンドは直接入力しなくても、左側ペインのコマンドウインドウをクリックすると自動でタイプ&実行されます。
少し内容が古めなのでECKも0.8、Elasticsearchも7.1か7.2だったと思いますが、手を動かして理解する目的であれば十分な内容だと思いました。
image.png

まとめ

ここではECK(Elastic Cloud on K8s)がGAになったつもりで、導入方法からいくつかの使い方をご紹介しました。今後はElasticsearchを必要なときにすぐ立ち上げるといったCloud-likeな使い方が増えてくるだろうと考えていますが、ECKがその一助になれればと思っています。
2019年のElasticStackアドベントカレンダー(その1)の最後は@amanekeyさんです!!

12
9
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
12
9

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?