Help us understand the problem. What is going on with this article?

Kubernetes: クラスタ構築が簡単になるkubeadm

More than 3 years have passed since last update.

Kubernetes 1.4の新機能としてkubeadmというkubernetesクラスタ構築を大幅に簡略化するための仕組みが入りました。1.4の時点ではalpha機能のため本番環境の構築には今後のバージョンを待つ必要があります。

マニュアルに沿ってGoogle Compute EngineのVMで実際に試してみました。

概要

下記の4手順で簡単にKubernetesクラスタを作ることができるようになりました。(Dockerのswarm join/initのイメージ)

  1. 関連パッケージのインストール
  2. kubeadm initでマスターを初期化
  3. kubeadm join --token xxxx yyy.yyy.yyy.yyyでワーカーを追加
  4. Podネットワークのデプロイ

これでクラスタの構築が完了します。 :tada:

準備

GCPで下記のVMを3台(Master*1, Worker*2)作成しました。

  • マシンタイプ: n1-standard-1
  • OS: Ubuntu 16.04 LTS(amd64 xenial image built on 2016-09-30)

まず、下記のコマンドで必要パッケージをインストールします。

sudo su -
curl https://packages.cloud.google.com/apt/doc/apt-key.gpg | apt-key add -
cat <<EOF > /etc/apt/sources.list.d/kubernetes.list
deb http://apt.kubernetes.io/ kubernetes-xenial main
EOF
apt-get update
apt-get install -y docker.io kubelet kubeadm kubectl kubernetes-cni

Masterの設定

Masteでやることはkubeadm initだけです。

Masterにログインし下記のようにkubeadm initを実行します。複数のIPアドレスがある場合は--api-advertise-addressesで公開するIPアドレスを指定する必要があります。

sudo kubeadm init

1分弱でKubermetesのマスターが初期化されました。worker用のjoinコマンドが表示されるので控えておきます。

<master/tokens> generated token: "59fd3a.744950d511c9cd4b"
<master/pki> created keys and certificates in "/etc/kubernetes/pki"
<util/kubeconfig> created "/etc/kubernetes/kubelet.conf"
<util/kubeconfig> created "/etc/kubernetes/admin.conf"
<master/apiclient> created API client configuration
<master/apiclient> created API client, waiting for the control plane to become ready
<master/apiclient> all control plane components are healthy after 26.083726 seconds
<master/apiclient> waiting for at least one node to register and become ready
<master/apiclient> first node is ready after 5.002739 seconds
<master/discovery> created essential addon: kube-discovery, waiting for it to become ready
<master/discovery> kube-discovery is ready after 10.002818 seconds
<master/addons> created essential addon: kube-proxy
<master/addons> created essential addon: kube-dns
Kubernetes master initialised successfully!
You can now join any number of machines by running the following on each node:

# worker用のコマンドが表示される
kubeadm join --token 59fd3a.744950d511c9cd4b 10.240.0.5

/etc/kubernetes以下に下記のようなファイルが生成されています。証明書なども自動で生成されていて素晴らしいです。 :thumbsup:

# 証明書
/etc/kubernetes/pki/apiserver-key.pem
/etc/kubernetes/pki/ca.pem
/etc/kubernetes/pki/apiserver-pub.pem
/etc/kubernetes/pki/ca-pub.pem
/etc/kubernetes/pki/tokens.csv
/etc/kubernetes/pki/sa-pub.pem
/etc/kubernetes/pki/apiserver.pem
/etc/kubernetes/pki/sa-key.pem
/etc/kubernetes/pki/ca-key.pem
# Masterコンポーネントの設定
/etc/kubernetes/manifests/kube-scheduler.json
/etc/kubernetes/manifests/kube-controller-manager.json
/etc/kubernetes/manifests/kube-apiserver.json
/etc/kubernetes/manifests/etcd.json
# kubeletの設定
/etc/kubernetes/admin.conf
/etc/kubernetes/kubelet.conf

kubeletが下記のように立ち上がり、KubernetesのMasterコンポーネント(scheduler, controller, apiserver, etcdなと)がコンテナで立ち上がりました。

/usr/bin/kubelet \
  --kubeconfig=/etc/kubernetes/kubelet.conf \
  --require-kubeconfig=true \
  --pod-manifest-path=/etc/kubernetes/manifests \
  --allow-privileged=true \
  --network-plugin=cni \
  --cni-conf-dir=/etc/cni/net.d \
  --cni-bin-dir=/opt/cni/bin \
  --cluster-dns=100.64.0.10 \
  --cluster-domain=cluster.local \
  --v=4

Workerの設定

Workerにログインし、kubeadm initで表示されたコマンドでworker用VMで実行します。

sudo kubeadm join --token 59fd3a.744950d511c9cd4b 10.240.0.5

下記のように表示されNodeの追加が一瞬で完了します。とても簡単です。

<util/tokens> validating provided token
<node/discovery> created cluster info discovery client, requesting info from "http://10.240.0.5:9898/cluster-info/v1/?token-id=59fd3a"
<node/discovery> cluster info object received, verifying signature using given token
<node/discovery> cluster info signature and contents are valid, will use API endpoints [https://10.240.0.5:443]

<node/csr> created API client to obtain unique certificate for this node, generating keys and certificate signing request
<node/csr> received signed certificate from the API server, generating kubelet configuration
<util/kubeconfig> created "/etc/kubernetes/kubelet.conf"

Node join complete:
* Certificate signing request sent to master and response
  received.
* Kubelet informed of new secure connection details.

Run 'kubectl get nodes' on the master to see this machine join.

2台目も同じ手順を行います。

生成された/etc/kubernetes/kubelet.confを見ると下記のように、クレデンシャルやAPIサーバーなどの設定が自動的になされています。(クレデンシャルは一部省略)

/etc/kubernetes/kubelet.conf
apiVersion: v1
clusters:
- cluster:
    certificate-authority-data: LS0...Qo=
    server: https://10.240.0.5:443
  name: kubernetes
contexts:
- context:
    cluster: kubernetes
    user: kubelet-kube-worker2
  name: kubelet-kube-worker2@kubernetes
current-context: kubelet-kube-worker2@kubernetes
kind: Config
preferences: {}
users:
- name: kubelet-kube-worker2
  user:
    client-certificate-data: LS0...o=
    client-key-data: LS0t...o=

kubeletが下記のように立ち上がり、コンテナでkube-proxyが立ち上がります。

/usr/bin/kubelet \
  --kubeconfig=/etc/kubernetes/kubelet.conf \
  --require-kubeconfig=true \
  --pod-manifest-path=/etc/kubernetes/manifests \
  --allow-privileged=true \
  --network-plugin=cni \
  --cni-conf-dir=/etc/cni/net.d \
  --cni-bin-dir=/opt/cni/bin \
  --cluster-dns=100.64.0.10 \
  --cluster-domain=cluster.local \
  --v=4

Master側で確認とPodネットワークの設定

Masterにログウインしてノードが追加されているか見てみます。

kubectl get nodes

下記のようにNodeが追加されていることが確認できます。

NAME           STATUS    AGE
kube-master    Ready     5m
kube-worker1   Ready     4m
kube-worker2   Ready     3m

最後にPodネットワークのインストールを行います。Podネットワークはいくつか選択でき、ここではマニュアルの通りWeave Netを選択しました。現状他にはCanal, Calicoが選択できます(参考: Networking and Network Policy)

kubectl apply -f https://raw.githubusercontent.com/weaveworks/weave-kube/master/weave-daemonset.yaml

この時点でPodは以下のようになっています。

kubectl get pods --all-namespaces

NAMESPACE     NAME                                  READY     STATUS    RESTARTS   AGE
kube-system   etcd-kube-master                      1/1       Running   0          5m
kube-system   kube-apiserver-kube-master            1/1       Running   0          6m
kube-system   kube-controller-manager-kube-master   1/1       Running   0          6m
kube-system   kube-discovery-982812725-vr5or        1/1       Running   0          6m
kube-system   kube-dns-2247936740-qclp0             2/3       Running   0          6m
kube-system   kube-proxy-amd64-a6niu                1/1       Running   0          5m
kube-system   kube-proxy-amd64-cgqz5                1/1       Running   0          4m
kube-system   kube-proxy-amd64-mf3m7                1/1       Running   0          6m
kube-system   kube-scheduler-kube-master            1/1       Running   0          5m
kube-system   weave-net-kkipk                       2/2       Running   0          26s
kube-system   weave-net-xxtgw                       2/2       Running   0          26s
kube-system   weave-net-yyb64                       2/2       Running   0          26s

動作確認

動作確認をするためサンプルアプリをデプロイします。マイクロサービス的にDBを含む10個以上のPodがデプロイされるよくできたサンプルです。

Masterで以下を実行します。

git clone https://github.com/microservices-demo/microservices-demo
kubectl apply -f microservices-demo/deploy/kubernetes/manifests

Podが全てRunningになっていることを確認します。

kubectl get pods

NAME                           READY     STATUS    RESTARTS   AGE
cart-3694116665-ethb2          1/1       Running   0          20m
cart-db-2305146297-k860k       1/1       Running   0          20m
catalogue-11453786-gs9k9       1/1       Running   0          20m
catalogue-db-393939662-bx08x   1/1       Running   0          20m
front-end-3820830240-3pvn7     1/1       Running   0          20m
orders-3498886496-jymtz        1/1       Running   0          20m
orders-db-1775353731-bsfa4     1/1       Running   0          20m
payment-3012088042-e7xn6       1/1       Running   0          20m
queue-master-936560853-omntu   1/1       Running   0          20m
rabbitmq-1897447621-fhb8y      1/1       Running   0          20m
shipping-1232389217-7aqn7      1/1       Running   0          20m
user-3090014237-y64z3          1/1       Running   0          20m
user-db-1338754314-q7mv9       1/1       Running   0          20m

NodePortを使ってサンプルアプリにアクセスするためにServiceの情報を見ます。

kubectl describe svc front-end

Name:                   front-end
Namespace:              default
Labels:                 name=front-end
Selector:               name=front-end
Type:                   NodePort
IP:                     100.69.60.103
Port:                   <unset> 80/TCP
NodePort:               <unset> 31992/TCP # このPortを使う
Endpoints:              10.38.0.3:8079
Session Affinity:       None

NodePortを使ってアクセスします。ポート開放の手間を省くためローカルにSSH PortForwardします。(NodePortは毎回変わり今回は31992)

ssh -L 31992:127.0.0.1:31992 <ユーザ名>@<VMのPublic IP>

http://localhost:31992/ にアクセスし、下記のようなサンプルウェブアプリが動作することが確認できました:tada:

image

制限

マニュアルにある通り現状は下記のような制限があります。

  • cloud-providerを設定できない
    • Persistent VolumeやLoad Balancerなどの機能が使えない
  • 1台のMasterしか作れない
  • kubectl logsが動かない
  • kubectl用のkubeconfigが簡単に取得できない
    • ひとまずMasterの/etc/kubernetes/admin.confをコピーしてくる方法がある

参考情報

Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away
Comments
Sign up for free and join this conversation.
If you already have a Qiita account
Why do not you register as a user and use Qiita more conveniently?
You need to log in to use this function. Qiita can be used more conveniently after logging in.
You seem to be reading articles frequently this month. Qiita can be used more conveniently after logging in.
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away