LoginSignup
11
3

More than 1 year has passed since last update.

AWS EKSの運用は実家の猫に任せてお前は先に行け

Posted at

どうも、僕です。

image.png

CatOps

DevOps が Developers を運用に引きずり込む為のマインドセットだとすれば CapOps は猫を運用に引きずり込む為のマタタビセットと言えるでしょう。今回は実家でおやつを食べてばかりのあいつにも手伝ってもらいます。彼のおもちゃの半分ぐらいは私がAWSをこねくり回して得た給与によって供給されているのでこれは当然の義務とも言えます。

Amazon Web Services Cat-Like Interface (AWS CLI)

作業用のIAMロールを作ります。仕事じゃないのでアクセス許可は雑です。

Amazon Linux 2 の EC2 インスタンスを作ってIAMロールを付けたら必要そうなものをインストールしておきます。

sudo yum update -y
sudo yum install jq

### Python
PYVER="python3.8"
sudo yum remove -y python3
sudo amazon-linux-extras enable ${PYVER}
sudo yum install -y ${PYVER}
PY_VENV_PATH="${HOME}/.${PYVER}-venv"
/usr/bin/${PYVER} -m venv ${PY_VENV_PATH}
echo "source ${PY_VENV_PATH}/bin/activate" >> ${HOME}/.bashrc
echo 'export PS1="[\u \W]\\$ "' >> ${HOME}/.bashrc
. ~/.bashrc

### AWS CLI
pip install --upgrade pip
pip install --upgrade awscli
aws --version

### Docker
sudo yum install -y docker
sudo systemctl enable docker
sudo systemctl start docker
sudo usermod -aG docker $(whoami)

### kubectl + aws-iam-authenticator
curl -sLo kubectl https://s3.us-west-2.amazonaws.com/amazon-eks/1.22.6/2022-03-09/bin/linux/amd64/kubectl
curl -sLo aws-iam-authenticator https://s3.us-west-2.amazonaws.com/amazon-eks/1.21.2/2021-07-05/bin/linux/amd64/aws-iam-authenticator
mkdir -p $HOME/bin
export PATH=$PATH:$HOME/bin
echo 'export PATH=$PATH:$HOME/bin' >> ~/.bashrc
chmod +x ./kubectl
chmod +x ./aws-iam-authenticator
mv ./kubectl $HOME/bin/kubectl
mv ./aws-iam-authenticator $HOME/bin/aws-iam-authenticator

### eksctl
curl -sL "https://github.com/weaveworks/eksctl/releases/latest/download/eksctl_$(uname -s)_amd64.tar.gz" | tar xz -C /tmp
sudo mv /tmp/eksctl /usr/local/bin

sudo reboot

EKSクラスターを作ります。簡単ですね。簡単ということにしておきましょう。

mkdir -p ~/meow && cd $_
cat <<EOF > cluster.yaml
apiVersion: eksctl.io/v1alpha5
kind: ClusterConfig
metadata:
  name: cluster-1
  region: ap-northeast-1
nodeGroups:
  - name: ng-1
    instanceType: t3.medium
    desiredCapacity: 1
    volumeSize: 20
EOF
eksctl create cluster -f cluster.yaml

ネコと和解せよ

意外とご存じない方も多いのですが、猫は kubectl コマンドを入力するのが得意ではありません。その原因としては、一般に猫は人間のように個々の指を独立させて異なるキーを押すことが得意でないためとされています。しかし、これは正しくありません。実際の理由は、市販されているキーボードのキーの配置間隔が多くのイエネコの肉球の面積に比べて非常に狭い為です。

image.png

そこで今回は Cat User Interface (CUI) を実装することで kubectl コマンドを使わないEKSクラスターの制御を実現します。残念ながら私には CUI を新規に開発する技術も根性もありません。そこで GitHub で公開されている kubecraftadmin という素晴らしいソフトウェアの力を借ります。

これによりEKSクラスターの制御がスティーブ (またはアレックス) の制御に変換されるため、入力デバイスは市販のキーボードに限定されなくなります。ポッドは豚に、レプリカセットは牛に、サービスは鶏に、デプロイメントは馬として表示されます。鶏も含め、いずれも猫の獲物としては若干大きい動物ですが、そこは我慢して受け入れます。

image.png

大まかな仕組みとしては Windows 10上で動作する Bedrock Edition のクライアントから /wsserver コマンドを介してEKSクラスター上のポッドに接続し、このポッドを介してコントロールプレーンのAPIを叩きます。

ここで困った点として /wsserver での接続時に認証がありません。さすがにこれを受け入れるセキュリティポリシーはオスの三毛猫よりも稀な存在です。そのためポッドにはサービスはアタッチできません。さらに前述した通り猫は kubectl コマンドが得意ではありません。つまり kubectl port-foward を介して /wsserver を実行するのは良い解決策とは言えません。面倒ですが、仕方ないので今回はポッドに2個目のコンテナを追加して猫だけが通れるバックドア、つまり Cat flap を作ります。

猫に小判を与える

ネットワーク構成は以下のようになります。まだまだ経験の浅い若者 (たしか3~4歳) の技量不足を補いつつ成長を促す為にはこの程度の小細工は避けられないでしょう。

image.png

Cat flap用のコンテナをビルドし、EKSクラスターでプルできるようにECRにプッシュしておきます。

cd ~/meow
NAME=catflap
REGION=ap-northeast-1

cat <<EOF > Dockerfile.${NAME}
FROM amazonlinux
RUN yum -y install sudo iproute jq
RUN yum -y install https://downloads.remote.it/remoteit/v4.14.1/remoteit-4.14.1-1.x86_64.rpm
RUN yum clean all; rm /etc/remoteit/config.json
STOPSIGNAL SIGRTMIN+3
CMD ["/usr/sbin/init"]
EOF

docker build --rm --no-cache -t ${NAME} -f Dockerfile.${NAME} .
aws --region ${REGION} ecr create-repository --repository-name ${NAME}
REPO="$(aws sts get-caller-identity | jq -r '.Account').dkr.ecr.${REGION}.amazonaws.com"
docker tag ${NAME}:latest ${REPO}/${NAME}:latest
aws --region ${REGION} ecr get-login-password | docker login --username AWS --password-stdin ${REPO}
docker push ${REPO}/${NAME}:latest

そして kubecraftadmin と Cat flap を組み合わせた猫用のポッドをEKSにデプロイします。kubecraftadminのイメージは Docker Hub に転がっているので、そこから直接持ってきます。消費されるリソースは猫の額ほどしかありませんので requests や limits を気にする必要はないでしょう。

cd ~/meow
AWS_ID=123456789000
REGION=ap-northeast-1
CLUSTER=cluster-1
NAME=kubectl4cat

cat <<EOF > ${NAME}.yml
apiVersion: v1
kind: Pod
metadata:
  name: ${NAME}
spec:
  containers:
  - name: kubecraftadmin
    image: erjadi/kubecraftadmin
    imagePullPolicy: Always
    volumeMounts:
    - mountPath: /.kube/config
      subPath: config
      name: kubeconfig
  - name: catflap
    image: ${AWS_ID}.dkr.ecr.${REGION}.amazonaws.com/catflap
    imagePullPolicy: Always
    volumeMounts:
    - mountPath: /tmp
      name: tmp
    - mountPath: /run
      name: run
    - mountPath: /sys/fs/cgroup
      name: cgroup
      readOnly: true
  volumes:
  - name: kubeconfig
    secret:
      secretName: kubeconfig
  - name: tmp
    emptyDir: {}
  - name: run
    emptyDir: {}
  - name: cgroup
    hostPath:
      path: /sys/fs/cgroup
      type: Directory
EOF

aws eks update-kubeconfig --region ${REGION} --name ${CLUSTER}
kubectl create secret generic kubeconfig --from-file=${HOME}/.kube/config -o yaml --dry-run=client | kubectl apply -f -
kubectl apply -f ${NAME}.yml
kubectl get pod

無事に猫用ポッドがデプロイできたことを確認したら、次に猫用ポッドに接続します。Cat flap コンテナから登録用コードを取り出します。

kubectl exec -it ${NAME} -c catflap -- cat /etc/remoteit/config.json | jq -r ".device.claim"

remote.it の Windows用のデスクトップアプリ をインストールしたら、コードを入力し Cat flap をデバイスとして登録します。

image.png

kubecraftadmin はTCP 8000ポートをリッスンしています。そこで、登録した remote.it デバイスにサービスを追加し、Cap flapコンテナ内の TCP 8000 ポートに接続できるようにします。ご存じの通り同一ポッド内のコンテナは localhost としてアクセス可能です。したがって、これで kubecraftadmin へのアクセスが可能になります。なお、ここでいうサービスはK8sのサービスとは全く別物です。猫も杓子もサービスという単語を使うのはややこしいですね。

image.png

サービスを追加したら Setup の項目からルーティングを no default に設定します。

image.png

そのあと Connect の項目からルーティングを Proxy only に変更し ADD TO NETWORK します。

image.png

最後に表示されるポート番号だけが重要なのでメモしておきます。

image.png

一応、接続確認だけしておきましょう。適当にブラウザか何かで以下のURLにアクセスします。****** の部分にはポート番号を入力します。上記の例だと 33023 ですね。

http://127.0.0.1:******/ws

ブラウザ側に HTTP 400 - Bad Request が返れば成功です。コンテナ側のログ見ると以下のようにWSでおk的な感じのエラーが残っているはずです。

kubectl logs -f kubectl4cat kubecraftadmin

Listening on port 8000
2022/07/10 04:06:47 error upgrading request: websocket: the client is not using the websocket protocol: 'upgrade' token not found in 'Connection' header

猫の手を借りてみる

今回初めて知ったのですが、Mincraft Bedrock Edition クライアントのような UWP アプリはデフォルトでは localhost へのアクセスが許可されません。

ネットワーク構成の図でも示したように Bedrock Edition クライアントは localhost 上の remote.it クライアントを経由します。以下のコマンドを実行し Bedrock Edition クライアントが localhost にアクセスできるように設定します。

PS> Get-AppxPackage | Select-String "minecraft"
Microsoft.MinecraftUWP_1.19.202.0_x64__8wekyb3d8bbwe

PS> CheckNetIsolation LoopbackExempt -a -n="Microsoft.MinecraftUWP_1.19.202.0_x64__8wekyb3d8bbwe"
OK.

Bedrock Edition のクライアントを起動し、チート機能をオンにしたワールドを新規作成します。

image.png

そして /wsserver コマンドを実行します。***** の部分は先ほどと同様にメモしたポート番号を入力します。ちなみに localhost を指定すると何故か失敗する。

/wsserver 127.0.0.1:*****/ws

image.png

接続に成功したのでご褒美としてダイヤの剣と気持ちばかりのTNTを貰いました。次に k8s リソースを司る家畜を召喚するために init コマンドを実行します。

image.png

接続切れちゃったぞ。ガッデム乳山なんでやねん。

kubectl logs -f kubectl4cat kubecraftadmin

Listening on port 8000
2022/07/10 04:06:47 error upgrading request: websocket: the client is not using the websocket protocol: 'upgrade' token not found in 'Connection' header
Player has entered!
Player has disconnected
2022/07/10 04:20:05 event response: malformed properties JSON: unexpected end of JSON input (payload: {"body":{"message":"init","receiver":"","sender":"ryaguchi","type":"chat"},"header":{"eventName":"PlayerMessage","messagePurpose":"event","version":16842752}}
)
Player has entered!
2022/07/10 04:20:10 event response: malformed properties JSON: unexpected end of JSON input (payload: {"body":{"message":"KubeCraftAdmin","receiver":"ryaguchi","sender":"External","type":"title"},"header":{"eventName":"PlayerMessage","messagePurpose":"event","version":16842752}}
)
Player has disconnected

あー、はいはい。なるほどね。わからん。

MCWSSがJSONを構造体に放り込もうとしてコケたようにも見えなくもない訳でもない。バージョンによって Bedrock Edition クライアントが吐き出す JSON が多少変わってるのかも知れないけど、たぶん探し方が悪いのか公式っぽい公開情報が見つけられません。

そもそも吾輩は猫である

そろそろ晩御飯の準備をする時間なので今回は諦めることにしました。だって今夜は焼き肉。冷静に考えたら常時MTTBでラリってる奴にEKSクラスター預けるのも中々にリスキーなので失敗して良かったのかも知れません。

image.png

kubecraftadmin の類似ソフトウェアとしては kubedoom があります。こっちも少し試したのですが、受け取った .kube/config を使って kubectl を叩くようなので、そのまま実行すると aws eks get-token が実行できないと怒ります。環境変数でIAMユーザのキーを渡すなり、EKSワーカーノードにIAMロールを割り当てるなり、とりあえず認証できるように細工が必要です。

まぁ、最大の問題は DOOM は難しいのでチートしてもすぐ倒されてしまうことです。

掃除は大切

eksctl delete cluster -f cluster.yaml
11
3
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
11
3