Keycloak by OpenStandiaの21日目は、Keycloakをコンテナ環境で動作させてみようと思う。ただ、単体のDockerコンテナとして動作させるのは非常に簡単で、Docker で始める Keycloakなどの記事で既に紹介されている。そこで今回は、
- 先月行われた AWS re:Invent 2017 にて発表された AWS Fargate 上で動かす
- さらに、Keycloak はクラスター構成 (HA構成)とする
- ついでにCloudFormationでAWS環境の構築を自動化しちゃう
をやってみました!
AWS Fargateとは?
最初にAWS Fargateについて簡単に紹介しておく。FargateはEC2インスタンス管理が不要なAWSの新しいコンテナ実行環境サービスである。従来、AWSではコンテナ環境としてAmazon ECS(Elastic Container Service)を提供してた。しかし、ECSの実行基盤としてEC2インスタンスが必要であり、インスタンスのプロビジョニングやその運用維持は利用者自身で行う必要があった(なので完全なフルマネージドなサービスではなかった )。一方、Fargateでは利用者は下回りとなるEC2インスタンスを管理する必要が完全になくなる。コンテナを用意してデプロイするだけでよくなり、利用者がEC2インスタンスのプロビジョニングや設定などが不要となる。構築・運用範囲がコンテナだけとシンプルになるので、うまく活用すればコストをさらにおさえることができると思う。
AWS Fargateそのものについては、AWS Fargate Advent Calendar 2017がちょうどあり、リリースされたばかりだというのに既に多くの記事が書かれているので、興味を持たれた方はそちらの記事も読むと理解が深まると思う。
前提環境
- Keycloak 3.4.1.Final
- オフィシャルのKeycloak Dockerイメージをベースイメージとして利用
- AWSはバージニア北部(us-east-1)リージョンを利用 (AWS Fargateが2017/12/21時点で唯一使えるリージョンのため)
やったこと
ざっくりまとめると以下のような感じ。
- KeycloakをAWS向けにDockerコンテナ化する
- AWS向けにクラスター構成設定の変更
- HTTPS終端となるロードバランサ (今回はALBを利用) をフロントに配置するための設定追加
- コンテナビルド
- DockerコンテナのリポジトリをECRで作成
- コンテナのpush
- AWS Fargate用のAWS環境を構築する
- VPC、ELB、RDS(MySQL)、ECSクラスターの作成とFargateによるコンテナデプロイ(ECSタスク定義、サービス定義)を行うCloudFormationテンプレートの作成
- 踏台SSHサーバ (Bastion Host) ログイン用のキーペアの登録
- HTTPS用の自己証明書の作成1
- AWS Certificate Manager (ACM) に証明書を登録
- CloudFormationを実行
- 踏台SSHからRDSに接続し、Keycloak用データベースを作成
以下、詳細を書いていく。なお、作ったもの (スクリプト、Dockerfile、CloudFormationテンプレート) は github.com/wadahiro/keycloak-ecs-fargateに置いておいた。
KeycloakをAWS向けにDockerコンテナ化する
オフィシャルのDockerイメージでは、以下の機能には対応している。
- 共有データベースを組み込みDB(H2 Database)からMySQL, PostgreSQLに変更
- UDPマルチキャストを利用したHA構成
- フロントにロードバランサーを配置するための設定(環境変数
PROXY_ADDRESS_FORWARDING
をtrue
に設定する)
しかし、AWSではVPC内ではマルチキャストは使えない仕様のため、クラスター構成の設定変更が必要となる。他にも設定変更が必要なため、オフィシャルのイメージをベースとし、追加設定を行うDockerfileを書き、AWS環境用にイメージをビルドするようにした。
AWS向けにクラスター構成設定の変更
Keycloak(というか下回りのWildFly)では、JGroupsを使って各ノードのディスカバリを行う仕組みになっている。組み込まれているデフォルト設定ではUDPを使うようになっているため、AWSでも利用可能な方式に変更する。例えば、TCPでJDBC_PINGを利用する方式がある。今回はこれを利用している。
この設定については、Keycloakを冗長構成で動かしてみる > AWS EC2でのKeycloak冗長構成で既に書かれている話だが、Fargate環境・Dockerコンテナ環境における注意点があるのでそこだけ補足しておく。
Fargate環境の注意点
Fargateのコンテナ内からはEC2インスタンスメタデータは参照できないため、自分のIPアドレス取得は別の方法で行う必要がある。今回はOSのip
コマンドで取得した。実際のコマンドは起動シェルのここを参照。
Dockerコンテナ環境の注意点
JGroupsのバインドアドレスに他ノードから到達可能なIPアドレスを設定する必要がある。なぜかというと、JGroupsは稼働サーバのデフォルトのネットワークインタフェースにバインドする仕様のため、Dockerコンテナ内で起動した場合、Dockerのネットワーク設定によってはプライベートなIPにバインドしてしまう。そうするとそのIPがクラスター内で伝わっても到達不可能なため、クラスターが機能しなくなる。そうならないように、明示的にIPの設定が必要となる (参考: JBoss Cache > Key JGroups Configuration Tips)。
設定は簡単で、Keycloakの起動スクリプトの引数で、-Djgroups.bind_addr=IPアドレス
を渡せば良い。IPアドレスは前述のip
コマンドで取得したものを使う。
HTTPS終端となるロードバランサをフロントに配置するための設定追加
Keycloakのマニュアルに記載の設定追加が必要になる。詳細は、Server Installation > 8.3.2. リバースプロキシでのHTTPS/SSLの有効化を参照。
コンテナビルド
ここまでの設定変更内容を含めたDockerfileがこれ。あとは普通にdocker build
でビルドすればOK。なお、今回はKeycloak(WildFly部分)の設定変更は、オフィシャルのイメージで採用されているjboss-cli.sh
を使ったコマンドでの設定変更を試しに使ってみている。これを使うと、XMLファイルを直接編集せずにコマンドで設定変更が可能となっている。例えば、JGroupsの設定変更はcli/jgroups.cli
ファイルにコマンドとして書いている。
DockerコンテナのリポジトリをECRで作成
AWS管理コンソールからECRのリポジトリを先に作成しておく2。リポジトリ名は keycloak-ha-mysql
とする。
コンテナのpush
作成したECRのリポジトリに、ビルドしたコンテナイメージをdocker push
しておく。これでコンテナの準備は完了である。後は実行環境を用意するだけ。
なお、ECRへのpush方法は作成したリポジトリのページからコマンド参照することができる。
AWS Fargate用のAWS環境を構築する
AWS環境の構築は管理コンソールでGUIでできるが、CloudFormationのテンプレートで書いてさくっと作ってさくっと消せるようにしておく。
CloudFormationテンプレートの作成
下図の構成とした。AZ障害を考慮しつつ、Public/Privateサブネット構成のよくある構成。ただし、NATゲートウェイは置いていない。Fargateの場合、DockerコンテナのpullやCloudWatch logsへのpushにインターネットアクセスが必要となる。Privateサブネットにコンテナを配置する場合は、NATゲートウェイを経由してインターネットに出るのが一般的な方式である(参考: Deep Dive into AWS Fargate - CON333 - re:Invent 2017 の16ページ目)。ただし、Fargateの場合はENIでPublicアドレスも付与することができるので、そこからインターネットに出れるようにしている(NATゲートウェイ2台置くとそこそこお金かかるので...)。
今回、1つのYAMLファイルにVPCの作成からELB、RDS、ECSクラスターの作成とFargateによるKeycloakコンテナのデプロイ定義まで書いている。CloudFormationテンプレートの詳細内容については、これだけで1つの記事がかけるので割愛。こちらでソース公開しているので見ていただければと思う。また、FargateをCloudFormationで構築する AWS CloudFormationを使ってAWS Fargateの環境を作成してみる という記事が既にあるので、そちらを参照するとよいと思う。
1点、Keycloakならではの補足事項として、クラスター構成の場合はJGroupが7600
ポートを使ってノード間で通信を行うことになる。この場合、コンテナとしてそのポートが外部公開されている必要がある。よって、WebのHTTP用ポート8080
だけでなく、7600
についてもECSのタスク定義でポートマッピング設定しておく必要がある。加えて、セキュリティグループをコンテナにアタッチされるENIに設定する場合は、同セキュリティグループ内で7600
通信を許可するための設定も必要なので注意。
踏台SSHサーバ (Bastion Host) ログイン用のキーペアの登録
RDS(MySQL)にログインしてKeycloak用の初期設定が必要なため、踏台SSHサーバをCloudFormationにて合わせて構築するようにしている。が、SSHログインするためのキーペアの作成は、CloudFormation実行前に行っておく必要がある。AWS管理コンソールのキーペアから作成しておく。
HTTPS用の自己証明書の作成
openssl
でサクッと作成。有効期間はお好みで。
openssl genrsa -out server.key 2048
openssl req -new -key server.key -out server.csr
openssl x509 -in server.csr -days 365 -req -signkey server.key -out server.crt
AWS Certificate Manager (ACM) に証明書を登録
ELBで使えるように、AWS管理コンソールのACMからインポートしておく。
-
証明書本文* には
server.crt
の内容を貼り付け -
証明書のプライベートキー* には
server.key
の内容を貼り付け - 証明書チェーン は空のまま
でインポートすればOK。インポート後、登録された証明書の 識別子 を控えておくこと。次のCloudFormationの実行時に渡すパラメータとして使用する。
CloudFormationを実行
事前に、environment.ymlをローカルにダウンロードしておく。あとはAWS管理コンソールのCloudFormationを開き、スタックの作成を行い一気に環境を作る。手順としては以下。
- テンプレートを Amazon S3 にアップロード で ダウンロードしたファイルを選択して次へ進む。
- スタックの名前には任意の名前を入力。パラメータは下記の通りに入力して次へ進む。
- BastionHostKeyPair: 事前に登録しておいた踏台SSH用のキーペアを選択する
- CertificateIdentifier: 事前に登録しておいた証明書の識別子を入力する
- VpcCIDRPrefix: 既存のVPCと被らなければデフォルトでOK。被る場合は変更する。
- オプション画面はなにもせずそのまま次へ。
- AWS CloudFormation によってカスタム名のついた IAM リソースが作成される場合があることを承認します。 にチェックを付けて、作成を開始する。
RDSのプロビジョニングにそこそこ時間がかかるのでその間に でも飲んで待ちましょう。
無事に終わると、CloudFormationの出力で、ELBのDNS名と踏台SSHのIPアドレスを参照できるので、これを控えておくこと。
踏台SSHからRDSに接続し、Keycloak用データベースを作成
CloudFormationの実行が終わるとKeycloakコンテナが立ち上がるが、CloudWatch logsをみるとたくさんのエラーが出ているかと思う。これは、Keycloakで外部の共有データベースを使う場合は初期構築設定が必要なのだが、まだ何も行っていないのでDB接続でエラーとなってしまう。そこで、踏台SSHサーバにSSH接続を行い、RDS(MySQL)にログインして初期設定を行う。
$ ssh -i <作成したキーペアの秘密鍵> <控えておいた踏台SSHサーバのIP>
Last login: Wed Dec 20 06:20:17 2017 from xxx.xxx.xxx.xxx
__| __|_ )
_| ( / Amazon Linux AMI
___|\___|___|
https://aws.amazon.com/amazon-linux-ami/2017.09-release-notes/
No packages needed for security; 1 packages available
Run "sudo yum update" to apply all updates.
[ec2-user@ip-10-181-9-2 ~]$
今回、CloudFormationでRDSにはRoute53でdb.keycloak.local
をCNAMEで設定しているので、
[ec2-user@ip-10-181-9-2 ~]$ mysql -u root -prootpass -h db.keycloak.local
Welcome to the MySQL monitor. Commands end with ; or \g.
Your MySQL connection id is 780
Server version: 5.7.16-log MySQL Community Server (GPL)
Copyright (c) 2000, 2017, Oracle and/or its affiliates. All rights reserved.
Oracle is a registered trademark of Oracle Corporation and/or its
affiliates. Other names may be trademarks of their respective
owners.
Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.
mysql>
のようにしてログインできる。後は、
mysql> CREATE DATABASE keycloak;
Query OK, 1 row affected (0.00 sec)
mysql> CREATE USER 'keycloak'@'%' IDENTIFIED BY 'keycloak';
Query OK, 0 rows affected (0.00 sec)
mysql> GRANT ALL ON `keycloak`.* TO 'keycloak'@'%';
Query OK, 0 rows affected (0.00 sec)
mysql> FLUSH PRIVILEGES;
Query OK, 0 rows affected (0.00 sec)
でKeycloak用のデータベースと接続ユーザを作成すれば完了。DB設定後、そのうちKeycloakコンテナが正常稼働状態になるはず(正常稼働状態になるまで、ELBのヘルスチェックエラーで落とされ自動再起動を繰り返す)。
動作確認
今回、SSO保護アプリは特にデプロイしていないので、Keycloakに付属するログインユーザのプロフィール画面を利用して動作確認を行う。
- 作成されたELBのDNS名に対してHTTPSで
/auth/realms/master/account/
にアクセスし、ログイン画面を表示 -
admin
でログイン(パスワードも同じ) - プロフィール画面が表示される
- AWS管理コンソールにて、ECSの実行中タスクを1つ強制ストップさせる
- 再ログインなしでプロフィール画面内を遷移できることを確認
- ECSにより自動的に再度コンテナが起動しきるのを待つ(CloudWatch logsでチェック)
- 最初からあったもう1つの実行中タスクを強制ストップさせる
- 再ログインなしでプロフィール画面内を遷移できることを確認
上記のように、コンテナを片方ずつ落としても再ログインなしでプロフィール画面にアクセスし続けることができれば成功
AWS FargateはKeycloakと相性が良い?
今回試してみて、コンテナ単位にENIがアタッチされるため、ホストポートの競合が起きないのが良いと感じた。クラスター構成の場合、ホスト側のポート7600
ポートにマッピングする必要があるため、従来のECSだと1台のEC2インスタンスに複数のKeycloakコンテナを同居させることは難しかった。この問題を回避するために、ECSのタスク配置の制約事項を設定して同一インスタンス上で動作しないようにする、ワークアラウンド的な方法を取っていたかと思う。
なお、このコンテナ単位にENIがアタッチされるのは、2017/11にリリースされた コンテナ用の AWSVPC ネットワーキングモードによるものなので、Fargateを使わない従来のECSでも実はホストポートを意識しない構成をいつの間にかとれるようになっているようだ。
おわりに
ざっと、AWS Fargate上でKeycloakをHA構成で稼働させるためにやったことを書いたが、細かい設定についてはgithub.com/wadahiro/keycloak-ecs-fargateのソースを参照してもらえればと思う。今後追加で調べてみたいこととしては、
- Fargateでオートスケール。残念ながらまだ試していない。
- Amazon Elastic Container Service for Kubernetes (Amazon EKS)上でも試す (プレビュー招待こないかなぁ...)
あたりでしょうか。それでは!