CloudFrontのアクセスログをS3に保存させる事はごくごく普通にあると思いますが、terraformで環境を構築しているとS3作成時に特殊なACLは設定できず、CloudFront作成時にログ出力指定をしていると権限不足で落ちてしまいます。
参考: アクセスログ - Amazon CloudFront
terraformだけで解決できれば一番良いのですが、2017年6月現在ではissueが出ているものの反映されるのはまだ先になりそうな感じです。
- Support multiple canned ACLs for AWS S3 buckets · Issue #6139 · hashicorp/terraform
- Support multiple canned ACLs for AWS S3 buckets · Issue #144 · terraform-providers/terraform-provider-aws
GUIからぽちぽちしてると勝手にACLを作ってくれるので、手で作った後にterraformに記載するとかいう意味のない作業をしていたのですが、そんな作業やりたくなかったので無理やり気味ではありますがterraform apply
を実行するだけでS3にACLを付与し、CloudFrontの構築まで一気通貫で行えるようにちょっとした工夫を加えてみました。
準備するもの
linux/mac前提です。windowsの場合はbash on windowsであれば動作可能です。
必須
- terraform
- AWS CLI
推奨
- direnv
準備するスクリプト
#!/bin/sh
# 自身のディレクトリパスを取得
CURRENT_DIR=$(cd $(dirname $0);pwd)/
# 引数のチェックを行う
if [ $# -ne 1 ]; then
exit 1
fi
# バケット名を引数から取得
BUCKET_NAME=$1
TEMP_FILE=$(mktemp)
# S3待ち(waitが無い場合にエラーが発生)
sleep 2
# 現在のバケットACL情報を取得する
aws s3api get-bucket-acl --bucket ${BUCKET_NAME} > ${TEMP_FILE}
if [ $? -ne 0 ]; then
# テンポラリファイルを削除する
rm -f ${TEMP_FILE}
exit 1
fi
# ACLにawsdatafeeds権限が含まれていない場合は追加する
grep awsdatafeeds ${TEMP_FILE}
if [ $? -eq 1 ]; then
# 追記する文字列を取得
INPUT_LINES=$(perl -p -e 's/\n/\\n/' ${CURRENT_DIR}acl.txt)
if [ $? -ne 0 ]; then
# テンポラリファイルを削除する
rm -f ${TEMP_FILE}
exit 1
fi
# 権限情報を追記
sed -i -e "s/\(\"Grants\": *\[\)/\1\n${INPUT_LINES}/" ${TEMP_FILE}
if [ $? -ne 0 ]; then
# テンポラリファイルを削除する
rm -f ${TEMP_FILE}
exit 1
fi
# 権限情報をS3バケットに反映
aws s3api put-bucket-acl --bucket ${BUCKET_NAME} --access-control-policy "$(cat ${TEMP_FILE})"
if [ $? -ne 0 ]; then
# テンポラリファイルを削除する
rm -f ${TEMP_FILE}
exit 1
fi
fi
# テンポラリファイルを削除する
rm -f ${TEMP_FILE}
exit 0
{
"Permission": "FULL_CONTROL",
"Grantee": {
"DisplayName": "awsdatafeeds",
"ID": "c4c1ede66af53448b93c283ce9448c4ba468c9432aa01d700d3878632f77d2d0",
"Type": "CanonicalUser"
}
},
上記2ファイルをパスが通ったところに配置しておきます。
シェルスクリプトの方にはちゃんと実行権限を付与しましょう。
ちなみにdirenvを使って、terraform実行パスなどでPATHを追加するのが推奨です。
export AWS_DEFAULT_PROFILE=[AWSプロファイル名]
export AWS_DEFAULT_REGION=[デフォルトとするリージョン]
export AWS_PROFILE=$AWS_DEFAULT_PROFILE
export AWS_REGION=$AWS_DEFAULT_REGION
PATH_add `pwd`/bin
terraformの記述
resource "aws_s3_bucket" "sample" {
bucket = "sample-cfn-logs"
acl = "private"
tags {
Name = "sample-cfn-logs"
}
provisioner "local-exec" {
command = "AssignAwsdatafeedsAcl ${aws_s3_bucket.test.bucket}"
}
}
概要
terraformのprovisionerにlocal-exec
という、実行マシンでのコマンド実行機能があります。
これはリソースが作成されたのちに実行されるので、S3リソースが作成された後にシェルスクリプトを実行し、AWS CLIを利用してS3バケットにACLを付与しています。
上記スクリプトでは下記の様な処理を行っています。
- aws cli: S3バケットの設定済みACLを取得
-
shell: 取得したACLに
awsdatafeeds
の権限が付与されているかチェックする - shell: 権限がない場合、権限の内容を取得したACLに追記する
- aws cli: 改変したACL情報をS3バケットに反映する
S3バケットが構築されてからAPIで叩けるまでに微妙なタイムラグがあるらしく、sleepが入っていないとAPIを叩いた時にバケットが存在しないと怒られてしまいます。
ちゃんとするならば、APIのレスポンスを見て待つ処理を入れるのが良いのですが、terraformがMulti ACLに対応するまでの暫定的な対応なのでsleepで濁しています。
配置したスクリプトにパスが通っていないとlocal-execの指定時にわざわざパスを書いてあげる必要があるので、direnv使ってパス通しちゃいましょう。
相対パスがどこからになるのか知らない。
ちなみにacl.txtの内容を変えると好きな権限を入れれます。でもあまり使わないですし変更検知もされないので推奨はしません。
どうしてもという場合はaws_s3_bucket
リソースの代わりにnull_resource
リソースを使って毎回スクリプトをキックするようにした上で、前回実行のACLと反映するACLに差分がある時に実行するなど工夫をしてみてください。
結論
はよterraform自体で対応して。