全くLambda使ったことない方向けでS3とLambdaを使って超簡単な処理の書き方と設定の仕方を画像付きで書きます。
初心者向けですが、Lambdaって何?というと、雑に一言でいうとWeb上でちょっとした処理をさせたいとかいう時に個人レベルならタダで簡単にEC2とか立てないでも使える便利サービスくらいに思っておくとよいかと。
初めは難しそうに聞こえますが、簡単な処理だけならLambdaだけで十分というか、こっちの方が良いということも多いはずですので触ってみても面白いと思います
何をするのか?
画像をアップロードされた時に、サイズを小さくするとか、ファイル形式を変えるとか分析に使えるようにしたい、ファイルをアップロードしたときにtxtデータとかだったら整形して特定の形式に変換したい、通知送りたい、などなど色々させたい処理があると思います。
今回はS3に画像ファイルをアップロードされた時に特定の処理をさせるLambda関数を作ってみます。
Lambdaで使用するのはPythonですがNodeでもRubyでもJavaでも読み替えられるレベルです。どうしてもわからなかったら、ChatGPTにでも書き換えてもらってください。
注意:画像をつけますが、AWSはUIがよく変わるので完全には一致しなくなることが多いです。
無料期間なら無料だと思います。
ただ、Lambdaは無料期間すぎても相当使わないと有料にはならないと思いますが、大量に処理させたり、長時間処理させるとコストかかるかもしれません。
メモ
年に数回使うことあるけど、その度どうするんだっけ?となるから書きました。
作りながらメモのように書いていって最後に補足して作成したので抜けとかあるかもしれない。あしからず
S3のBucket作成
バケットを作成で作ってください。
バケット名はユニークでないといけないのでどの人ともかぶらなそうな名前つけてください。
名前以外は何もいじらないで作成で大丈夫です。公開するバケットなら後で設定変えてください。今回はサンプルなのでこのままやります。
このバケットにファイルをアップロードすることにします。
Lambda関数作成
アーキテクチャは変更する必要ないです。ただ、ライブラリインストールする時にここ間違うとビルド失敗するとかあるかもしれません。とりあえず変更しないでいいです。
作成したらこんな画面になると思います。Lambdaで処理させたいコードを書きます。
Lambda 関数画面からトリガーを追加する方法
アップロードされた時に発火するトリガーを設定します。S3からもできるのですが、Lambdaで設定します。
S3を選択して最初に作ったバケットを選択。
イベントタイプはサンプルなので全てのオブジェクト作成イベントにしました。
POST, PUT, DELETEとか絞った方がいいですが。
プレフィックスとサフィックスがあります。
これは便利で特定の名前とかディレクトリのみ発火させることができます。
今回の場合だと特定の拡張子だけ処理させたいとかに使えるのですが、今回は練習なのでLambdaの処理の中で見ることにします。
最後の再起呼び出しの脅しにチェック入れてOKです。今回ファイルは作らないので大丈夫です。
この脅しは何いっているかというと、ファイルがアップロードされたらLambdaでファイルを生成するみたいなLambdaを作ったとすると、設定によっては、Lambdaが一生止まらないで発火し続けるからコストがやばいことなるよ〜ということです。
ファイルを生成するようなコードを書く時は気をつけましょう。
Lambda関数を修正して
ファイルアップロードした時に発火する処理を書きます。
とりあえずprintだけ追加してこんな感じにしました。
ファイルをアップロードするとcloud watchにログが表示されるはずです。
import json
def lambda_handler(event, context):
print('ファイルアップロードしました')
return {
'statusCode': 200,
'body': json.dumps('Hello from Lambda!')
}
デプロイボタンがあるので押します。
S3にファイルアップロード
適当に生成した猫の画像をアップロードしました。中身に意味はないです。
すでにCloudWatchにログが保存される設定になっているはずなのでLambdaのモニタリング→CloudWatch ログ みたいなのを押してください。
最近のデータがあると思います。
開いてみるとprint
で書いたファイルアップロードしましたが表示されています。
もう完了ですが、
コードを少し修正
import json
def lambda_handler(event, context):
# 受け取ったイベント全体を出力(デバッグ用)
print("Received event: " + json.dumps(event))
# イベント内のレコードをループ処理
for record in event.get('Records', []):
# イベントが S3 からのものであることを確認
if record.get('eventSource') == "aws:s3":
bucket = record['s3']['bucket']['name']
key = record['s3']['object']['key']
# ファイル名が画像ファイルかどうか(例: jpg, jpeg, png, gif)をチェック
if key.lower().endswith(('.jpg', '.jpeg', '.png', '.gif')):
print(f"画像ファイルがアップロードされました: Bucket={bucket}, Key={key}")
else:
print(f"アップロードされたファイルは画像ではありません: Bucket={bucket}, Key={key}")
# 正常終了を返す
return {
'statusCode': 200,
'body': json.dumps('Lambda function executed successfully!')
}
コードを変更したらデプロイをまた押してください。
内容的はファイルの拡張子見てるだけです。
画像ファイルと画像ファイル以外をアップロードしてCloudWatchに表示されるログが変わるの確認してみてください。
sample.pdfというファイルをアップロードした場合はCloudWatchに以下のような表示がされると思います。
アップロードされたファイルは画像ではありません: Bucket=sample-lambda-function-123, Key=sample.pdf
軽くコードについて
handlerの引数ですが、event
はLambda 関数をトリガーしたイベントに関する詳細な情報を保持しています。
S3、SNS、API Gateway など、イベントの種類に応じて構造が異なる。今回の場合だとevent['file_key']
とかevent['bucket_name']
などS3のアップロードされたことによって起こったイベントの内容が入っています。
context
は関数実行時の環境情報やメタデータを提供しています。実行時間の管理やログ出力、トラブルシューティングに役立つ情報が含まれています。
このサンプル程度のレベルでは使わないので気になった方は公式のドキュメント読んでください。
例えば、画像ファイルの大きさを圧縮してS3の特定の場所に別名で保存するとかにイベントの中身から画像を取得して圧縮、その後アップロードするようなコードがかけます
注意
格安だといっても超大量にリクエストしたり、重い処理をLambdaにさせるべきではないです。やる人いないとは思いますが、pandasなど使ってゴリゴリ分析させるとかさせない方が無難です。
サンプルコード
検証中に使ったコード貼ります。
S3からファイルを取得
boto3はデフォルトで使える。AWSのサービスを使うのに使う。
もし使う場合は、S3からの取得、配置、削除には権限を付与しないとできないので後で示すポシリーをつけてください。
import boto3
s3_client = boto3.client('s3')
def lambda_handler(event, context):
bucket_name = 'sample-lambda-function-123'
key_name = 'sample.jpeg'
response = s3_client.get_object(Bucket=bucket_name, Key=key_name)
# こらへんに何か変換処理入れる
return {
'statusCode': 200,
}
ファイルをアップロード
ファイルをアップロードさせる。
注意⚠️:何も制約やディレクトリも絞らないで、トリガーで同じバケットに生成するコード書くと無限にsample.txtを生成し続けることなると思うので注意。
- 発火させるバケットと違うバケットにファイルを生成させる
- ディレクトリ切る。トリガーの条件をprefixで対象を絞る
- suffixで拡張子やファイル名を絞る。コード上でも絞っても良い
def lambda_handler(event, context):
bucket_name = 'sample-s3-hogehoge'
key_name = 'sample.txt'
file_contents = '123456789あいうえお'
response = s3_client.put_object(Body=file_contents, Bucket=bucket_name, Key=key_name)
return {
'statusCode': 200,
}
画像をアップロードする時は、こんな感じでbyteにしてアップロードできます。
# 画像をupload
s3_client.put_object(
Bucket=bucket_name,
Key=new_key,
Body=image_bytes
)
S3からファイルを取得して何か処理をしてS3にアップロードする
ファイルを取得してから、何か処理をしてから他のバケットにアップロードさせる。
- バケットを2つ用意
- ファイルアップロード用のバケット
- ファイル出力用のバケット
- ファイルアップロード用のバケットにファイルをアップロードすると以下のLambdaをトリガーさせる想定
def lambda_handler(event, context):
get_bucket_name = event['Records'][0]['s3']['bucket']['name']
get_key_name = event['Records'][0]['s3']['object']['key']
print(get_bucket_name)
print(get_key_name)
response = s3_client.get_object(Bucket=get_bucket_name, Key=get_key_name)
base_name, _ = os.path.splitext(get_key_name)
new_key = f'{base_name}_2.jpeg'
print(f'before: {get_key_name} -> after: {new_key}')
body: bytes = response['Body'].read()
# バイトデータを読み込み
image_bytes = func_hoge(body, 'jpeg') # 変換処理など何か処理をする
put_bucket_name = 'sample-s3-hogehoge'
# 画像をupload
s3_client.put_object(
Bucket=put_bucket_name,
Key=new_key,
Body=image_bytes
)
return {
'statusCode': 200,
}
func_hoge()を作って画像の変換コードなど書いてやるといいと思います。
再度書きますが、トリガー付きで同じバケットに出力する時は気をつけてください。
ポリシーをアタッチ
S3からファイルを取得したり、アップロードしたりするのには権限が必要です。
本当は権限は絞らないといけないのですが、サンプルなのでS3のフルアクセスをつけます
ポリシーをアタッチ
検索で「S3」などと打てば候補出るのでAmazonS3FullAccess
をつけます。
このポリシーがないとファイル取得やファイルアップロードが失敗すると思います。
コードの手動実行方法
画面の横にテストボタンがあります。eventなどを使わない処理ならこのテストボタンでOK
テストタブの中にある「テスト」ボタンと一緒です。そちらでは、引数として受け取るeventの中身をシミュレートできるので、毎回ファイルをアップロードする必要なくなるので使ってみてください。