はじめに
ServerlessDays Tokyo 2025 に参加させていただきました。
今回はDay.2 ワークショップDAYの振り返りを行いたいと思います。私はAWSのワークショップに参加しました。
解説パートに関してはメモのような形になっております。ご了承ください。
①Amazon Bedrock AgentCore Workshop: From Basic to Advanced Agent Development
まず、概要を解説していただき、その後実際にワークショップを通じて手を動かすといった流れで行われました。
申し訳ございませんが、資料のリンクを把握できていないので、確認できしだい添付します。(ご存知の方がいらっしゃれば教えていただけますと幸いです)
1. 概要の紹介
登場背景(なぜ開発されたのか)
-
AIエージェント → 与えられたタスクに対して、自律的に状況を判断し、次々と行動していくソフトウェア
-
AIエージェントの実装に必要なこと
- ロジックの開発
- Agentの実装
- ツールの実装
- アプリケーションのホスト ← 大変
- Lambda? ECS?
- ロジックの開発
-
プロトタイプが作れた後の本番稼働に向けた課題
- 差別化されない重労働 がある
概要
- 3つの特徴
- TIME TO VALUE
- インフラ・運用に悩まされない
- 柔軟性
- 任意のフレームワーク・モデルを許容
- 信頼性
- 安全でスケーラブルで信頼性のあるエージェントの展開
- TIME TO VALUE
AgentCoreの各サービスについて
- Runtime
- 特徴
- フレームワーク・モデル・プロトコルへの柔軟な対応
- 完全なセッション分離
- 組み込みのアイデンティティと認証
- マルチモーダルの大きなペイロードサイズに対応
- リアルタイム・長期実行ワークロードに対応
- コスト
- CPU:利用時間のみの課金
- メモリ:利用の有無にかかわらず時間課金
- 特徴
- Memory
- 特徴
- 文脈の記憶
- ユーザーの理解
- 知識の更新
- 特徴
2. ワークショップ
ワークショップでは、まずローカルで Code Interpreter を用いたコスト見積もりエージェントを構築し、それを RuntimeでAWS上にデプロイし、Memory を用いて、短期記憶と長期記憶の実装をしました。
詳細は以下リンクをご覧ください。こちらの Lab1,2,6 を実施しました。
感想
私の場合、なんだかんだ Runtime でデプロイしてみて喜んでるだけみたいなところがあったので、いろいろ勉強になりました。ちゃんと使うのであれば、Identityなどの理解はより深めておきたいなとも思いました。
また、それと同時に(AWS上にデプロイする前に)そもそものエージェント実装の部分をより深めたい気持ちもあり、これからどうしようかというのは少し悩みどころかもしれません。
②Apache Icebergを体験しよう! サーバーレスのAthenaとS3で Iceberg に入門する
①と同様に、まず、概要を解説していただき、その後実際にワークショップを通じて手を動かすといった流れで行われました。
1. 概要
背景
-
データレイクの基本
- 多様な生データをデータレイクに蓄積し、処理と蓄積を分離する
- 処理系をいつでも捨てられる
- 一番のキモ
- 基本的にS3
- データレイクの中で加工(前処理)し、処理系が扱いやすい形を維持する
- 多様な生データをデータレイクに蓄積し、処理と蓄積を分離する
-
データレイク上で多様なワークロードが実行されるようになると...
- ソースを小さい単位で連続反映したい
- 個人情報の削除要求への対応
- 特定の情報の効率的な削除・更新
- 多様な実験を継続的に行う
- 過去のスナップショットの参照
- 一貫性を確保した参照
-
データレイクの課題と必要になる機能
- 総じてデータベースっぽい機能
- 効率的な部分更新・読み取り
- トランザクション
- タイムトラベルクエリ
- スキーマエボリューション
- 総じてデータベースっぽい機能
-
これらの課題の解決策
- Open Table Format レイヤーを挟む
- 今回は Iceberg を紹介するが、他にも規格はあるそう
Iceberg の構成要素
- Iceberg を読み書きするツール
- テーブル仕様に準拠してテーブルを操作
- 例)Amazon Athena、Lambda+DuckDB
- Iceberg カタログ
- テーブル情報の管理・トランザクションの一貫性の保証を行う
- 例)AWS Glue
- ストレージ
- 実データとメタデータを配置
- 例)Amazon S3、Amazon S3 Tables
詳細はこちらの記事も参考になるかと思います。
2. ワークショップ
ワークショップでは、Amazon Athena を用いて、Iceberg の基本的な機能の確認を行いました。また、随時S3を直接確認することで、データがどのようになっているか確認しながら進めました。
詳細は以下リンクをご覧ください。こちらの Lab 3,4 を実施しました。
S3 Tables では中を見ることができない点に注意してください。
感想
私もIcebergについては、以前S3 Tablesを触る過程で少し情報整理をして触ってみましたが、結局ユースケースをイメージできず「ふーん」で終わってしまっていました。(そちらについては以下記事で記載しています)
今回一緒に確認しながら手を動かすことで、どういったことが起きているのかをはっきりイメージすることができ、とても勉強になりました。(特に、実データを触っているわけではなく、diffを積み重ねているという話は全く分かっていませんでした...)生成AI周りを扱う上でデータはとても重要だと思うので、こういった技術へのアンテナは今後も張っていきたいと思います。
おわりに
以上簡単ではありますが、ワークショップの振り返りでした。どちらのワークショップも多くの学びがあり、今後自分でもいろいろ触ってより理解を深めていきたいと思います。
この2つ日間で技術的な学びがたくさんあったことはもちろん、熱意を感じることができ、これからの活動のモチベーションが高まりました。今回は知見をいただく立場がメインでしたが、自分もいろいろ触って試して考えて、知見を共有できるようにやっていきたいと思います。
ありがとうございました。