2024/12 現在 一部プレビュー
内容
AWS re:Invent 2024 で発表があった Amazon Bedrock Knowledge Bases が マルチモーダルデータに対応したことについてシンプルに纏めます。
- アップデート内容はタイトルの通りです
マルチモーダルデータとは
- テキストとビジュアルデータ両方使いながらユーザーに回答を返す
対応リージョン
- 米国西部 (オレゴン)
対応モデル
- Claude 3.5 Sonnet
- Claude 3 Haiku
※ 次に説明する解析戦略で、「Foundation models as a parser」を指定した場合
設定
解析戦略
ナレッジベースを作成するときに、解析戦略としていずれかを指定する。
1.マルチモーダルデータからコンテンツを自動抽出するマネージドサービスの Amazon Bedrock Data Automation を使用(プレビュー)
2.デフォルトのプロンプトを柔軟にカスタマイズできる Claude 3.5 Sonnet や Claude 3 Haiku などの FM がパーサーとする Foundation models as a parser
※ なお、今の所ナレッジベースの作成後にこれらのオプションを変更できないため、新規作成時のみに指定可能。
なお、良い素材が直ぐに思いつかなかったので、時間があれば後日検証してみて更新したいと思います。
Multimodal storage destination
Amazon Bedrock Knowledge Bases がナレッジベースのデータソースにドキュメントから抽出した画像を保存するために使用する、Amazon S3 上のマルチモーダルストレージの保存先に使用する。
なお、これらの画像は、ユーザークエリに基づいて取得され、応答の生成に使用され、応答で引用される。