DifyでBedrockを使うには
Difyを使ったチャットボットアプリのお仕事をいただいた。デモで使ったLLMはChatGPTだがクライアントはAWSを契約済みなので本実装はBedrockを使うことになりそうである。こういうケースは頻発しそうなのでつまづいた点などをまとめておく。
チャットボットの構成は以下の通り。
Difyはクラウド版とセルフホスト版があるが今回はクラウド版を想定。セルフホスト版はIAMロールの設定などが必要になるがクラウド版では不要。
AWS側の準備
使用したいモデルを有効化
「モデルアクセス」→使いたいモデルの「リクエスト可能」をクリック→「モデルアクセスをリクエスト」→モデルアクセスを編集の画面で「次へ」→「送信」
アクセスキーとシークレットキーを作成
コンソールホームから「IAM」→「ユーザー」→ユーザーを選択or作成→AmazonBedrockFullAccess ポリシーをアタッチ
→セキュリティ認証情報のタグから「アクセスキーを作成」
これは作成済みの画面
この画面は「サードパーティーサービス」を選択し「次へ」
進めてアクセスキーとシークレットアクセスキーを入手し、それらをDifyに貼り付ける。
Dify側の設定
「設定」から「モデルプロバイダー」を選択、「Amazon Bedrock」を見つけてインストールする。
↓の画像はインストール済みのスクショ。
セットアップ画面で以下を入力。
項目 | 入力内容 |
---|---|
Access Key | 先ほど作成したアクセスキーID |
Secret Access Key | 先ほどのシークレットキー |
AWS Region | Bedrockのリージョン(例:us-east-1) |
Bedrock Endpoint URL | 例:https://bedrock-runtime.us-east-1.amazonaws.com |
Available Model Name | 例:amazon.nova-micro-v1:0 |
Bedrock Proxy URL | Difyクラウドユーザーの場合は空欄でOK |
使用するLLMについて
Available Model Nameのところに入力すべきLLMのモデルIDはAWSの公式ドキュメントで公開されている。今回の実装時、最初にAnthropic社のClaudeを使おうとしたが、チャットへの反応時に以下のエラーが発生。
Run failed: [bedrock] Error: PluginInvokeError: {"args":{"description":"[models] Error: AccessDeniedException: You invoked an unsupported model or your request did not allow prompt caching. See the documentation for more information."},"error_type":"InvokeError","message":"[models] Error: AccessDeniedException: You invoked an unsupported model or your request did not allow prompt caching. See the documentation for more information."}
原因:Difyの「Prompt Caching」設定に非対応のモデルを使っている
BedrockでClaude3系モデルを使う場合はprompt caching(プロンプトのキャッシュ) を許可するという処理が必要らしい。DifyがBedrockと連携する際、リクエストのヘッダーに bedrock-runtime:cache を含める必要があるが、これはDify側で暗黙的に処理されており、クラウド版では明示的に操作することができないので現状では解決不能とのこと。
Amazon Novaシリーズを使用
いろいろ試してみたが結局Claude系モデルではうまくいかなかったのでモデルを変更することに。Amazon Novaシリーズで成功。Novaは低コスト低レイテンシーのMicro、マルチモーダル対応のLiteとProがあるが、今回のユースケースでは簡単なQ&AがメインなのでMicroを選択。利用料金はなんとGPT-4oやClaude3.5 Sonnetの約100分の1。 回答性能はMMLU(知識と推論能力のベンチマーク)で35%ほど落ちてしまうが一般的なチャットボットに求められる性能としては十分だと思われる。
LLMの回答比較
同じプロンプトを使った構成でChatGPTとNovaMicroを比較してみる。
・ChatGPT-4o使用
・ChatGPTのほうは「引用した箇所を正確に表記して」というプロンプトに従って青いラインの段落で表記してくれている。NovaMicroのほうはそれがない。
・さらにNovaMicroのほうは納品書のことを聞いているのに入金処理についての回答が混ざっている。
・ChatGPTのほうが受け答えがシンプルな印象。NovaMicroのほうはマニュアル外質問への回答も無駄に丁寧。
・両者とも「ポップアップが表示され~」という回答をしているがマニュアルによればポップアップが出るのは別の処理のところなのでどちらも検索箇所が混線している?
結論として性能差を感じるといえば感じるが、プロンプトやチャンクのオーバーラップ設定などの工夫によってどうにかできるかもしれない。マニュアルの複雑さにもよるがユーザー体験としてはNovaMicroで大きく損なわれるということはなさそう。