Note
この記事は、Difyのクラウド版(dify.ai)を対象としています。セルフホスト版でも同様の問題が発生する可能性がありますが、本手順はクラウド版での動作を確認したものです。
はじめに
AIアプリ開発プラットフォーム「Dify」と、高速推論の「Groq」を連携させようとして、こんなエラー画面が表示されました。
Credentials validation failed with status code 400 and response body {"error":{"message":"The model llama3-8b-8192 has been decommissioned...","type":"invalid_request_error","code":"model_decommissioned"}}
「llama3-8b-8192なんて指定してないのに、なぜ?」と困惑しましたが、解決方法を見つけたので紹介します。
結論として、これはAPIキーや設定ミスが原因ではありませんでした。
この記事では、この問題を解説し、Difyの標準機能である「OpenAI-API-compatible」プロバイダーを使って、確実にGroqと連携させる方法をご紹介します。
なぜ標準のGroq設定ではうまくいかないのか?
結論として、Difyに標準で用意されているGroqプロバイダーの検証プロセスが古いモデルを参照しているためです。
Difyでは、モデルプロバイダーにAPIキーを保存する際、そのキーが有効かを確認するためにGroqへテストリクエストを送信します。しかし、2025年9月現在、このテストリクエストに既に廃止されたモデル(llama3-8b-8192)が内部的に指定されてしまっているのです。
そのため、正しいAPIキーを入力しても、Dify側の検証が必ず失敗し、先へ進めないという状況に陥っています。
解決策:OpenAI互換エンドポイントを利用する
この問題を回避する方法は、Difyの標準Groqプロバイダーを使わず、汎用的な「OpenAI-API-compatible」プロバイダーを利用することです。
GroqはOpenAIと互換性のあるAPIエンドポイントを提供しているため、この方法で完璧に連携できました。
手順紹介
ステップ1:GroqのAPIキーを取得する
まずはGroq公式サイトでAPIキーを取得します。
※ アカウント登録は済みの想定
ステップ2:「OpenAI-API-compatible」プロバイダーを追加する
- Difyの
設定>モデルプロバイダー画面に移動します。 -
モデルプロバイダー画面のモデルプロバイダーをインストールする一覧にOpenAI-API-compatibleがないと思うので、「もっと発見する Dify マーケットプレイス」からDify マーケットプレイスに移動します。 - 「OpenAI-API-compatible」を検索してインストールします。
ステップ3:検証用のモデルを登録する
+ モデルを追加をクリックし、以下の内容で設定します。
| 設定項目 | 入力する値 | 説明 |
|---|---|---|
| Model Name | llama-3.1-8b-instant |
Groqに存在するモデルIDを正確に入力します。 |
| 認証名 | Groq - llama-3.1-8b-instant |
Dify内で識別するための分かりやすい名前を付けます。モデルIDを付けておくと分かりやすいです。 |
| Model display name | Groq - llama-3.1-8b-instant |
上記と同じでOKです。 |
| API Key | gsk_... |
ステップ1で取得した Groq API キーを貼り付けます。 |
他の項目はデフォルトでOKです。
上記の内容で「保存」をクリックすれば、今度はエラーなく保存できるはずです。
(オプション) 他のモデルも追加する
他のモデルを追加すると、切り替えて使うことが可能です。
例えば、openai/gpt-oss-20bを次のように登録します。
- 再度、
モデルプロバイダー設定画面の「OpenAI-API-compatible」セクションにある「+ モデルを追加」をクリックします。 - 以下の内容で、新しいモデルを登録します。
| 設定項目 | 入力する値 | 説明 |
|---|---|---|
| Model Name | openai/gpt-oss-20b |
ここで使いたいモデルの正式なIDを入力します。 |
| 認証名 | Groq - gpt-oss-20b |
DifyのUI上で表示される分かりやすい名前を付けます。 |
| Model display name | Groq - gpt-oss-20b |
上記と同じでOKです。 |
| API Key | ****** | (入力済みのはず) |
| API endpoint URL | https://api.groq.com/openai/v1 |
(入力済みのはず) |
これで、openai/gpt-oss-20bモデルを使う準備が整いました。
他のモデル(例:llama-3.3-70b-versatile)を使いたい場合も、同様に「+ モデルを追加」から登録してください。
動作確認:チャットボットでopenai/gpt-oss-20bを動かす
この手順は Groq 特有の内容はありません。
最後に、設定が正しく完了したかを確認しましょう。
- Difyのメインメニューから「最初から作成」し、「チャットフロー」を作成します。
- フローにある「LLM」の項目を選択します。
-
AI モデルのドロップダウンリストを開くと、先ほど「認証名」で設定した「Groq - gpt-oss-20b」が選択肢に表示されているはずです。これを選択します。 - 画面右上の「公開」をクリックして保存し、「プレビュー」でチャットを試してみましょう。
「自己紹介してください」などと入力して、openai/gpt-oss-20bから応答が返ってくれば成功です!
まとめ
Difyの標準Groqプロバイダーが古いモデルを参照しているため、APIキーの設定でmodel_decommissionedエラーが発生する問題の解決策を紹介しました。
解決のポイント:
- 標準の
Groqプロバイダーは使わない。 - 汎用的な
OpenAI-API-compatibleプロバイダーを利用する。 -
モデルプロバイダー設定画面で、利用したいGroqのモデルを一つずつ、正しいモデルIDで追加登録する。
この手順を踏むことで、Dify上でGroqを活用できるようになります。
同じ問題で困っている方の助けになれば幸いです。