0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

【クラウド版Dify】Groqが繋がらない?エラーを回避してLLMを使う方法【2025/09版】

Posted at

Note

この記事は、Difyのクラウド版(dify.ai)を対象としています。セルフホスト版でも同様の問題が発生する可能性がありますが、本手順はクラウド版での動作を確認したものです。

はじめに

AIアプリ開発プラットフォーム「Dify」と、高速推論の「Groq」を連携させようとして、こんなエラー画面が表示されました。

Credentials validation failed with status code 400 and response body {"error":{"message":"The model llama3-8b-8192 has been decommissioned...","type":"invalid_request_error","code":"model_decommissioned"}}

llama3-8b-8192なんて指定してないのに、なぜ?」と困惑しましたが、解決方法を見つけたので紹介します。

結論として、これはAPIキーや設定ミスが原因ではありませんでした。

この記事では、この問題を解説し、Difyの標準機能である「OpenAI-API-compatible」プロバイダーを使って、確実にGroqと連携させる方法をご紹介します。

なぜ標準のGroq設定ではうまくいかないのか?

結論として、Difyに標準で用意されているGroqプロバイダーの検証プロセスが古いモデルを参照しているためです。

Difyでは、モデルプロバイダーにAPIキーを保存する際、そのキーが有効かを確認するためにGroqへテストリクエストを送信します。しかし、2025年9月現在、このテストリクエストに既に廃止されたモデル(llama3-8b-8192)が内部的に指定されてしまっているのです。

そのため、正しいAPIキーを入力しても、Dify側の検証が必ず失敗し、先へ進めないという状況に陥っています。

解決策:OpenAI互換エンドポイントを利用する

この問題を回避する方法は、Difyの標準Groqプロバイダーを使わず、汎用的な「OpenAI-API-compatible」プロバイダーを利用することです。
GroqはOpenAIと互換性のあるAPIエンドポイントを提供しているため、この方法で完璧に連携できました。

手順紹介

ステップ1:GroqのAPIキーを取得する

まずはGroq公式サイトでAPIキーを取得します。
※ アカウント登録は済みの想定

ステップ2:「OpenAI-API-compatible」プロバイダーを追加する

  1. Difyの 設定 > モデルプロバイダー 画面に移動します。
  2. モデルプロバイダー 画面の モデルプロバイダーをインストールする一覧に OpenAI-API-compatibleがないと思うので、「もっと発見する Dify マーケットプレイス」からDify マーケットプレイスに移動します。
  3. OpenAI-API-compatible」を検索してインストールします。

ステップ3:検証用のモデルを登録する

+ モデルを追加をクリックし、以下の内容で設定します。

設定項目 入力する値 説明
Model Name llama-3.1-8b-instant Groqに存在するモデルIDを正確に入力します。
認証名 Groq - llama-3.1-8b-instant Dify内で識別するための分かりやすい名前を付けます。モデルIDを付けておくと分かりやすいです。
Model display name Groq - llama-3.1-8b-instant 上記と同じでOKです。
API Key gsk_... ステップ1で取得した Groq API キーを貼り付けます。

他の項目はデフォルトでOKです。
上記の内容で「保存」をクリックすれば、今度はエラーなく保存できるはずです。

(オプション) 他のモデルも追加する

他のモデルを追加すると、切り替えて使うことが可能です。
例えば、openai/gpt-oss-20bを次のように登録します。

  1. 再度、モデルプロバイダー設定画面の「OpenAI-API-compatible」セクションにある「+ モデルを追加」をクリックします。
  2. 以下の内容で、新しいモデルを登録します。
設定項目 入力する値 説明
Model Name openai/gpt-oss-20b ここで使いたいモデルの正式なIDを入力します。
認証名 Groq - gpt-oss-20b DifyのUI上で表示される分かりやすい名前を付けます。
Model display name Groq - gpt-oss-20b 上記と同じでOKです。
API Key ****** (入力済みのはず)
API endpoint URL https://api.groq.com/openai/v1 (入力済みのはず)

これで、openai/gpt-oss-20bモデルを使う準備が整いました。
他のモデル(例:llama-3.3-70b-versatile)を使いたい場合も、同様に「+ モデルを追加」から登録してください。

動作確認:チャットボットでopenai/gpt-oss-20bを動かす

この手順は Groq 特有の内容はありません。

最後に、設定が正しく完了したかを確認しましょう。

  1. Difyのメインメニューから「最初から作成」し、「チャットフロー」を作成します。
  2. フローにある「LLM」の項目を選択します。
  3. AI モデルのドロップダウンリストを開くと、先ほど「認証名」で設定した「Groq - gpt-oss-20b」が選択肢に表示されているはずです。これを選択します。
  4. 画面右上の「公開」をクリックして保存し、「プレビュー」でチャットを試してみましょう。

「自己紹介してください」などと入力して、openai/gpt-oss-20bから応答が返ってくれば成功です!

まとめ

Difyの標準Groqプロバイダーが古いモデルを参照しているため、APIキーの設定でmodel_decommissionedエラーが発生する問題の解決策を紹介しました。

解決のポイント:

  1. 標準のGroqプロバイダーは使わない。
  2. 汎用的なOpenAI-API-compatibleプロバイダーを利用する。
  3. モデルプロバイダー設定画面で、利用したいGroqのモデルを一つずつ、正しいモデルIDで追加登録する。

この手順を踏むことで、Dify上でGroqを活用できるようになります。
同じ問題で困っている方の助けになれば幸いです。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?