LoginSignup
1
0

Dify実装で詰まった点

Posted at

Dify備忘録

この記事は、Difyとollamaを使って遊ぼうとした際に詰まった点についてまとめます。

環境

M2 Macbook pro
Dify Dockerで実行
Ollama ローカルで実装(使用モデルはllama3:latest)

詰まった点1

Difyにollama を認識させる所で詰まりました。

解決策

Base URLを以下に変更すると大丈夫でした

どうやらDifyをDockerで実行していることが関係しているようです。

これでDify側がollamaを認識してくれるようになります。

詰まった点2

先ほどのやり方でollamaの認識はできました。
これをDifyで使用するためには、
設定 → モデルプロバイダー → システムモデル設定

このシステムモデル設定で利用するLLMを選ぶ必要があります。

「詰まった点1」でLLMの認識ができても、ここでそのLLMを選ぶことができません!

解決策

一度Difyからログアウトしてください。
Dockerを落とす必要はありません。
一度ログアウトし、再度ログインすればDifyが更新?されるのかLLMを認識してくれます。

まとめ

以上がDify(Docker)で動かす際に私が詰まった点です。

1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0