Dify備忘録
この記事は、Difyとollamaを使って遊ぼうとした際に詰まった点についてまとめます。
環境
M2 Macbook pro
Dify Dockerで実行
Ollama ローカルで実装(使用モデルはllama3:latest)
詰まった点1
Difyにollama を認識させる所で詰まりました。
解決策
Base URLを以下に変更すると大丈夫でした
どうやらDifyをDockerで実行していることが関係しているようです。
これでDify側がollamaを認識してくれるようになります。
詰まった点2
先ほどのやり方でollamaの認識はできました。
これをDifyで使用するためには、
設定 → モデルプロバイダー → システムモデル設定
このシステムモデル設定で利用するLLMを選ぶ必要があります。
「詰まった点1」でLLMの認識ができても、ここでそのLLMを選ぶことができません!
解決策
一度Difyからログアウトしてください。
Dockerを落とす必要はありません。
一度ログアウトし、再度ログインすればDifyが更新?されるのかLLMを認識してくれます。
まとめ
以上がDify(Docker)で動かす際に私が詰まった点です。