はじめに
DifyからOllamaを使えるようにする設定です。
OllamaにLLMがインストールされていることが前提になります。
環境
Ubuntu20.4 (Windows10 + Vagrant)
手順
oolamaデーモンの設定ファイルに1行追加します。この1行を追加することで、DifyにOllamaを登録するときのエラーが回避されるようです。
$vi /etc/systemd/system/ollama.service
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
デーモンを再起動します。
$systemctl daemon-reload
$systemctl restart ollama.service
ブラウザからローカル環境のDifyを起動してログインします。
http://IPアドレス/install
http://192.168.33.10:8080/install
画面から、設定-モデルプロバイダーを選択します。モデルプロバイダーの中から「Ollama」を選択して「モデルを追加」をクリックします。
Ollamaの設定を行います。
「Model Name」はOllamaの公式サイトからインストールしたモデルを検索すれば分かります。
「Base URL」にはDockerのIPアドレス(ローカル環境からDifyを起動するときのIP)を設定します。ポート番号は「11434」固定値です。
「Model context size」はOllamaの公式サイトのモデル一覧から確認ができます。分からない場合はデフォルト値でいいようです。
トラブルシュート
Base URLの設定が異なっている可能性があります。
大きなモデルをインストールしてしまい、動かすのにメモリ容量が少ないと言われました。もっと軽いモデルをインストールしましょうということです。