0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

DifyにOllamaを追加する手順

Posted at

はじめに

DifyからOllamaを使えるようにする設定です。
OllamaにLLMがインストールされていることが前提になります。

環境

Ubuntu20.4 (Windows10 + Vagrant)

手順

oolamaデーモンの設定ファイルに1行追加します。この1行を追加することで、DifyにOllamaを登録するときのエラーが回避されるようです。

$vi /etc/systemd/system/ollama.service
[Service]
Environment="OLLAMA_HOST=0.0.0.0"

デーモンを再起動します。

$systemctl daemon-reload
$systemctl restart ollama.service

ブラウザからローカル環境のDifyを起動してログインします。

http://IPアドレス/install
http://192.168.33.10:8080/install

画面から、設定-モデルプロバイダーを選択します。モデルプロバイダーの中から「Ollama」を選択して「モデルを追加」をクリックします。

無題.png

Ollamaの設定を行います。

無題.png

「Model Name」はOllamaの公式サイトからインストールしたモデルを検索すれば分かります。

「Base URL」にはDockerのIPアドレス(ローカル環境からDifyを起動するときのIP)を設定します。ポート番号は「11434」固定値です。

「Model context size」はOllamaの公式サイトのモデル一覧から確認ができます。分からない場合はデフォルト値でいいようです。

トラブルシュート

Base URLの設定が異なっている可能性があります。

無題.png

大きなモデルをインストールしてしまい、動かすのにメモリ容量が少ないと言われました。もっと軽いモデルをインストールしましょうということです。

無題.png

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?