LoginSignup
2
3

別マシンの Ollama へのアクセス

Last updated at Posted at 2024-03-04

Ollama は各種 LLM をローカルで手軽に動かせます。HTTP サーバーとして実装されているため、LLM を専用マシンに分離することも簡単です。

デフォルトでは 127.0.0.1:11434 で待ち受けされるため、ローカルからのアクセスに制限されます。

WSL2 はホストとは別の IP アドレスを持っているため、Windows 側の Ollama に WSL2 から 127.0.0.1:11434 でアクセスすることはできません。

外部からのアクセスを許可するには環境変数 OLLAMA_HOSTOLLAMA_ORIGINS を設定します。👉FAQ

設定例
OLLAMA_HOST=0.0.0.0
OLLAMA_ORIGINS=192.168.0.*

127.0.0.10.0.0.0 の違いについては以下の記事が参考になります。

コマンド

OLLAMA_HOST はサーバーだけでなく、クライアントにも影響します。

OLLAMA_HOST が設定されていない、または自ホストが指定されている場合、ollama コマンドを実行すると、サーバーが存在しなければ自動的に起動されます。一方、他のホストが設定されている場合は、指定されたホストに接続しようとします。

LangChain

Python で Ollama にアクセスするには LangChain が便利です。

別マシンの Ollama へのアクセスは base_url を指定します。

from langchain_community.llms import Ollama
llm = Ollama(base_url="http://192.168.0.11:11434", model="gemma:2b")
llm.invoke("Who are you?")

参考

ローカル LLM の構築は手間が掛かりそうなので敬遠していましたが、Ollama はあっさり動きました。gemma:2b は型落ちのノート PC (Core i5) でも 5tps くらいは出るので驚きました。Ollama と Gemma の組み合わせは私にとって画期的でした。

2
3
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
3