Windows環境でWSL(Ubuntuなど)を利用してOllamaをセットアップし、curlでAPIリクエストを送るまでの手順を記載します。
1. WSLの準備
-
WSL2の有効化
Windows PowerShellで次のコマンドを実行してWSL2とUbuntuをインストールします。wsl --install
-
Ubuntuのアップデート
インストール後、Ubuntuターミナルを開いてアップデートを実施します。sudo apt update && sudo apt upgrade -y
2. Ollamaのインストール
-
Ollamaの一括インストール
Ubuntu(WSL内)で以下のコマンドを実行します。
※ インストールスクリプトは公式のものを使用しています。curl -fsSL https://ollama.com/install.sh | sh
3. モデルの取得と起動
-
モデルのダウンロード
例として、gemma:2b
を使用する場合、以下のコマンドでモデルをダウンロードします。ollama pull gemma:2b
-
モデルの実行
ダウンロード後、次のコマンドでモデルを起動できます。ollama run gemma:2b
※ 初回実行時はモデルのロードに時間がかかることがあります。
4. WSLからcurlでAPI呼び出し
-
APIリクエスト例
OllamaサーバはREST API(デフォルト:http://localhost:11434
)を提供しているので、curlコマンドでリクエストを送信します。例えば、generateエンドポイントに対して日本語のプロンプトを送る場合:curl -X POST http://localhost:11434/api/generate -d '{ "model": "gemma:2b", "prompt": "こんにちは、Ollama!日本語で返答してください。" }'
また、チャット形式の場合は以下のようにリクエストします。
curl http://localhost:11434/api/chat -d '{ "model": "gemma:2b", "messages": [ { "role": "user", "content": "こんにちは、調子はどうですか?" } ] }'
APIの詳細やSwagger UIは、ブラウザで
http://localhost:11434/docs
にアクセスすると確認できます citeturn0search4
6. 注意点
-
ネットワーク設定
WSLとWindowsホスト間では、通常localhost
が共有されていますが、環境によってはWSLのIPアドレスを利用する必要がある場合もあります。 -
サービスの自動起動
SystemdがWSLで有効になっていない場合は、手動でollama serve
をバックグラウンド実行するなどの対策を検討してください。 -
モデルごとの起動時間
モデルによっては初回ロードが重いので、必要に応じてollama pull
であらかじめダウンロードしておくとスムーズです。
以上の手順により、Windows上のWSL環境でOllamaを立ち上げ、curlからLLMモデルを呼び出すことが可能になります。