Windows環境でWSL(Ubuntuなど)を利用してOllamaをセットアップし、curlでAPIリクエストを送るまでの手順を記載します。
1. WSLの準備
-
WSL2の有効化
Windows PowerShellで次のコマンドを実行してWSL2とUbuntuをインストールします。wsl --install -
Ubuntuのアップデート
インストール後、Ubuntuターミナルを開いてアップデートを実施します。sudo apt update && sudo apt upgrade -y
2. Ollamaのインストール
-
Ollamaの一括インストール
Ubuntu(WSL内)で以下のコマンドを実行します。
※ インストールスクリプトは公式のものを使用しています。curl -fsSL https://ollama.com/install.sh | sh
3. モデルの取得と起動
-
モデルのダウンロード
例として、gemma:2bを使用する場合、以下のコマンドでモデルをダウンロードします。ollama pull gemma:2b -
モデルの実行
ダウンロード後、次のコマンドでモデルを起動できます。ollama run gemma:2b※ 初回実行時はモデルのロードに時間がかかることがあります。
4. WSLからcurlでAPI呼び出し
-
APIリクエスト例
OllamaサーバはREST API(デフォルト:http://localhost:11434)を提供しているので、curlコマンドでリクエストを送信します。例えば、generateエンドポイントに対して日本語のプロンプトを送る場合:curl -X POST http://localhost:11434/api/generate -d '{ "model": "gemma:2b", "prompt": "こんにちは、Ollama!日本語で返答してください。" }'また、チャット形式の場合は以下のようにリクエストします。
curl http://localhost:11434/api/chat -d '{ "model": "gemma:2b", "messages": [ { "role": "user", "content": "こんにちは、調子はどうですか?" } ] }'APIの詳細やSwagger UIは、ブラウザで
http://localhost:11434/docsにアクセスすると確認できます citeturn0search4
6. 注意点
-
ネットワーク設定
WSLとWindowsホスト間では、通常localhostが共有されていますが、環境によってはWSLのIPアドレスを利用する必要がある場合もあります。 -
サービスの自動起動
SystemdがWSLで有効になっていない場合は、手動でollama serveをバックグラウンド実行するなどの対策を検討してください。 -
モデルごとの起動時間
モデルによっては初回ロードが重いので、必要に応じてollama pullであらかじめダウンロードしておくとスムーズです。
以上の手順により、Windows上のWSL環境でOllamaを立ち上げ、curlからLLMモデルを呼び出すことが可能になります。