はじめに
Anthropicが提供するAIエージェント Claude Code は、Ollama を介してローカルLLMで動作させることが可能です。
本記事では、公式ドキュメント (Link) に基づいた基本的な起動方法を紹介します。
実行環境
今回使用した自前のサーバーの構成は以下の通りです。
- OS: Linux (Ubuntu Server)
- GPU: NVIDIA GeForce RTX 5060 Ti (16GB)
GPUメモリが16GBあるため、8Bクラスのモデルを余裕を持って動かせる構成です。
準備
Ollama インストール
サーバーにOllamaをインストールします。
curl -fsSL https://ollama.com/install.sh | sh
Claude Codeインストール
Claude Codeをインストールします。Node.jsが必要です。
npm install -g @anthropic-ai/claude-code
正しくインストールされたか確認します。
claude --version
Ollama経由でClaude Codeを起動
起動
もっともシンプルな起動方法です。
ollama launch claude
モデル選択
コマンドを実行すると、対話形式でモデルの選択が始まり、Claude Codeが起動します。
- 初回実行時にはモデルのダウンロードが行われます。
-
おすすめ:
今回の検証ではqwen3:8bを使用しました。安定して動作します -
注意点:
Llama 3.1 などのモデルでは、プロンプトの解釈やエージェントとしての挙動がうまく動かないケースがあるため、まずは推奨されるモデルから試すのがスムーズです。
実行
起動後画面、モデル選択でダウンロードしたqwen3:8bが使われています。

追記
ちなみにClaude Codeの起動は、以下のようにclaudeコマンドを直接たたいてもできます。
ANTHROPIC_AUTH_TOKEN=ollama \\
ANTHROPIC_API_KEY="" \\
ANTHROPIC_BASE_URL=http://localhost:11434 \\
claude --model qwen3:8b
環境変数の解説
| 変数名 | 設定値 | 意味 |
|---|---|---|
| ANTHROPIC_AUTH_TOKEN | ollama | Ollama経由であることを明示 |
| ANTHROPIC_API_KEY | "" (空) | ローカル実行のためAPIキーは不要 |
| ANTHROPIC_BASE_URL | http://localhost:11434 | Ollamaが稼働しているポートを指定 |
リモートでの起動方法
同一WifiあるいはVPN上にあるPCのClaude Codeから、自前サーバーのLocal LLM qwen3:8b を使用することもできます。
サーバーで外部からの接続許可設定
デフォルトではOllamaは localhost からの接続しか受け付けません。別PCからアクセスする場合、環境変数を設定して外部接続を許可する必要があります。
設定ファイルを編集(または作成)
sudo systemctl edit ollama.service
設定内容を追記
Service
Environment="OLLAMA_HOST=0.0.0.0"
設定を反映して再起動
sudo systemctl daemon-reload
sudo systemctl restart ollama
クライアントPCでの設定
claudeコマンドをインストールします。
以下コマンドでサーバーのLocal LLM qwen3:8b に接続できます。
ANTHROPIC_AUTH_TOKEN=ollama \\
ANTHROPIC_API_KEY="" \\
ANTHROPIC_BASE_URL=http://<SERVER_IP>:11434 \\
claude --model qwen3:8b
ANTHROPIC_BASE_URLにはサーバーのIPアドレスを指定してください。
MCPサーバーの連携について
~/.mcp.jsonを起動時に自動で認識するので、Local LLMでもClaude Code経由でMCPサーバーを使用できます。
まとめ
Claude CodeをローカルLLMで動かすことで、機密性の高いコードを外部に出さず、かつトークンコストを気にせずエージェント機能を活用できます。
RTX 5060 Ti(16GB)程度のスペックがあれば、8Bクラスのモデルは非常に快適に動作します。