3
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Claude CodeをローカルLLM(Ollama)で動かす

3
Last updated at Posted at 2026-03-22

はじめに

Anthropicが提供するAIエージェント Claude Code は、Ollama を介してローカルLLMで動作させることが可能です。
本記事では、公式ドキュメント (Link) に基づいた基本的な起動方法を紹介します。

実行環境

今回使用した自前のサーバーの構成は以下の通りです。

  • OS: Linux (Ubuntu Server)
  • GPU: NVIDIA GeForce RTX 5060 Ti (16GB)

GPUメモリが16GBあるため、8Bクラスのモデルを余裕を持って動かせる構成です。

準備

Ollama インストール

サーバーにOllamaをインストールします。

curl -fsSL https://ollama.com/install.sh | sh

Claude Codeインストール

Claude Codeをインストールします。Node.jsが必要です。

npm install -g @anthropic-ai/claude-code

正しくインストールされたか確認します。

claude --version

Ollama経由でClaude Codeを起動

起動

もっともシンプルな起動方法です。

ollama launch claude

モデル選択

コマンドを実行すると、対話形式でモデルの選択が始まり、Claude Codeが起動します。

  • 初回実行時にはモデルのダウンロードが行われます。
  • おすすめ:
    今回の検証では qwen3:8b を使用しました。安定して動作します
  • 注意点:
    Llama 3.1 などのモデルでは、プロンプトの解釈やエージェントとしての挙動がうまく動かないケースがあるため、まずは推奨されるモデルから試すのがスムーズです。

実行

起動後画面、モデル選択でダウンロードしたqwen3:8bが使われています。
スクリーンショット 2026-03-22 165626.png

追記

ちなみにClaude Codeの起動は、以下のようにclaudeコマンドを直接たたいてもできます。

ANTHROPIC_AUTH_TOKEN=ollama \\
ANTHROPIC_API_KEY="" \\
ANTHROPIC_BASE_URL=http://localhost:11434 \\
claude --model qwen3:8b
環境変数の解説
変数名 設定値 意味
ANTHROPIC_AUTH_TOKEN ollama Ollama経由であることを明示
ANTHROPIC_API_KEY "" (空) ローカル実行のためAPIキーは不要
ANTHROPIC_BASE_URL http://localhost:11434 Ollamaが稼働しているポートを指定

リモートでの起動方法

同一WifiあるいはVPN上にあるPCのClaude Codeから、自前サーバーのLocal LLM qwen3:8b を使用することもできます。

サーバーで外部からの接続許可設定

デフォルトではOllamaは localhost からの接続しか受け付けません。別PCからアクセスする場合、環境変数を設定して外部接続を許可する必要があります。

設定ファイルを編集(または作成)

sudo systemctl edit ollama.service

設定内容を追記

Service
Environment="OLLAMA_HOST=0.0.0.0"

設定を反映して再起動

sudo systemctl daemon-reload
sudo systemctl restart ollama

クライアントPCでの設定

claudeコマンドをインストールします。

以下コマンドでサーバーのLocal LLM qwen3:8b に接続できます。

ANTHROPIC_AUTH_TOKEN=ollama \\
ANTHROPIC_API_KEY="" \\
ANTHROPIC_BASE_URL=http://<SERVER_IP>:11434 \\
claude --model qwen3:8b

ANTHROPIC_BASE_URLにはサーバーのIPアドレスを指定してください。

MCPサーバーの連携について

~/.mcp.jsonを起動時に自動で認識するので、Local LLMでもClaude Code経由でMCPサーバーを使用できます。

まとめ

Claude CodeをローカルLLMで動かすことで、機密性の高いコードを外部に出さず、かつトークンコストを気にせずエージェント機能を活用できます。

RTX 5060 Ti(16GB)程度のスペックがあれば、8Bクラスのモデルは非常に快適に動作します。

3
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
3
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?