OllamaがAnthropic APIに対応したらしい
これまでClaude CodeをクラウドのLLMを使うか、何らかの手段でバイパスしてローカルLLMに繋げるしか無かったのが、Ollama Version 0.14から簡単な設定をするだけでClaude CodeでローカルLLMを使うことができる。
1.Ollamaのインストールもしくはアップデート
インストールもアップデートも同じコマンドを実行
$ curl -fsSL https://ollama.com/install.sh | sh
インストール時は常駐化コマンドを実行
$ ollama servce
アップデート時は前のバージョンを停止して再起動
$ sudo systemctl restart ollama.service
適宜モデルをダウンロード(VRAMが14GB以上必要、それ以外は適宜モデルを選択)
$ ollama run gpt-oss:20b
以下、おまじない(コンテキストの拡大)
>>> /set parameter num_ctx 64000
>>> /save gpt-oss-64k:20b
>>> /bye
2.Claude Codeのインストール
$ npm install -g @anthropic-ai/claude-code
もしくは(Ollamaのサイトではこっちを推奨)
$ curl FsSL https://claude.ai/install.sh | bash
3.設定
Claude CodeにOllamaを使う時のキーやアドレスを渡す設定を追加
.bashrcに以下を追加
export ANTHROPIC_API_KEY="ollama"
export ANTHROPIC_BASE_URL=http://localhost:11434
export ANTHROPIC_AUTH_TOKEN="ollama"
環境変数を更新
$source .bashrc
4.実行
$ claude --mode gpt-oss-64k:20b
後は設定を煮詰めるなり、何なりと。
使ってみて
今までローカルLLMとバイブコーディングの組み合わせはOllama&Codexを使っていた。
これで選択肢が増えた。
Codexと比較すると若干、生成速いような気がする(測ってないので気のせいレベルかも
CLAUDE.mdもネットに腐るほど設定例が有るし。
CodexとClaude Codeではネット情報でも書籍の数でも圧倒的な差が有る。
qiitaで検索してもCodexは1200件、Claude Codeは6000件(適当調べ)
書籍もCodexの日本語書籍は皆無(Amazon kindle自家製本は除く)
Claude Codeは2冊(Claude CodeによるAI駆動開発入門 と 実践Claude Code入門)
Software Design 2025年11月号ではCodexはスルーされたし(苦笑