1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Claude Code &Ollamaでローカルバイブコーディング

1
Posted at

OllamaがAnthropic APIに対応したらしい

これまでClaude CodeをクラウドのLLMを使うか、何らかの手段でバイパスしてローカルLLMに繋げるしか無かったのが、Ollama Version 0.14から簡単な設定をするだけでClaude CodeでローカルLLMを使うことができる。

1.Ollamaのインストールもしくはアップデート

インストールもアップデートも同じコマンドを実行

$ curl -fsSL https://ollama.com/install.sh | sh

インストール時は常駐化コマンドを実行

$ ollama servce

アップデート時は前のバージョンを停止して再起動

$ sudo systemctl restart ollama.service

適宜モデルをダウンロード(VRAMが14GB以上必要、それ以外は適宜モデルを選択)

$ ollama run gpt-oss:20b

以下、おまじない(コンテキストの拡大)

>>> /set parameter num_ctx 64000
>>> /save gpt-oss-64k:20b
>>> /bye

2.Claude Codeのインストール

$ npm install -g @anthropic-ai/claude-code

もしくは(Ollamaのサイトではこっちを推奨)

$ curl FsSL https://claude.ai/install.sh | bash

3.設定

Claude CodeにOllamaを使う時のキーやアドレスを渡す設定を追加
.bashrcに以下を追加

export ANTHROPIC_API_KEY="ollama"
export ANTHROPIC_BASE_URL=http://localhost:11434
export ANTHROPIC_AUTH_TOKEN="ollama"

環境変数を更新

 $source .bashrc

4.実行

$ claude --mode gpt-oss-64k:20b

後は設定を煮詰めるなり、何なりと。

使ってみて

今までローカルLLMとバイブコーディングの組み合わせはOllama&Codexを使っていた。
これで選択肢が増えた。

Codexと比較すると若干、生成速いような気がする(測ってないので気のせいレベルかも

CLAUDE.mdもネットに腐るほど設定例が有るし。

CodexとClaude Codeではネット情報でも書籍の数でも圧倒的な差が有る。
qiitaで検索してもCodexは1200件、Claude Codeは6000件(適当調べ)
書籍もCodexの日本語書籍は皆無(Amazon kindle自家製本は除く)
Claude Codeは2冊(Claude CodeによるAI駆動開発入門 と 実践Claude Code入門)

Software Design 2025年11月号ではCodexはスルーされたし(苦笑

1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?