21
15

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

【Claude Code】Claude CodeがOllamaと連携できるようになったらしい

Last updated at Posted at 2026-01-18

はじめに

2026/1/18 に以下のようなツイートを見かけました。

Ollama(ローカルで LLM を実行するためのオープンソースツール)の v0.14.0 以降が Anthropic Messages API と互換になったため、GPT-OSS や Qwen3 などのモデルを Claude Code で使えるようになったとのことです。

この記事では、Ollama と Claude Code を連携させる方法を試してみましたので、その方法について共有いたします。

メリット

ローカル LLM を利用できると以下のようなメリットが考えられます。

メリット 説明
完全ローカル動作 API キー不要、インターネット接続不要
プライバシー コードや会話がクラウドに送信されない
コスト削減 API 利用料がかからない
Claude Code の使い勝手をそのまま 慣れたインターフェースで別モデルを試せる

前提条件

今回は以下のような環境で試してみました。

  • macOS
  • Claude Code がインストール済み
  • Ollama v0.14.0 以降

セットアップ手順

1. Ollama のインストール・バージョン確認

インストール方法は以下リンクをご参照ください。

また、インストールできたら以下コマンドで、v0.14.0 以降であることを確認します。

ollama --version

2. Ollama を起動

ollama serve

3. モデルをダウンロード

推奨モデルをダウンロードします。

# GPT-OSS 20B(約 13GB)- コード支援向け
ollama pull gpt-oss:20b

# Qwen3 Coder(約 8GB)- コーディング特化
ollama pull qwen3-coder

なお、以下コマンドでダウンロード済みのモデル一覧を確認することができます。

ollama list

4. Claude Code の起動

環境変数を設定して、使用するモデルを指定します。

基本コマンド

ANTHROPIC_AUTH_TOKEN=ollama ANTHROPIC_BASE_URL=http://localhost:11434 claude --model gpt-oss:20b

環境変数を分けて設定する場合

export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434
claude --model gpt-oss:20b

エイリアスを設定(おまけ)

毎回長いコマンドを打つのは面倒なので、シェルの設定ファイルにエイリアスを追加しておくと便利です。
(と、Claude Code にアドバイスいただきました)

# ~/.zshrc または ~/.bashrc に追加
alias claude-local='ANTHROPIC_AUTH_TOKEN=ollama ANTHROPIC_BASE_URL=http://localhost:11434 claude --model gpt-oss:20b'
# 設定を反映
source ~/.zshrc
# 以降は以下のコマンドで起動可能
claude-local

推奨モデル一覧

ローカルモデル

モデル サイズ 特徴
gpt-oss:20b 約 13GB コード支援全般
qwen3-coder 約 8GB コーディング特化

クラウドモデル

Ollama はクラウド上で動作するモデルも提供しています。ローカル環境のスペックに依存せず、常にフルコンテキスト長で動作するのが特徴です。

筆者は使っていませんが、無料でも多少使えるようです。

モデル 特徴
glm-4.7:cloud GLM 4.7 クラウド版
minimax-m2.1:cloud Minimax M2.1 クラウド版

注意点

  • ローカルモデルは Claude 本体と比較すると性能が劣る場合あり
  • GPU があると推論速度が大幅に向上
  • 初回起動時はモデルのロードに時間がかかる
  • 最低 64k トークン以上のコンテキスト長を持つモデルが推奨(詳細は以下ドキュメント参照)

実際に試してみる

最近ブログ執筆時には Claude Code にレビューしてもらっています。

この作業を実際にローカル LLM に実施してもらおうと思います。

Claude Opus 4.5

以下のような感じのレビューが 3 分程度で帰って来ました。
普段使いしているものなので、まあこんなものかといった感じです。

image.png

gpt-oss:20b

いきなりタスクを実施させる前に簡単なやりとりをしてみます。

image.png

シンプルなやり取りは問題なさそうです。ただ、多少レスポンスに時間がかかっている印象ではあります。(今回の例だと 30 秒以上かかっています)

次に、ブログレビューをしてもらいます。

image.png

が、スキルの利用許可を 3 回求められたまま 10 分近くが経過してしまいました...

意外に色々なタスクが指示されているからか難しいようです。(とっても PC が暖かくなったので色々頑張ってくれているんだろうなぁとは思います)

(おまけ)リソース使用状況

ちなみにリソースの使用状況は以下のとおりでした。(参考値:32GB メモリ環境)

項目 使用率 具体値
Ollama メモリ使用量 約 1.5% 約 500MB
Claude Code メモリ使用量 約 1.9% 約 624MB
合計メモリ使用量 約 3.4% 約 1.1GB
CPU 使用率(推論中) 13〜24% -

(おまけ その2)

この記事を修正していると、進捗がありました。(が、結局うまくいきませんでした...)

1 点気になったところとして、Claude Code からのメッセージが英語になっていますね。

image.png

ちょっと気になったので、どのくらいのことならできるのか直接聞いてみました。

スクリーンショット 2026-01-18 21.32.50.png

なるほど...
いい感じに役割分担できると面白そうとは思いますね。

まとめ

簡単ではありましたが、ローカル LLM で Claude Code を利用してみました。
モデルの性能次第では使えるような気もしています。

また面白い使い方が思いついたら試してみたいと思います。
ありがとうございました。

21
15
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
21
15

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?