はじめに
これまで主力はCursorのmodelで作業を進めてきましたが、Claude Codeが良さそうなので乗り換えるが、その際ローカルLLMをうまく使って、なるべく安くすまそう、という話です。
自分はWordPressを主軸にしたフロントエンド作業中心なので、がっつりシステム開発などをされていらっしゃる場合には参考にならないかと思います。
Claude Code
Claude Codeはとてもいい!
雑に「この機能実装して」と投げても、
設計から実装までいい感じにまとめてくれる。
ただトークン制限の心配がある。
ローカルLLM
単純に「ローカルLLMに置き換えればいい」という発想はクラウドのLLMとの規模感を見るとあり得ない。
正直なところ、ちょっと使うにもイマイチ信用できるかどうか不安があった。
・本当に実務レベルで使えるのか
・結局ストレスが増えるだけではないか
・モデルを増やすほど管理が面倒になるのではないか
・中途半端に複雑な構成にならないか
つまり、「コストは下げたいが、快適さは落としたくない」という状態。
方針
Claudeを主軸にしつつ、負担を分散する構成で、なるべく作業中にAgent選別などの操作を省きたい。
プロンプト工夫などにリソースを割くことは最小限で目的に到達したい。
試した構成
以下の組み合わせを実際に動かして検証している。
・Claude Code
・Cursor(Composer 2)
・Ollama(ローカルLLM)
・Continue(VSCode拡張)
ローカルLLMの選定
以前、別記事でもご紹介した通り、今回もいくつか試したが、現時点では以下に落ち着いた。
ollama pull deepseek-coder-v2
ollama pull qwen2.5:14b
各モデルの役割(暫定)
DeepSeek Coder V2
・コード生成と修正が強いっぽい
・思ったより軽く動く(m2mac mini 16GBにて)
cursorのAuto固定より実装の主力として使えそうな感じ。
Qwen2.5 14B
・7Bより思考力が高いはず
・設計(Plan)用途で使えるという話
Claudeの代替として使えるかを検証中。
Continueの設定
name: Local Config
version: 1.0.0
schema: v1
models:
- name: DeepSeek Coder V2
provider: ollama
model: deepseek-coder-v2
roles:
- chat
- edit
- apply
- name: Qwen2.5 14B
provider: ollama
model: qwen2.5:14b
roles:
- chat
Cursor(Composer 2)の位置づけ
VScodeをContinueでlocal model用IDEにしつつ、claude codeにすればもうCursorいらないんじゃないか?ともおもったが、cursorでもcontinueは普通に使えたので、せっかくcursorにcomposer2も入ったことだし、local modelの呼び出しはcursor+continueでいけそう。
モードの理解
・Ask → 相談のみ
・Plan → 設計のみ
・Agent → 実装
ローカルLLMを使う場合は
Plan → Agent
の順を守るとかなり安定するという、GPTの話を検証してみようと思う。
実際の運用(試行中)
現時点で試しているフロー。
-
Plan(設計)
→ Qwen 14B -
実装
→ DeepSeek -
tokenに余裕がありそうな時は最初からClaude Codeに投げる。
現時点の評価
・DeepSeekは想定より使える
・Qwen 14Bは設計用途で有効らしい
・Claudeはやはりいい!
気づき
ローカルLLMは弱いというより、前提を与えないと弱いということらしい。
Claudeのように雑に投げて成立するタイプではないだろうなぁ・・。
現時点の結論(暫定)
・Claude Codeをここぞというところでつかう。
・ローカルLLMとGemini Cliで今までのCursorの代わりにする。(というかこれだけでも結構使える気がする。)
今後の検証ポイント
・Qwen 14BでどこまでClaudeを減らせるか
・DeepSeek単体でどこまで実装できるか
・Gemini cli検証
まとめ
今はまだ「最適解」ではなく、「コストと快適さのバランスを探っている段階」
同じように迷っている人の参考になれば嬉しいです。