ローカルgpt‑oss:120bでCodex IDE extensionを動かす!!
こんにちは 色違いモノです。
コーディングエージェントってすごいですよね
私もエージェントに仕事を放り投げて遊んで暮らしたい……
でも貧乏性の私はたったの 3000円/月 であっても、
毎月払わないといけないお金があると不安になってしまいます。
そこで!
ローカルで走る大規模言語モデル gpt‑oss:120b で
Codex の IDE 拡張機能を使えば、サブスク費用なしでコーディングエージェント使い放題やん!!
というわけでEVO-X2を購入しました。
ちなみにEVO-X2の価格は、約30万円なので、10年使えばもとが取れますね(白目)
とまあ冗談はさておき、自分的に詰まった点をメモとして残しておきます。
忙しい人のために要約
-
config.tomlにローカルLLMの情報を書くだけでいけた - web検索がうまく行かず、MCPを別途導入した
事前知識
Codex IDE extension とは?
VSCode内から直接 LLM に問い合わせてコード生成やバグ修正などができる拡張機能です。
CodexCLIにVSCodeのUIから直接アクセスできるイメージです。
ローカル gpt‑oss:120b とは?
gpt-oss:120b はオープンソースの大規模言語モデルで、
OllamaやLMStudio、llama.cppなどを使って、ローカルで完結して動かせます。
が、70GB程度のVRAMがないと快適には動きません。
設定方法1:config.toml にローカルモデルを登録
手順 1 – ~/.codex/config.toml を開く
vi ~/.codex/config.toml
エディタはなんでもいいです。
なければ作る必要があります。
手順 2 – モデルプロバイダーとプロファイルを書き込む
profile = "gptoss-local"
model = "gpt-oss:120b"
network_access = true
[model_providers.llama-server]
name = "llama-server"
base_url = "http://localhost:10000/v1"
[profiles.gptoss-local]
model = "gpt-oss:120b"
model_provider = "llama-server"
[tools]
web_search = true
[mcp_servers.websearch]
command = "node"
args = ["/home/user/mcp-servers/web-search-mcp/dist/index.js"]
-
profileはデフォルトで使う設定名です。 -
base_urlはローカルサーバーが待ち受けるエンドポイント。 -
[mcp_servers.websearch]セクションはweb検索用のMCPの設定です。
[mcp_servers.websearch]セクションについての補足
なぜかエージェントがweb検索を実行してくれなかったので、
別途web検索MCPを導入し、その設定を追記しました。
web検索MCPは mrkrsl/web-search-mcp を使用させていただきました。
手順 3 - VSCode に「Codex – OpenAI’s coding agent」を導入
ここはVSCodeの拡張機能から検索してインストールするだけなので割愛します。
まとめ
これでローカルのLLMを使って Codex IDE extension が利用可能です。
設定ファイルを書いて立ち上げるだけで、VSCode 上からコーディングエージェントが使い放題です!
肝心のローカルLLMを動作させる方法についてはいつか気が向いたら……