概要
- Ollama でローカルに GPT‑OSS 20B を稼働させ、
- Codex CLI を利用して LLM に指示を送る
- Tailscale で自宅の Mac mini を VPN で安全に公開
- iPhone や MBP からは Termius で SSH 接続し、ターミナルを通じてリアルタイムに Codex を操作
このセットアップにより、通勤・出張中でも「iPhone でターミナルを開くだけ」でちょっと思いついた作業なんかをリモートで指示してしまえます。
必要なもの
| アイテム | 役割 | 備考 |
|---|---|---|
| Mac mini (自宅) | LLM をホスト | 8GB RAM 以上の m系 推奨 |
| iPhone | クライアント | Termius, Tailscale を入れておく |
| Tailscale アカウント | VPN | 公式サイトで登録 |
| Ollama | モデル実行エンジン | ollama pull gpt-oss:20b |
| Codex CLI | LLM への対話 |
npm i -g @codex-cli/cli など |
1. Mac mini での準備
Ollama のインストール
GUI がある方が後でやるコンテキストサイズの設定が簡単です。公式サイトからアプリケーションをインストールしましょう。
GPT‑OSS 20B をダウンロード
ollama pull gpt-oss:20b
Ollama のコンテキストサイズを 32k に拡張
私は 64k にしました。
Codex CLI を起動
codex --oss -m gpt-oss:20b
tmux のインストール(任意)
これはお好みで。tmux を使えば SSH 切断後もセッションが残るので、移動中に切断しても作業を継続できます。
brew install tmux
Tailscale エージェントをインストール
公式サイトの手順に沿って mac mini の tailscale をセットアップしましょう。後で iPhone や MBP から ssh 接続するので、 ssh のセットアップも忘れずに。
2. iPhone での接続手順
iPhone 側は Tailscale のアプリを App Store からインストールしてログインすると、エージェントをインストールした Mac mini が見えるので、接続用の IP アドレス等をコピーしておきます。
後は Termius 等 ssh に対応したアプリを App Store からインストールし、Mac mini に接続します。MBP 等もほぼ同様の手順です。
これで外部から Mac mini 上の codex へ指示する準備が整いました。
3. なぜ 32k コンテキストが必要なのか
Ollama はデフォルトだと 4k しかコンテキストサイズがなく、Codex でそのまま使っても簡単な QA くらいはギリギリできますが、ツール等を使う指示を認識できずまともに動作しません。 「Ollama + Codex でツールを使わない!」という issue を github でよく見かけますが、多分大体これの設定をしてないんじゃないかな?と思います。
コンテキストサイズを増やす程メモリ消費量も増加しますので、端末のスペックが許すなら 64k などにしてもいいでしょう。
以上

