はじめに
最近、以下のような生成AI開発ツールが注目されています。
- Codex
- Claude Code
- Cursor
- Windsurf
これらは非常に便利ですが、ほとんどが以下の課題があります。
- 有料プランが必要
- API料金が発生する
- 外部通信が前提
そこで今回は
完全無料・完全ローカルで動作する生成AI環境
をMacに構築してみました。
本記事では以下を解説します。
- Homebrewでのローカル生成AI環境構築
- Ollama + aichat 構成
- 実際に使ってみた感想
- Codex / Claude Code との比較
🧠 構築方針
今回の構成は以下のポリシーで構築しました。
- すべて Homebrew 管理
- Python環境を汚染しない
- Rust環境を汚染しない
- 削除は brew uninstall のみ
- 完全ローカル実行
📦 構成
今回の構成は以下です。
| 役割 | ツール |
|---|---|
| LLM実行基盤 | Ollama |
| CLIフロントエンド | aichat |
| モデル | qwen2.5:7b |
MacBook Air M4 (24GB) で動作確認しています。
1. Ollama インストール
まずはローカルLLM実行環境のOllamaをインストールします。
brew install ollama
バックグラウンド起動
brew services start ollama
動作確認
ollama --version
2. モデルダウンロード
MacBook Air M4 24GBでは7Bモデルが最もバランスが良いです。
ollama pull qwen2.5:7b
動作確認
ollama run qwen2.5:7b
終了
Ctrl + D
3. aichat インストール
CLIフロントエンドとしてaichatを使用します。
brew install aichat
確認
aichat --version
4. aichat 設定
設定ファイル作成
mkdir -p ~/.config/aichat
nano ~/.config/aichat/config.yaml
内容
model: ollama:qwen2.5:7b
5. 起動
aichat
これで以下が可能になります。
- 対話形式
- 履歴保持
- マルチライン入力
カスタマイズ
✨ Planモード追加
プランモードを追加します。
nano ~/.config/aichat/roles.yaml
planner:
system: |
あなたはソフトウェア設計AIです。
まず実装計画を提示してください。
ユーザーの承認後にのみコードを出力してください。
使用方法
aichat --role planner
🚀 Mac最適化
M4 MacはMetalにより自動最適化されます。
追加で以下を設定すると高速化される場合があります。
export OLLAMA_NUM_PARALLEL=4
.zshrc に追加
その他
💾 ディスク使用量
| 項目 | 容量 |
|---|---|
| qwen2.5:7b | 約4〜5GB |
| Ollama | 数百MB |
| aichat | 数十MB |
合計 約5GB
🔐 プライバシー
- 完全ローカル実行
- 外部通信なし
- オフライン動作可能
企業環境でも安心して利用できます。
🧹 完全削除方法
サービス停止
brew services stop ollama
削除
brew uninstall ollama
brew uninstall aichat
データ削除
rm -rf ~/.ollama
rm -rf ~/.config/aichat
🎯 実際に使ってみた感想
今回、無料で使えるローカルエージェントとして
- Codex
- Claude Code
の代替を期待して導入しました。
しかし、結論としては
現時点では代替にはならない
という印象でした。
🤖 モデル性能の問題
qwen2.5:7b は軽量で高速ですが
以下の問題を感じました。
- コード生成精度が低い
- 長い文脈が苦手
- 設計能力が弱い
クラウドモデルと比較すると
- GPT-4
- Claude 3
との差はかなり大きいと感じました。
🧠 エージェント機能の不足
Codex / Claude Code と比較すると以下が不足しています。
- Planモードの精度
- Skills機能
- ツール呼び出し
つまり
単なるチャットAIに近い
という印象でした。
👍 良かった点
とはいえメリットもあります。
- 完全無料
- オフライン
- プライバシー安全
- 高速レスポンス
軽い補助用途としては十分使えます。
まとめ
ローカル生成AI環境は以下の用途に向いています。
- 軽い質問
- 補助的なコード生成
- オフライン用途
しかし
- Codex
- Claude Code
の代替としてはまだ厳しい印象でした。
今後のローカルモデルの進化に期待したいと思います。
おわりに
無料で生成AI環境を構築したい方には
一度試してみる価値はあります。
ただし、過度な期待はしない方が良いです。
今後、より強力なローカルモデルが出てきたらまた検証したいと思います。