2
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Macで完全ローカル生成AI環境を構築してみた(Ollama + aichat)

2
Last updated at Posted at 2026-04-21

はじめに

最近、以下のような生成AI開発ツールが注目されています。

  • Codex
  • Claude Code
  • Cursor
  • Windsurf

これらは非常に便利ですが、ほとんどが以下の課題があります。

  • 有料プランが必要
  • API料金が発生する
  • 外部通信が前提

そこで今回は
完全無料・完全ローカルで動作する生成AI環境
をMacに構築してみました。

本記事では以下を解説します。

  • Homebrewでのローカル生成AI環境構築
  • Ollama + aichat 構成
  • 実際に使ってみた感想
  • Codex / Claude Code との比較

🧠 構築方針

今回の構成は以下のポリシーで構築しました。

  • すべて Homebrew 管理
  • Python環境を汚染しない
  • Rust環境を汚染しない
  • 削除は brew uninstall のみ
  • 完全ローカル実行

📦 構成

今回の構成は以下です。

役割 ツール
LLM実行基盤 Ollama
CLIフロントエンド aichat
モデル qwen2.5:7b

MacBook Air M4 (24GB) で動作確認しています。

1. Ollama インストール

まずはローカルLLM実行環境のOllamaをインストールします。

brew install ollama

バックグラウンド起動

brew services start ollama

動作確認

ollama --version

2. モデルダウンロード

MacBook Air M4 24GBでは7Bモデルが最もバランスが良いです。

ollama pull qwen2.5:7b

動作確認

ollama run qwen2.5:7b

終了

Ctrl + D

3. aichat インストール

CLIフロントエンドとしてaichatを使用します。

brew install aichat

確認

aichat --version

4. aichat 設定

設定ファイル作成

mkdir -p ~/.config/aichat
nano ~/.config/aichat/config.yaml

内容

model: ollama:qwen2.5:7b

5. 起動

aichat

これで以下が可能になります。

  • 対話形式
  • 履歴保持
  • マルチライン入力

カスタマイズ

✨ Planモード追加

プランモードを追加します。

nano ~/.config/aichat/roles.yaml
planner:
  system: |
    あなたはソフトウェア設計AIです。
    まず実装計画を提示してください。
    ユーザーの承認後にのみコードを出力してください。

使用方法

aichat --role planner

🚀 Mac最適化

M4 MacはMetalにより自動最適化されます。

追加で以下を設定すると高速化される場合があります。

export OLLAMA_NUM_PARALLEL=4

.zshrc に追加

その他

💾 ディスク使用量

項目 容量
qwen2.5:7b 約4〜5GB
Ollama 数百MB
aichat 数十MB

合計 約5GB

🔐 プライバシー

  • 完全ローカル実行
  • 外部通信なし
  • オフライン動作可能

企業環境でも安心して利用できます。

🧹 完全削除方法

サービス停止

brew services stop ollama

削除

brew uninstall ollama
brew uninstall aichat

データ削除

rm -rf ~/.ollama
rm -rf ~/.config/aichat

🎯 実際に使ってみた感想

今回、無料で使えるローカルエージェントとして

  • Codex
  • Claude Code

の代替を期待して導入しました。

しかし、結論としては

現時点では代替にはならない

という印象でした。

🤖 モデル性能の問題

qwen2.5:7b は軽量で高速ですが

以下の問題を感じました。

  • コード生成精度が低い
  • 長い文脈が苦手
  • 設計能力が弱い

クラウドモデルと比較すると

  • GPT-4
  • Claude 3

との差はかなり大きいと感じました。

🧠 エージェント機能の不足

Codex / Claude Code と比較すると以下が不足しています。

  • Planモードの精度
  • Skills機能
  • ツール呼び出し

つまり

単なるチャットAIに近い

という印象でした。

👍 良かった点

とはいえメリットもあります。

  • 完全無料
  • オフライン
  • プライバシー安全
  • 高速レスポンス

軽い補助用途としては十分使えます。

まとめ

ローカル生成AI環境は以下の用途に向いています。

  • 軽い質問
  • 補助的なコード生成
  • オフライン用途

しかし

  • Codex
  • Claude Code

の代替としてはまだ厳しい印象でした。
今後のローカルモデルの進化に期待したいと思います。

おわりに

無料で生成AI環境を構築したい方には
一度試してみる価値はあります。
ただし、過度な期待はしない方が良いです。
今後、より強力なローカルモデルが出てきたらまた検証したいと思います。

2
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?