M4 MacBook AirでローカルAIコーディング環境構築ガイド
※ AIに作成を依頼した記事です。概ね動作を確認してますが、一部未確認です。
概要
M4 MacBook Air(16GB RAM、10コアCPU、10コアGPU)で、無償のローカルAIを使用したコーディング支援環境を構築する手順です。
推奨構成
- メインモデル: Qwen2.5-Coder 14B Instruct(複雑なタスク用)
- サブモデル: Qwen2.5-Coder 7B(高速タスク用)
- 実行環境: Ollama
- エディタ連携: VS Code + Continue.dev
コスト
- 使用制限なし
- インターネット接続不要(セットアップ後)
セットアップ手順
1. Ollamaのインストール
# Homebrewでインストール
brew install ollama
# インストール確認
ollama --version
2. Ollamaサービスの起動
# Homebrewサービスとして起動(推奨)
brew services start ollama
# サービス起動確認
ollama list
# または
curl http://localhost:11434
注意: ollama server not responding
エラーが出る場合は、このステップを忘れている可能性があります。
3. AIモデルのダウンロード
# メインモデル(約8GB、10-15分程度)
ollama pull qwen2.5-coder:14b-instruct
# サブモデル(約4GB、5-10分程度)
ollama pull qwen2.5-coder:7b
# ダウンロード確認
ollama list
ダウンロード時の表示例:
$ ollama pull qwen2.5-coder:14b-instruct
pulling manifest
pulling 8a8b8b8b8b8b... 100% ▕████████████████▏ 8.0 GB
pulling 2a2b2b2b2b2b... 100% ▕████████████████▏ 1.2 GB
pulling c3c4c4c4c4c4... 100% ▕████████████████▏ 486 MB
verifying sha256 digest
writing manifest
success
4. モデル動作確認
# 14Bモデルのテスト
ollama run qwen2.5-coder:14b-instruct
# チャットでテスト(例)
>>> Pythonでファイル読み込み関数を作って
# 応答を確認後、/bye で終了
# 7Bモデルのテスト
ollama run qwen2.5-coder:7b
>>> 簡単なJavaScript関数を作って
# 応答を確認後、/bye で終了
5. VS Code拡張機能のインストール
- VS Codeを開く
- 拡張機能タブ(Cmd+Shift+X)
- "Continue" で検索
- Continue - open-source AI code assistant をインストール
6. Continue.devの設定
VS Code内でのGUI設定(推奨方法)
- VS CodeでContinueのサイドバーアイコンをクリック
- チャット画面右上の歯車アイコン(⚙️)をクリック
- GUI設定画面が開いたら、以下の手順でモデルを追加:
Ollamaプロバイダーの設定:
-
Provider:
ollama
を選択 -
Install Provider:
https://ollama.ai/download
-
Model:
qwen2.5-coder:7b
を入力 - Connect ボタンをクリック
-
config.yaml
ファイルが自動的に開かれます
config.yamlの設定
自動生成された config.yaml
を以下の内容に修正:
name: Local Assistant
version: 1.0.0
schema: v1
models:
- name: Qwen2.5-Coder 14B
provider: ollama
model: qwen2.5-coder:14b-instruct
roles:
- chat
- edit
- apply
- name: Qwen2.5-Coder 7B
provider: ollama
model: qwen2.5-coder:7b
roles:
- chat
- edit
- apply
- autocomplete
- name: Nomic Embed
provider: ollama
model: nomic-embed-text:latest
roles:
- embed
context:
- provider: code
- provider: docs
- provider: diff
- provider: terminal
- provider: problems
- provider: folder
- provider: codebase
追加モデルのダウンロード(オプション)
# 埋め込み用モデル(推奨)
ollama pull nomic-embed-text:latest
設定の保存と反映
-
config.yaml
を Cmd+S で保存 - VS Codeを完全に再起動
7. VS Codeでの動作確認
- VS Codeを再起動
- 適当なファイルを開く(例:test.py)
- Continue拡張のアイコンがサイドバーに表示されることを確認
- チャット機能とモデル選択をテスト:
- Continueチャット画面でモデル選択ドロップダウンを確認
- "Qwen2.5-Coder 14B" と "Qwen2.5-Coder 7B" が表示されることを確認
使用方法
チャット形式での質問
1. Cmd+Shift+P → "Continue: Open Chat"
2. サイドバーでAIとチャット
例:
「Reactでログイン画面のコンポーネントを作って」
「このAPIのエラーハンドリングを改善して」
コード選択して質問
1. コードを選択
2. 右クリック → "Continue: Ask about this code"
3. 質問を入力
例:
「このコードをTypeScriptに変換して」
「パフォーマンスを改善する方法は?」
「単体テストを作って」
インライン編集
1. コードを選択
2. Cmd+I
3. 指示を入力
例:
「エラーハンドリングを追加」
「async/awaitに変更」
「詳細なコメントを追加」
オートコンプリート
// 関数名を入力すると自動補完
function calculateTax
// → Tab で補完を受け入れ
// 日本語コメントでも動作
// ユーザー認証を行う関数
// → 認証関数の実装を提案
キーボードショートカット
ショートカット | 機能 |
---|---|
Cmd+I |
インライン編集 |
Cmd+Shift+I |
チャットパネル表示 |
Tab |
オートコンプリート受け入れ |
Esc |
提案をキャンセル |
実用例
新機能開発
// チャットで質問
「Next.js 14でJWT認証システムを実装して。
ログイン、ログアウト、保護されたルートを含めて」
バグ修正
// エラーコードを選択してCmd+I
「このTypeErrorの原因と修正方法を教えて:
Cannot read property 'length' of undefined」
リファクタリング
# 既存コードを選択して
「このコードをより効率的で読みやすくリファクタリングして」
テスト作成
// 関数を選択して
「この関数の包括的なJestテストケースを作成して」
パフォーマンス最適化
モデル使い分け
- 14Bモデル: 複雑な設計・大規模リファクタリング
- 7Bモデル: 簡単な修正・オートコンプリート
メモリ使用量
- 14B使用時: 約10-12GB
- 7B使用時: 約6-8GB
- 推論速度: 14Bで15-25 tokens/秒、7Bで30-50 tokens/秒
トラブルシューティング
Ollamaサービス関連
ollama server not responding
エラー
# サービス状態確認
brew services list | grep ollama
# サービス再起動
brew services restart ollama
# 手動起動(デバッグ用)
ollama serve
ポート競合
# ポート11434が使用されているか確認
lsof -i :11434
# Ollamaプロセス確認
ps aux | grep ollama
# 完全リセット
brew services stop ollama
brew services start ollama
モデルが起動しない
# Ollamaサービス確認
ollama ps
# 利用可能モデル確認
ollama list
# メモリ不足の場合、軽量モデルに切り替え
ollama run qwen2.5-coder:7b
パーミッション関連
# Homebrewの権限修正
sudo chown -R $(whoami) /opt/homebrew/
# Ollamaディレクトリの権限確認
ls -la ~/.ollama/
# 権限問題がある場合
sudo chmod -R 755 ~/.ollama/
VS Codeで認識されない
- VS Codeを完全に再起動
- Continue拡張を無効化→有効化
-
config.yaml
の YAML 構文をチェック - GUI設定画面から再度設定を行う
メモリ不足エラー
# 軽量モデルに切り替え
ollama run qwen2.5-coder:7b
# または量子化レベルを下げる
ollama pull qwen2.5-coder:7b-q4_k_m
アップデート方法
# Ollamaアップデート
brew upgrade ollama
# モデルアップデート
ollama pull qwen2.5-coder:14b-instruct
ollama pull qwen2.5-coder:7b
# 古いモデル削除(必要に応じて)
ollama rm qwen2.5-coder:14b-instruct:old
参考情報
これで、完全無償でローカル実行可能な高性能AIコーディング環境が完成します。クラウドAIと同等以上の性能を、プライバシーを保ちながら制限なく利用できます。