0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

ローカルAIコーディング環境作成-Qwen、Ollama、Continue

Posted at

M4 MacBook AirでローカルAIコーディング環境構築ガイド

※ AIに作成を依頼した記事です。概ね動作を確認してますが、一部未確認です。

概要

M4 MacBook Air(16GB RAM、10コアCPU、10コアGPU)で、無償のローカルAIを使用したコーディング支援環境を構築する手順です。

推奨構成

  • メインモデル: Qwen2.5-Coder 14B Instruct(複雑なタスク用)
  • サブモデル: Qwen2.5-Coder 7B(高速タスク用)
  • 実行環境: Ollama
  • エディタ連携: VS Code + Continue.dev

コスト

  • 使用制限なし
  • インターネット接続不要(セットアップ後)

セットアップ手順

1. Ollamaのインストール

# Homebrewでインストール
brew install ollama

# インストール確認
ollama --version

2. Ollamaサービスの起動

# Homebrewサービスとして起動(推奨)
brew services start ollama

# サービス起動確認
ollama list
# または
curl http://localhost:11434

注意: ollama server not responding エラーが出る場合は、このステップを忘れている可能性があります。

3. AIモデルのダウンロード

# メインモデル(約8GB、10-15分程度)
ollama pull qwen2.5-coder:14b-instruct

# サブモデル(約4GB、5-10分程度)
ollama pull qwen2.5-coder:7b

# ダウンロード確認
ollama list

ダウンロード時の表示例:

$ ollama pull qwen2.5-coder:14b-instruct
pulling manifest 
pulling 8a8b8b8b8b8b... 100% ▕████████████████▏ 8.0 GB
pulling 2a2b2b2b2b2b... 100% ▕████████████████▏ 1.2 GB
pulling c3c4c4c4c4c4... 100% ▕████████████████▏ 486 MB
verifying sha256 digest 
writing manifest 
success

4. モデル動作確認

# 14Bモデルのテスト
ollama run qwen2.5-coder:14b-instruct

# チャットでテスト(例)
>>> Pythonでファイル読み込み関数を作って
# 応答を確認後、/bye で終了

# 7Bモデルのテスト
ollama run qwen2.5-coder:7b
>>> 簡単なJavaScript関数を作って
# 応答を確認後、/bye で終了

5. VS Code拡張機能のインストール

  1. VS Codeを開く
  2. 拡張機能タブ(Cmd+Shift+X)
  3. "Continue" で検索
  4. Continue - open-source AI code assistant をインストール

6. Continue.devの設定

VS Code内でのGUI設定(推奨方法)

  1. VS CodeでContinueのサイドバーアイコンをクリック
  2. チャット画面右上の歯車アイコン(⚙️)をクリック
  3. GUI設定画面が開いたら、以下の手順でモデルを追加:

Ollamaプロバイダーの設定:

  • Provider: ollama を選択
  • Install Provider: https://ollama.ai/download
  • Model: qwen2.5-coder:7b を入力
  • Connect ボタンをクリック
  1. config.yaml ファイルが自動的に開かれます

config.yamlの設定

自動生成された config.yaml を以下の内容に修正:

name: Local Assistant
version: 1.0.0
schema: v1
models:
  - name: Qwen2.5-Coder 14B
    provider: ollama
    model: qwen2.5-coder:14b-instruct
    roles:
      - chat
      - edit
      - apply
  - name: Qwen2.5-Coder 7B
    provider: ollama
    model: qwen2.5-coder:7b
    roles:
      - chat
      - edit
      - apply
      - autocomplete
  - name: Nomic Embed
    provider: ollama
    model: nomic-embed-text:latest
    roles:
      - embed
context:
  - provider: code
  - provider: docs
  - provider: diff
  - provider: terminal
  - provider: problems
  - provider: folder
  - provider: codebase

追加モデルのダウンロード(オプション)

# 埋め込み用モデル(推奨)
ollama pull nomic-embed-text:latest

設定の保存と反映

  1. config.yamlCmd+S で保存
  2. VS Codeを完全に再起動

7. VS Codeでの動作確認

  1. VS Codeを再起動
  2. 適当なファイルを開く(例:test.py)
  3. Continue拡張のアイコンがサイドバーに表示されることを確認
  4. チャット機能とモデル選択をテスト:
    • Continueチャット画面でモデル選択ドロップダウンを確認
    • "Qwen2.5-Coder 14B" と "Qwen2.5-Coder 7B" が表示されることを確認

使用方法

チャット形式での質問

1. Cmd+Shift+P → "Continue: Open Chat"
2. サイドバーでAIとチャット

例:
「Reactでログイン画面のコンポーネントを作って」
「このAPIのエラーハンドリングを改善して」

コード選択して質問

1. コードを選択
2. 右クリック → "Continue: Ask about this code"
3. 質問を入力

例:
「このコードをTypeScriptに変換して」
「パフォーマンスを改善する方法は?」
「単体テストを作って」

インライン編集

1. コードを選択
2. Cmd+I
3. 指示を入力

例:
「エラーハンドリングを追加」
「async/awaitに変更」
「詳細なコメントを追加」

オートコンプリート

// 関数名を入力すると自動補完
function calculateTax
// → Tab で補完を受け入れ

// 日本語コメントでも動作
// ユーザー認証を行う関数
// → 認証関数の実装を提案

キーボードショートカット

ショートカット 機能
Cmd+I インライン編集
Cmd+Shift+I チャットパネル表示
Tab オートコンプリート受け入れ
Esc 提案をキャンセル

実用例

新機能開発

// チャットで質問
Next.js 14でJWT認証システムを実装して
ログインログアウト保護されたルートを含めて

バグ修正

// エラーコードを選択してCmd+I
このTypeErrorの原因と修正方法を教えて
Cannot read property 'length' of undefined

リファクタリング

# 既存コードを選択して
このコードをより効率的で読みやすくリファクタリングして

テスト作成

// 関数を選択して
この関数の包括的なJestテストケースを作成して

パフォーマンス最適化

モデル使い分け

  • 14Bモデル: 複雑な設計・大規模リファクタリング
  • 7Bモデル: 簡単な修正・オートコンプリート

メモリ使用量

  • 14B使用時: 約10-12GB
  • 7B使用時: 約6-8GB
  • 推論速度: 14Bで15-25 tokens/秒、7Bで30-50 tokens/秒

トラブルシューティング

Ollamaサービス関連

ollama server not responding エラー

# サービス状態確認
brew services list | grep ollama

# サービス再起動
brew services restart ollama

# 手動起動(デバッグ用)
ollama serve

ポート競合

# ポート11434が使用されているか確認
lsof -i :11434

# Ollamaプロセス確認
ps aux | grep ollama

# 完全リセット
brew services stop ollama
brew services start ollama

モデルが起動しない

# Ollamaサービス確認
ollama ps

# 利用可能モデル確認
ollama list

# メモリ不足の場合、軽量モデルに切り替え
ollama run qwen2.5-coder:7b

パーミッション関連

# Homebrewの権限修正
sudo chown -R $(whoami) /opt/homebrew/

# Ollamaディレクトリの権限確認
ls -la ~/.ollama/

# 権限問題がある場合
sudo chmod -R 755 ~/.ollama/

VS Codeで認識されない

  1. VS Codeを完全に再起動
  2. Continue拡張を無効化→有効化
  3. config.yaml の YAML 構文をチェック
  4. GUI設定画面から再度設定を行う

メモリ不足エラー

# 軽量モデルに切り替え
ollama run qwen2.5-coder:7b

# または量子化レベルを下げる
ollama pull qwen2.5-coder:7b-q4_k_m

アップデート方法

# Ollamaアップデート
brew upgrade ollama

# モデルアップデート
ollama pull qwen2.5-coder:14b-instruct
ollama pull qwen2.5-coder:7b

# 古いモデル削除(必要に応じて)
ollama rm qwen2.5-coder:14b-instruct:old

参考情報


これで、完全無償でローカル実行可能な高性能AIコーディング環境が完成します。クラウドAIと同等以上の性能を、プライバシーを保ちながら制限なく利用できます。

0
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?