はじめに
ローカル環境でコード生成AIを使える開発環境を構築しました。
この記事では、Windows 11 上に WSL2 の開発環境を用意し、Ollama でローカルLLMを動かし、VS Code の Continue 拡張機能からそのモデルを呼び出せるようにするまでの手順をまとめます。
クラウドAIサービスを使う方法もありますが、ローカルLLMを使うことで、コードや作業内容を外部サービスへ送信せずに開発支援を受けられます。
この記事は、私が実際に構築した環境の記録として残すためのものです。
再セットアップが必要になったとき同じ環境を再現できるよう、必要な手順を整理します。
また、この記録が同じようにローカルAI開発環境を構築したい方の参考になればと思い、記事としてまとめました。
そのため、架空の開発例や、実際に試していない使い方は扱いません。
- Windows 11 に NVIDIA GPU ドライバを導入する
- Ollama でローカルLLMを実行する
- WSL2 上に開発用 Ubuntu 環境を用意する
- VS Code から WSL2 のプロジェクトを開く
- Continue 拡張機能をインストールする
- Continue から Ollama のローカルモデルを呼び出す準備をする
なお、この記事では Continue の細かい設定や実践的な使い込みまでは扱いません。
Continue の config.yaml や Ollama 接続設定の詳細は、次回の記事で整理します。
前提環境
今回の構成は以下です。
| 項目 | 内容 |
|---|---|
| OS | Windows 11 |
| Linux環境 | WSL2 + Ubuntu |
| CPU | Intel Core i5-13500 |
| メモリ | 64GB |
| GPU | NVIDIA GeForce RTX 5060 Ti 16GB |
| LLM実行基盤 | Ollama |
| エディタ | VS Code |
| VS Code拡張 | WSL / Continue |
全体構成
今回作る環境の全体像は以下です。
Windows 11
├─ NVIDIA Driver
├─ Ollama
│ └─ ローカルLLMモデル
├─ VS Code
│ ├─ WSL 拡張機能
│ └─ Continue 拡張機能
└─ WSL2 Ubuntu
└─ 開発プロジェクト
開発コードは WSL2 側に置きます。
VS Code は Windows 側のアプリとして起動し、WSL 拡張機能を使って WSL2 上のプロジェクトを開きます。
AIモデルの実行は Windows 側の Ollama が担当します。
Continue は VS Code から Ollama に接続し、ローカルLLMをコード支援に使います。
VS Code + Continue
↓
Ollama on Windows
↓
RTX 5060 Ti 16GB
ストレージ構成
ローカルLLMのモデルファイルは数GBから数十GBになることがあります。
何も設定せずに使うと、Cドライブのユーザーフォルダ配下に大きなファイルが増えることがあります。
そのため、今回は以下のように役割を分けました。
| ドライブ | 用途 |
|---|---|
| C: | Windows、アプリ本体 |
| D: | AIモデル、AI関連キャッシュ |
| E: | WSL2、Docker、検証環境 |
| F: | 作業データ |
| G: | バックアップ |
この記事では主に、DドライブとEドライブを使います。
- Dドライブ: Ollama のモデル保存先
- Eドライブ: WSL2 の Ubuntu 保存先
環境構築
1. NVIDIAドライバをインストールする
まず、RTX 5060 Ti を Windows から利用できるように NVIDIA ドライバをインストールします。
NVIDIA公式サイトから、使用しているGPUに対応したドライバをダウンロードします。
AI実行や開発用途を重視する場合は、Game Ready ドライバではなく Studio ドライバを選ぶと安定性を重視した構成にしやすいです。
インストール後、PCを再起動します。
2. GPUが認識されているか確認する
再起動後、PowerShell またはコマンドプロンプトで以下を実行します。
nvidia-smi
GPU名、ドライババージョン、VRAM使用量などが表示されれば認識されています。
例として、以下のような情報が確認できればOKです。
NVIDIA GeForce RTX 5060 Ti
Memory-Usage: xxxMiB / 16xxxMiB
ここで nvidia-smi が認識されない場合は、以下を確認します。
- NVIDIAドライバが正しくインストールされているか
- PCを再起動したか
- RTX 5060 Ti がデバイスマネージャーで認識されているか
3. AI関連データ用フォルダを作成する
Ollama や AI関連キャッシュの保存先として、Dドライブにフォルダを作成します。
PowerShellで以下を実行します。
New-Item -ItemType Directory -Force D:\AI_Data\Ollama
New-Item -ItemType Directory -Force D:\AI_Data\HuggingFace
New-Item -ItemType Directory -Force D:\AI_Data\Cache
フォルダ構成は以下のイメージです。
D:\AI_Data
├─ Ollama
├─ HuggingFace
└─ Cache
4. Ollamaのモデル保存先を環境変数で指定する
Ollama のモデル保存先は、環境変数 OLLAMA_MODELS で指定できます。
Windows の「環境変数」画面から設定してもよいですが、PowerShellから設定する場合は以下を実行します。
[Environment]::SetEnvironmentVariable("OLLAMA_MODELS", "D:\AI_Data\Ollama", "User")
[Environment]::SetEnvironmentVariable("HF_HOME", "D:\AI_Data\HuggingFace", "User")
[Environment]::SetEnvironmentVariable("XDG_CACHE_HOME", "D:\AI_Data\Cache", "User")
それぞれの意味は以下です。
| 環境変数 | 用途 |
|---|---|
OLLAMA_MODELS |
Ollama のモデル保存先 |
HF_HOME |
Hugging Face 系ツールのキャッシュ保存先 |
XDG_CACHE_HOME |
各種ツールが参照するキャッシュ保存先 |
Ollama だけを使う場合に必須なのは OLLAMA_MODELS です。
ただし、今後 Python 系のAIツールや別のローカルLLM関連ツールを使う可能性があるため、HF_HOME と XDG_CACHE_HOME も先に設定しておきます。
設定後は、反映のために Windows を再起動します。
5. Ollamaをインストールする
Ollama の Windows 版をインストールします。
インストール後、PowerShellで以下を実行します。
ollama --version
バージョンが表示されればインストールできています。
Ollamaが起動しているか確認するには、以下を実行します。
curl http://localhost:11434
以下のような応答が返ればOKです。
Ollama is running
6. Ollamaでコード生成向けモデルを取得する
コード生成向けのモデルを取得します。
今回は最初の動作確認として、比較的扱いやすい qwen2.5-coder:7b を使います。
ollama pull qwen2.5-coder:7b
ダウンロード済みモデルを確認します。
ollama list
qwen2.5-coder:7b が表示されればOKです。
RTX 5060 Ti 16GB であれば、より大きなモデルも選択肢になります。
ただし、モデルサイズや量子化方式によって必要なVRAMやメモリは変わるため、まずは 7B クラスで動作確認し、余裕があれば 14B クラスなどを試すのが安全です。
7. Ollama単体で動作確認する
PowerShellで以下を実行します。
ollama run qwen2.5-coder:7b
プロンプトが表示されたら、以下のように依頼します。
PythonでFizzBuzzを書くコードを作成してください。
回答が返ってくれば、Ollama単体での動作確認は完了です。
終了するには、以下を入力します。
/bye
8. モデル保存先を確認する
環境変数 OLLAMA_MODELS が効いていれば、モデルデータは以下に保存されます。
D:\AI_Data\Ollama
エクスプローラーで上記フォルダを開き、ファイルが増えていることを確認します。
もしCドライブ側に保存されている場合は、以下を確認します。
-
OLLAMA_MODELSの値が正しいか - 環境変数設定後にWindowsを再起動したか
- Ollamaの起動タイミングが環境変数設定前ではなかったか
9. WSL2をインストールする
次に、開発用の Linux 環境として WSL2 を用意します。
PowerShellを管理者として開き、以下を実行します。
wsl --install -d Ubuntu-24.04
インストール後、Ubuntuが起動したらユーザー名とパスワードを設定します。
インストール済みのディストリビューションを確認します。
wsl -l -v
以下のように表示されればOKです。
NAME STATE VERSION
* Ubuntu-24.04 Running 2
10. WSL2の保存先をEドライブへ移動する
通常の手順で WSL2 をインストールすると、Ubuntu の仮想ディスクはCドライブ配下に作成されます。
今回は、検証環境用のEドライブに WSL2 を移動します。
まず、Eドライブに保存先フォルダを作成します。
New-Item -ItemType Directory -Force E:\WSL
New-Item -ItemType Directory -Force E:\WSL_Backup
WSLを停止します。
wsl --shutdown
Ubuntuをエクスポートします。
wsl --export Ubuntu-24.04 E:\WSL_Backup\Ubuntu-24.04.tar
Cドライブ側のUbuntu登録を解除します。
wsl --unregister Ubuntu-24.04
Eドライブへインポートします。
wsl --import Ubuntu-24.04 E:\WSL\Ubuntu-24.04 E:\WSL_Backup\Ubuntu-24.04.tar --version 2
インポート後、状態を確認します。
wsl -l -v
Ubuntuを起動します。
wsl -d Ubuntu-24.04
補足:インポート後にrootで起動する場合
wsl --import で再登録した場合、既定ユーザーが root になることがあります。
その場合は、Ubuntu内で /etc/wsl.conf を編集します。
sudo nano /etc/wsl.conf
以下の内容を追加します。
[user]
default=your-user-name
your-user-name は、Ubuntu初期設定時に作成したユーザー名に置き換えてください。
編集後、PowerShellでWSLを停止します。
wsl --shutdown
再度起動し、通常ユーザーでログインできることを確認します。
wsl -d Ubuntu-24.04
11. Ubuntuを更新する
WSL2 の Ubuntu 側で、パッケージを更新します。
sudo apt update
sudo apt upgrade -y
開発でよく使う基本ツールも入れておきます。
sudo apt install -y git curl build-essential
12. VS Codeをインストールする
Windows側に VS Code をインストールします。
インストール後、以下の拡張機能を入れます。
- WSL
- Continue
VS Codeの拡張機能画面で検索してインストールします。
13. VS CodeからWSL2上のプロジェクトを開く
Ubuntu側で作業用ディレクトリを作ります。
mkdir -p ~/projects/local-ai-sample
cd ~/projects/local-ai-sample
VS Codeで開きます。
code .
初回は VS Code Server のセットアップが走るため、少し時間がかかる場合があります。
VS Codeの左下に WSL: Ubuntu-24.04 のような表示が出ていれば、WSL2上のプロジェクトを開けています。
14. Continueをインストールする
VS Code の拡張機能から Continue をインストールします。
この記事では、Continue の詳細設定までは行いません。
ここでは、Continue 拡張機能を入れて、Ollama と連携する準備ができた状態にします。
Continue から Ollama を使うには、次回の記事で config.yaml を設定します。
最小構成のイメージは以下です。
models:
- name: Qwen2.5 Coder 7B
provider: ollama
model: qwen2.5-coder:7b
apiBase: http://localhost:11434
roles:
- chat
- edit
この段階では、以下を確認できればOKです。
- Continue 拡張機能がインストールされている
- Ollama が
http://localhost:11434で起動している -
ollama listで利用するモデル名を確認できる
15. GPUを使っているか確認する
OllamaがGPUを使っているか確認します。
PowerShellで以下を実行します。
nvidia-smi
モデル実行中にVRAM使用量が増えていれば、NVIDIA GPUが使われています。
また、Windowsのタスクマネージャーで GPU の CUDA グラフを確認する方法もあります。
もしGPUが使われていないように見える場合は、以下を確認します。
- NVIDIAドライバが正しく入っているか
-
nvidia-smiでGPUが認識されているか - Ollamaを再起動したか
- Windowsのグラフィック設定でOllamaが省電力GPU側に固定されていないか
必要に応じて、Windowsの以下の設定を確認します。
設定 > システム > ディスプレイ > グラフィック
Ollama関連の実行ファイルを追加し、GPUの設定を「高パフォーマンス」に変更します。
ハマりどころ
OllamaのモデルがCドライブに保存される
OLLAMA_MODELS の設定が反映されていない可能性があります。
以下を確認します。
- 環境変数名が
OLLAMA_MODELSになっているか - パスが
D:\AI_Data\Ollamaになっているか - 設定後にWindowsを再起動したか
- Ollamaを一度終了してから再起動したか
Ollamaに接続できない
Ollamaが起動しているか確認します。
curl http://localhost:11434
以下の応答が返れば起動しています。
Ollama is running
返らない場合は、Ollamaを起動し直します。
WSL2のプロジェクトからContinueを使うときに混乱する
今回の構成では、コードはWSL2上にありますが、OllamaはWindows側で動いています。
コード: WSL2
エディタ: VS Code
AI実行: Windows側のOllama
GPU: Windows側のNVIDIAドライバ経由
この関係を理解しておくと、トラブルシュートしやすくなります。
WSL2をEドライブへ移動したらrootで起動する
wsl --import 後は、既定ユーザーがrootになることがあります。
その場合は、/etc/wsl.conf に以下を追加します。
[user]
default=your-user-name
その後、PowerShellで以下を実行してWSLを再起動します。
wsl --shutdown
まとめ
この記事では、Windows 11 + WSL2 + Ollama + Continue を使って、ローカルAI開発環境の土台を構築しました。
最終的に、以下の状態まで確認しました。
- NVIDIA GPUがWindowsで認識されている
- Ollamaのモデル保存先をDドライブに変更した
- Ollamaでコード生成向けモデルを実行できる
- WSL2のUbuntu環境を用意した
- WSL2をEドライブへ移動した
- VS CodeからWSL2上のプロジェクトを開ける
- Continue拡張機能をインストールした
- Ollamaが
http://localhost:11434で起動していることを確認した
これで、WSL2 上のコードを VS Code で開き、Continue からローカルLLMへ接続するための準備ができました。
次回
次回は、Continue の設定を整理します。
具体的には、Ollama のモデルを Continue から呼び出すための config.yaml、モデル名の指定方法、WSL2 上のコードを開いた状態での接続確認、よくあるハマりどころをまとめます。