0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

【第1回】ローカルAI開発環境構築メモ:Windows 11 + WSL2 + Ollama + Continue の土台を作る

0
Posted at

はじめに

ローカル環境でコード生成AIを使える開発環境を構築しました。

この記事では、Windows 11 上に WSL2 の開発環境を用意し、Ollama でローカルLLMを動かし、VS Code の Continue 拡張機能からそのモデルを呼び出せるようにするまでの手順をまとめます。

クラウドAIサービスを使う方法もありますが、ローカルLLMを使うことで、コードや作業内容を外部サービスへ送信せずに開発支援を受けられます。

この記事は、私が実際に構築した環境の記録として残すためのものです。
再セットアップが必要になったとき同じ環境を再現できるよう、必要な手順を整理します。

また、この記録が同じようにローカルAI開発環境を構築したい方の参考になればと思い、記事としてまとめました。

そのため、架空の開発例や、実際に試していない使い方は扱いません。

  • Windows 11 に NVIDIA GPU ドライバを導入する
  • Ollama でローカルLLMを実行する
  • WSL2 上に開発用 Ubuntu 環境を用意する
  • VS Code から WSL2 のプロジェクトを開く
  • Continue 拡張機能をインストールする
  • Continue から Ollama のローカルモデルを呼び出す準備をする

なお、この記事では Continue の細かい設定や実践的な使い込みまでは扱いません。
Continue の config.yaml や Ollama 接続設定の詳細は、次回の記事で整理します。

前提環境

今回の構成は以下です。

項目 内容
OS Windows 11
Linux環境 WSL2 + Ubuntu
CPU Intel Core i5-13500
メモリ 64GB
GPU NVIDIA GeForce RTX 5060 Ti 16GB
LLM実行基盤 Ollama
エディタ VS Code
VS Code拡張 WSL / Continue

全体構成

今回作る環境の全体像は以下です。

Windows 11
├─ NVIDIA Driver
├─ Ollama
│   └─ ローカルLLMモデル
├─ VS Code
│   ├─ WSL 拡張機能
│   └─ Continue 拡張機能
└─ WSL2 Ubuntu
    └─ 開発プロジェクト

開発コードは WSL2 側に置きます。
VS Code は Windows 側のアプリとして起動し、WSL 拡張機能を使って WSL2 上のプロジェクトを開きます。

AIモデルの実行は Windows 側の Ollama が担当します。
Continue は VS Code から Ollama に接続し、ローカルLLMをコード支援に使います。

VS Code + Continue
        ↓
Ollama on Windows
        ↓
RTX 5060 Ti 16GB

ストレージ構成

ローカルLLMのモデルファイルは数GBから数十GBになることがあります。
何も設定せずに使うと、Cドライブのユーザーフォルダ配下に大きなファイルが増えることがあります。

そのため、今回は以下のように役割を分けました。

ドライブ 用途
C: Windows、アプリ本体
D: AIモデル、AI関連キャッシュ
E: WSL2、Docker、検証環境
F: 作業データ
G: バックアップ

この記事では主に、DドライブとEドライブを使います。

  • Dドライブ: Ollama のモデル保存先
  • Eドライブ: WSL2 の Ubuntu 保存先

環境構築

1. NVIDIAドライバをインストールする

まず、RTX 5060 Ti を Windows から利用できるように NVIDIA ドライバをインストールします。

NVIDIA公式サイトから、使用しているGPUに対応したドライバをダウンロードします。
AI実行や開発用途を重視する場合は、Game Ready ドライバではなく Studio ドライバを選ぶと安定性を重視した構成にしやすいです。

インストール後、PCを再起動します。

2. GPUが認識されているか確認する

再起動後、PowerShell またはコマンドプロンプトで以下を実行します。

nvidia-smi

GPU名、ドライババージョン、VRAM使用量などが表示されれば認識されています。

例として、以下のような情報が確認できればOKです。

NVIDIA GeForce RTX 5060 Ti
Memory-Usage: xxxMiB / 16xxxMiB

ここで nvidia-smi が認識されない場合は、以下を確認します。

  • NVIDIAドライバが正しくインストールされているか
  • PCを再起動したか
  • RTX 5060 Ti がデバイスマネージャーで認識されているか

3. AI関連データ用フォルダを作成する

Ollama や AI関連キャッシュの保存先として、Dドライブにフォルダを作成します。

PowerShellで以下を実行します。

New-Item -ItemType Directory -Force D:\AI_Data\Ollama
New-Item -ItemType Directory -Force D:\AI_Data\HuggingFace
New-Item -ItemType Directory -Force D:\AI_Data\Cache

フォルダ構成は以下のイメージです。

D:\AI_Data
├─ Ollama
├─ HuggingFace
└─ Cache

4. Ollamaのモデル保存先を環境変数で指定する

Ollama のモデル保存先は、環境変数 OLLAMA_MODELS で指定できます。

Windows の「環境変数」画面から設定してもよいですが、PowerShellから設定する場合は以下を実行します。

[Environment]::SetEnvironmentVariable("OLLAMA_MODELS", "D:\AI_Data\Ollama", "User")
[Environment]::SetEnvironmentVariable("HF_HOME", "D:\AI_Data\HuggingFace", "User")
[Environment]::SetEnvironmentVariable("XDG_CACHE_HOME", "D:\AI_Data\Cache", "User")

それぞれの意味は以下です。

環境変数 用途
OLLAMA_MODELS Ollama のモデル保存先
HF_HOME Hugging Face 系ツールのキャッシュ保存先
XDG_CACHE_HOME 各種ツールが参照するキャッシュ保存先

Ollama だけを使う場合に必須なのは OLLAMA_MODELS です。
ただし、今後 Python 系のAIツールや別のローカルLLM関連ツールを使う可能性があるため、HF_HOMEXDG_CACHE_HOME も先に設定しておきます。

設定後は、反映のために Windows を再起動します。

5. Ollamaをインストールする

Ollama の Windows 版をインストールします。

インストール後、PowerShellで以下を実行します。

ollama --version

バージョンが表示されればインストールできています。

Ollamaが起動しているか確認するには、以下を実行します。

curl http://localhost:11434

以下のような応答が返ればOKです。

Ollama is running

6. Ollamaでコード生成向けモデルを取得する

コード生成向けのモデルを取得します。

今回は最初の動作確認として、比較的扱いやすい qwen2.5-coder:7b を使います。

ollama pull qwen2.5-coder:7b

ダウンロード済みモデルを確認します。

ollama list

qwen2.5-coder:7b が表示されればOKです。

RTX 5060 Ti 16GB であれば、より大きなモデルも選択肢になります。
ただし、モデルサイズや量子化方式によって必要なVRAMやメモリは変わるため、まずは 7B クラスで動作確認し、余裕があれば 14B クラスなどを試すのが安全です。

7. Ollama単体で動作確認する

PowerShellで以下を実行します。

ollama run qwen2.5-coder:7b

プロンプトが表示されたら、以下のように依頼します。

PythonでFizzBuzzを書くコードを作成してください。

回答が返ってくれば、Ollama単体での動作確認は完了です。

終了するには、以下を入力します。

/bye

8. モデル保存先を確認する

環境変数 OLLAMA_MODELS が効いていれば、モデルデータは以下に保存されます。

D:\AI_Data\Ollama

エクスプローラーで上記フォルダを開き、ファイルが増えていることを確認します。

もしCドライブ側に保存されている場合は、以下を確認します。

  • OLLAMA_MODELS の値が正しいか
  • 環境変数設定後にWindowsを再起動したか
  • Ollamaの起動タイミングが環境変数設定前ではなかったか

9. WSL2をインストールする

次に、開発用の Linux 環境として WSL2 を用意します。

PowerShellを管理者として開き、以下を実行します。

wsl --install -d Ubuntu-24.04

インストール後、Ubuntuが起動したらユーザー名とパスワードを設定します。

インストール済みのディストリビューションを確認します。

wsl -l -v

以下のように表示されればOKです。

  NAME            STATE           VERSION
* Ubuntu-24.04    Running         2

10. WSL2の保存先をEドライブへ移動する

通常の手順で WSL2 をインストールすると、Ubuntu の仮想ディスクはCドライブ配下に作成されます。

今回は、検証環境用のEドライブに WSL2 を移動します。

まず、Eドライブに保存先フォルダを作成します。

New-Item -ItemType Directory -Force E:\WSL
New-Item -ItemType Directory -Force E:\WSL_Backup

WSLを停止します。

wsl --shutdown

Ubuntuをエクスポートします。

wsl --export Ubuntu-24.04 E:\WSL_Backup\Ubuntu-24.04.tar

Cドライブ側のUbuntu登録を解除します。

wsl --unregister Ubuntu-24.04

Eドライブへインポートします。

wsl --import Ubuntu-24.04 E:\WSL\Ubuntu-24.04 E:\WSL_Backup\Ubuntu-24.04.tar --version 2

インポート後、状態を確認します。

wsl -l -v

Ubuntuを起動します。

wsl -d Ubuntu-24.04

補足:インポート後にrootで起動する場合

wsl --import で再登録した場合、既定ユーザーが root になることがあります。

その場合は、Ubuntu内で /etc/wsl.conf を編集します。

sudo nano /etc/wsl.conf

以下の内容を追加します。

[user]
default=your-user-name

your-user-name は、Ubuntu初期設定時に作成したユーザー名に置き換えてください。

編集後、PowerShellでWSLを停止します。

wsl --shutdown

再度起動し、通常ユーザーでログインできることを確認します。

wsl -d Ubuntu-24.04

11. Ubuntuを更新する

WSL2 の Ubuntu 側で、パッケージを更新します。

sudo apt update
sudo apt upgrade -y

開発でよく使う基本ツールも入れておきます。

sudo apt install -y git curl build-essential

12. VS Codeをインストールする

Windows側に VS Code をインストールします。

インストール後、以下の拡張機能を入れます。

  • WSL
  • Continue

VS Codeの拡張機能画面で検索してインストールします。

13. VS CodeからWSL2上のプロジェクトを開く

Ubuntu側で作業用ディレクトリを作ります。

mkdir -p ~/projects/local-ai-sample
cd ~/projects/local-ai-sample

VS Codeで開きます。

code .

初回は VS Code Server のセットアップが走るため、少し時間がかかる場合があります。

VS Codeの左下に WSL: Ubuntu-24.04 のような表示が出ていれば、WSL2上のプロジェクトを開けています。

14. Continueをインストールする

VS Code の拡張機能から Continue をインストールします。

この記事では、Continue の詳細設定までは行いません。
ここでは、Continue 拡張機能を入れて、Ollama と連携する準備ができた状態にします。

Continue から Ollama を使うには、次回の記事で config.yaml を設定します。

最小構成のイメージは以下です。

models:
  - name: Qwen2.5 Coder 7B
    provider: ollama
    model: qwen2.5-coder:7b
    apiBase: http://localhost:11434
    roles:
      - chat
      - edit

この段階では、以下を確認できればOKです。

  • Continue 拡張機能がインストールされている
  • Ollama が http://localhost:11434 で起動している
  • ollama list で利用するモデル名を確認できる

15. GPUを使っているか確認する

OllamaがGPUを使っているか確認します。

PowerShellで以下を実行します。

nvidia-smi

モデル実行中にVRAM使用量が増えていれば、NVIDIA GPUが使われています。

また、Windowsのタスクマネージャーで GPU の CUDA グラフを確認する方法もあります。

もしGPUが使われていないように見える場合は、以下を確認します。

  • NVIDIAドライバが正しく入っているか
  • nvidia-smi でGPUが認識されているか
  • Ollamaを再起動したか
  • Windowsのグラフィック設定でOllamaが省電力GPU側に固定されていないか

必要に応じて、Windowsの以下の設定を確認します。

設定 > システム > ディスプレイ > グラフィック

Ollama関連の実行ファイルを追加し、GPUの設定を「高パフォーマンス」に変更します。

ハマりどころ

OllamaのモデルがCドライブに保存される

OLLAMA_MODELS の設定が反映されていない可能性があります。

以下を確認します。

  • 環境変数名が OLLAMA_MODELS になっているか
  • パスが D:\AI_Data\Ollama になっているか
  • 設定後にWindowsを再起動したか
  • Ollamaを一度終了してから再起動したか

Ollamaに接続できない

Ollamaが起動しているか確認します。

curl http://localhost:11434

以下の応答が返れば起動しています。

Ollama is running

返らない場合は、Ollamaを起動し直します。

WSL2のプロジェクトからContinueを使うときに混乱する

今回の構成では、コードはWSL2上にありますが、OllamaはWindows側で動いています。

コード: WSL2
エディタ: VS Code
AI実行: Windows側のOllama
GPU: Windows側のNVIDIAドライバ経由

この関係を理解しておくと、トラブルシュートしやすくなります。

WSL2をEドライブへ移動したらrootで起動する

wsl --import 後は、既定ユーザーがrootになることがあります。

その場合は、/etc/wsl.conf に以下を追加します。

[user]
default=your-user-name

その後、PowerShellで以下を実行してWSLを再起動します。

wsl --shutdown

まとめ

この記事では、Windows 11 + WSL2 + Ollama + Continue を使って、ローカルAI開発環境の土台を構築しました。

最終的に、以下の状態まで確認しました。

  • NVIDIA GPUがWindowsで認識されている
  • Ollamaのモデル保存先をDドライブに変更した
  • Ollamaでコード生成向けモデルを実行できる
  • WSL2のUbuntu環境を用意した
  • WSL2をEドライブへ移動した
  • VS CodeからWSL2上のプロジェクトを開ける
  • Continue拡張機能をインストールした
  • Ollamaが http://localhost:11434 で起動していることを確認した

これで、WSL2 上のコードを VS Code で開き、Continue からローカルLLMへ接続するための準備ができました。

次回

次回は、Continue の設定を整理します。

具体的には、Ollama のモデルを Continue から呼び出すための config.yaml、モデル名の指定方法、WSL2 上のコードを開いた状態での接続確認、よくあるハマりどころをまとめます。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?