1
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Ollama + ContinueでVS CodeにローカルLLM開発環境を構築する (Windows / WSL両対応)

Last updated at Posted at 2025-07-22

はじめに

今回は、完全無料・利用無制限というローカルLLM開発環境を、VS Code上に構築する方法をご紹介します。
ローカルで動作させるので、プライバシーの面でも安心です。

今回の主役は、LLMモデル実行ツールの「Ollama」と、VS Code拡張機能の「Continue」です。

この記事では、以下の2つの環境それぞれについて、ゼロからセットアップする手順を詳しく解説します。

  1. Windowsネイティブ環境でのセットアップ
  2. WSL (Windows Subsystem for Linux) 環境でのセットアップ

実行環境

  • OS: Windows 11 Home
  • CPU: AMD Ryzen 7 3700X 8-Core Processor 3.60 GHz
  • RAM: 32GB
  • GPU: GeForce RTX 3070 8GB
  • WSL: Ubuntu 24.04.2 LTS

そもそもOllamaとContinueとは?

  • Ollama (オラマ): ローカル環境で大規模言語モデル(LLM)を簡単に管理・実行できるオープンソースのツールです。
  • Continue: VS CodeとOllamaを繋ぎ、AIと対話するためのインターフェースです。今回はこの拡張機能を通して、AIに指示を出したり、コードを生成させたりします。

Windowsネイティブ環境でのセットアップ

まずは、WSLを使わずにWindows上で直接開発している方向けの手順です。

ステップ1: Ollama for Windows のインストール

ブラウザで Ollama公式サイト にアクセスします。

「Download ↓」ボタンをクリックし、インストーラーをダウンロードします。
2025-07-23 00_56_58-Ollama — Mozilla Firefox.png

ダウンロードしたインストーラーを実行し、画面の指示に従ってインストールを完了させます。完了すると、PCの右下タスクトレイにOllamaのアイコンが表示されます。

ステップ2: モデルのダウンロード

次に、利用するモデルをダウンロードします。今回は「Llama 3 (8B)」を例にします。

Windowsの「コマンドプロンプト」または「PowerShell」を開きます。

以下のコマンドを実行してください。

ollama run llama3:8b

すると、今回使用するモデル(約4.7GB)のダウンロードが始まります。完了すると、successと表示され、ターミナルがチャットモードに切り替わります。これでモデルの準備は完了です。

pulling manifest
pulling 6a0746a1ec1a: 100% ▕██████████████████████████████████████████████████████████▏ 4.7 GB
pulling 4fa551d4f938: 100% ▕██████████████████████████████████████████████████████████▏  12 KB
pulling 8ab4849b038c: 100% ▕██████████████████████████████████████████████████████████▏  254 B
pulling 577073ffcc6c: 100% ▕██████████████████████████████████████████████████████████▏  110 B
pulling 3f8eb4da87fa: 100% ▕██████████████████████████████████████████████████████████▏  485 B
verifying sha256 digest
writing manifest
success

ステップ3: VS Code拡張機能「Continue」のインストール

VS Codeを開き、拡張機能マーケットプレイスで「Continue」を検索し、インストールします。

2025-07-23 00_27_07-拡張機能_ Continue - open-source AI code assistant - Visual Studio Code.png

インストールが完了すると、アクティビティバーにContinueのアイコンが表示されるので

2025-07-23 00_42_15-Visual Studio Code.png

アイコンをクリックすると多くの場合、自動的にWindows上で動作しているOllamaを検出してくれます。

右下のモデル選択リストに、先ほどダウンロードした llama3:8b が表示されていればセットアップ完了です。

2025-07-23 00_42_28-Visual Studio Code.png
(ここでは 「Llama 3.1 8B」 と表示されています)


WSL環境でのセットアップ

次に、VS CodeをWSLに接続して開発している方向けの手順です。

ステップ1: WSLターミナルを開く

まず、セットアップを行うWSLのターミナルを起動します。(例: スタートメニューから「Ubuntu」を起動)

ステップ2: OllamaをWSL内にインストールする

Windows版とは異なり、コマンド1行でインストールします。

WSLターミナルに、以下のコマンドを貼り付けて実行します。

curl -fsSL https://ollama.com/install.sh | sh

スクリプトが自動でOllamaをセットアップしてくれます。

ステップ3: モデルをWSL内にダウンロードする

WSLターミナルで、以下のコマンドを実行します。

ollama run llama3:8b

WSLのファイルシステム内にモデルがダウンロードされます。

ステップ4: VS Code拡張機能「Continue」をWSL側にインストール

※ここの操作はWindowsネイティブ環境でのセットアップと全く同じ手順です。

【2025年7月23日 追記】筆者の最終的な構成

この記事を執筆するにあたり、私自身も様々なモデルを試した結果、最終的にWSL環境をメインで利用し、さらにAIの応答性能と品質を最大限に高めるため、役割ごとに最適なモデルを使い分けるという構成に落ち着きました。

以下に、その最終的な設定をご紹介します。

ステップ1: 3つの専門モデルをダウンロードする

まず、WSLのターミナルで、それぞれの役割を担当する3つのモデルをダウンロードします。

# チャット・編集用のメインモデル
ollama pull llama3.1:8b

# 自動補完用モデル
ollama pull qwen2.5-coder:1.5b-base

# 埋め込み用モデル
ollama pull nomic-embed-text:latest

ステップ2:役割を定義するconfig.yamlを設定

次に、Continueの設定ファイル(config.yaml)を以下のように編集します。

name: Local Assistant
version: 1.0.0
schema: v1
models:
  - name: Llama 3.1 8B
    provider: ollama
    model: llama3.1:8b
    roles:
      - chat
      - edit
      - apply
  - name: Qwen2.5-Coder 1.5B
    provider: ollama
    model: qwen2.5-coder:1.5b-base
    roles:
      - autocomplete
  - name: Nomic Embed
    provider: ollama
    model: nomic-embed-text:latest
    roles:
      - embed
context:
  - provider: code
  - provider: docs
  - provider: diff
  - provider: terminal
  - provider: problems
  - provider: folder
  - provider: codebase

おわりに

これにてプライバシーも配慮され、利用無制限。尚且つ完全無料のローカルLLM環境が構築できました。

最後までお読みいただき、ありがとうございました!

1
3
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?