3
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

WSL2 + Docker で Ollama & Open WebUI をセットアップする

3
Posted at

はじめに

本記事では、WSL2 上の Docker を使って Ollama(ローカル LLM ランタイム)と Open WebUI(ブラウザ UI)をセットアップする手順を紹介します。

  • データが外部に送信されない 完全ローカル環境
  • API 費用 ゼロ
  • ブラウザから ChatGPT 風に操作可能

Ollama とは?

Ollama = ローカル LLM の実行環境です。

項目 内容
動作場所 自分のマシン上(クラウド不要)
データ 外部に送信されない(完全オフライン可)
モデル gemma3 等のオープンソースモデルを実行
料金 無料

公式サイトはこちら https://ollama.com/

前提条件

  • Windows 10/11 上で WSL2 が有効化済み
  • WSL2 上に Docker Engine がインストール済み
  • WSL2 のディストリビューションは Ubuntu 22.04 / 24.04 推奨
  • 空きディスク容量:モデルによるが最低 10GB 以上(gemma3:12b は約 8GB)
  • メモリ:8GB 以上推奨(16GB 以上が快適)

セットアップ

compose.yaml を作成

services:
  ollama:
    image: ollama/ollama
    container_name: ollama
    ports:
      - "11434:11434"
    volumes:
      - ollama:/root/.ollama
    restart: always

  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    ports:
      - "3000:8080"
    volumes:
      - open-webui:/app/backend/data
    environment:
      - OLLAMA_BASE_URL=http://ollama:11434
    healthcheck:
      test: ["CMD", "curl", "-f", "http://localhost:8080/health"]
      interval: 30s
      timeout: 20s
      retries: 10
      start_period: 120s    # 初回起動の猶予時間
    restart: always

volumes:
  ollama:
  open-webui:

コンテナを起動

docker compose up -d

起動確認

docker compose ps
docker logs -f open-webui 

こんな感じで表示されれば起動完了です。
image.png


モデルのダウンロード

Open WebUI が起動したら、使いたいモデルをダウンロードします。

# 日本語対応でおすすめのモデル
docker exec -it ollama ollama pull qwen2.5      # Alibaba製
docker exec -it ollama ollama pull gemma3       # Google製
docker exec -it ollama ollama pull llama3.2     # Meta製

# ダウンロード済みモデルの確認
docker exec -it ollama ollama list

Open WebUI を使う

ブラウザで http://localhost:3000 を開きます。

初回セットアップ

1. アカウント登録(ローカルのみ・外部送信なし)
2. 画面上部「Select a model」でモデルを選択
3. チャット開始!

以下のような画面が表示されますので、ChatGPTのように使って見てください
image.png

まとめ

項目 内容
✅ 完全ローカル データが外部に出ない
✅ 無料 API 費用ゼロ
✅ ブラウザ UI Open WebUI で快適操作
✅ GPU 対応 NVIDIA GPU で高速化可能(任意・なくても動作します)

ローカル LLM 環境として、プライバシーを重視した用途や検証目的に最適です。ぜひ試してみてください!
※私はノートPCなのでGPUを設定をしていません。設定する場合はYamlの修正が必要です。


参考リンク

3
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
3
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?