はじめに
ローカル PC で LLM を動かし、同一ネットワーク(LAN)内の別 PC からも使える「ローカル LLM サーバー」を構築したので手順をまとめます。
構成はシンプルです。
- Ollama:LLM 実行+ API サーバー
- Open WebUI:ChatGPT 風 UI
- LAN 共有:複数端末から利用
定義
ローカル LLM サーバーとは
自分のPCでLLMを動かし、ネットワーク経由で他PCから利用できる環境
全体像
ローカルPC
├ Ollama(LLMサーバー)
├ 各種モデル(日本語・コード)
└ Open WebUI(ブラウザUI)
↓
同一ネットワーク内の別PCからアクセス
構築フロー
① スペック確認(重要)
ローカル LLM は GPU(特に VRAM)に強く依存します。
Windows(PowerShell)
GPU(最重要)
nvidia-smi
👉 確認ポイント
- GPU 名
- VRAM(例:8192 MiB = 8 GB)
CPU / メモリ
systeminfo
または
Get-ComputerInfo
Linux / WSL
nvidia-smi
free -h
lscpu
スペックの見方(重要)
| 項目 | 重要度 | 理由 |
|---|---|---|
| VRAM | ★★★ | モデルが乗るか決まる |
| RAM | ★★ | 安定性 |
| CPU | ★ | 補助 |
② なぜ 7B モデルなのか
結論
👉 VRAM 8 GB 環境の現実解が 7B です。
モデルと必要 VRAM
| モデル | 必要 VRAM |
|---|---|
| 3B | 約 4 GB |
| 7B | 約 6〜8 GB |
| 13B | 約 12 GB〜 |
| 30B↑ | 24 GB 以上 |
理由まとめ
- 7B:VRAM に収まる
- 7B:速度が実用レベル
- 7B:精度もそこそこ高い
👉 「精度 × 速度 × メモリ」のバランスがよいです。
実際の選択
◎ 7B(ベスト)
○ 3B(軽量)
△ 13B(ギリ)
✕ 30B以上(不可)
③ Ollama の導入
インストール(Windows)
irm https://ollama.com/install.ps1 | iex
Ollama を選んだ理由
- セットアップが簡単
- API サーバーが標準搭載
- GPU 対応が楽
④ モデル導入
ollama pull qwen2.5:7b
ollama pull qwen2.5-coder:7b
モデル選定方針
| 用途 | モデル |
|---|---|
| 日本語チャット | 多言語モデル |
| コーディング | コード特化 |
| 汎用 | 軽量モデル |
⑤ サーバー化(LAN 対応)
$env:OLLAMA_HOST="0.0.0.0:11434"
ollama serve
なぜこれが必要か
- LAN 内からアクセス可能にするため
- API サーバーとして使うため
⑥ ネットワーク設定
- ポート 11434 を開放
⑦ 動作確認
http://<ローカルIP>:11434/api/tags
👉 モデル一覧が返れば OK です。
⑧ Open WebUI の導入
Docker 起動
docker run -d -p 3000:8080 \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
ghcr.io/open-webui/open-webui:main
アクセス
http://<ローカルIP>:3000
👉 ChatGPT 風 UI が表示されれば成功です。
技術選定まとめ
Ollama
| 観点 | 理由 |
|---|---|
| 導入 | 超簡単 |
| API | 標準 |
| GPU | 対応 |
7B モデル
| 観点 | 理由 |
|---|---|
| メモリ | 8 GB で動く |
| 速度 | 実用 |
| 精度 | 十分 |
Open WebUI
| 観点 | 理由 |
|---|---|
| UX | 良い |
| 管理 | マルチモデル |
| 履歴 | 保存可能 |
運用イメージ
PC起動
↓
Ollama起動
↓
WebUI起動
↓
ブラウザアクセス
得られる価値
ローカル AI
- オフライン利用可能
- データ外部送信なし
開発支援
- コード生成
- バグ修正
- 技術相談
まとめ
スペック確認
→ Ollama導入
→ モデル選定(7B)
→ サーバー化
→ WebUI追加
👉 この流れで LAN 内共有できるローカル LLM 環境が構築可能です。
おわりに
ローカル LLM は「思ってるより簡単」に作れます。まずは 7B から触ってみるのがおすすめです 👍
ではまた次の記事でお会いしましょう。