0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Ollama と Open WebUI で LAN 内共有できるローカル LLM サーバーを作る

0
Last updated at Posted at 2026-03-22

はじめに

ローカル PC で LLM を動かし、同一ネットワーク(LAN)内の別 PC からも使える「ローカル LLM サーバー」を構築したので手順をまとめます。

構成はシンプルです。

  • Ollama:LLM 実行+ API サーバー
  • Open WebUI:ChatGPT 風 UI
  • LAN 共有:複数端末から利用

定義

ローカル LLM サーバーとは

自分のPCでLLMを動かし、ネットワーク経由で他PCから利用できる環境

全体像

ローカルPC
├ Ollama(LLMサーバー)
├ 各種モデル(日本語・コード)
└ Open WebUI(ブラウザUI)
        ↓
同一ネットワーク内の別PCからアクセス

構築フロー

① スペック確認(重要)

ローカル LLM は GPU(特に VRAM)に強く依存します。

Windows(PowerShell)

GPU(最重要)
nvidia-smi

👉 確認ポイント

  • GPU 名
  • VRAM(例:8192 MiB = 8 GB)
CPU / メモリ
systeminfo

または

Get-ComputerInfo

Linux / WSL

nvidia-smi
free -h
lscpu

スペックの見方(重要)

項目 重要度 理由
VRAM ★★★ モデルが乗るか決まる
RAM ★★ 安定性
CPU 補助

② なぜ 7B モデルなのか

結論

👉 VRAM 8 GB 環境の現実解が 7B です。

モデルと必要 VRAM

モデル 必要 VRAM
3B 約 4 GB
7B 約 6〜8 GB
13B 約 12 GB〜
30B↑ 24 GB 以上

理由まとめ

  • 7B:VRAM に収まる
  • 7B:速度が実用レベル
  • 7B:精度もそこそこ高い

👉 「精度 × 速度 × メモリ」のバランスがよいです。

実際の選択

◎ 7B(ベスト)
○ 3B(軽量)
△ 13B(ギリ)
✕ 30B以上(不可)

③ Ollama の導入

インストール(Windows)

irm https://ollama.com/install.ps1 | iex

Ollama を選んだ理由

  • セットアップが簡単
  • API サーバーが標準搭載
  • GPU 対応が楽

④ モデル導入

ollama pull qwen2.5:7b
ollama pull qwen2.5-coder:7b

モデル選定方針

用途 モデル
日本語チャット 多言語モデル
コーディング コード特化
汎用 軽量モデル

⑤ サーバー化(LAN 対応)

$env:OLLAMA_HOST="0.0.0.0:11434"
ollama serve

なぜこれが必要か

  • LAN 内からアクセス可能にするため
  • API サーバーとして使うため

⑥ ネットワーク設定

  • ポート 11434 を開放

⑦ 動作確認

http://<ローカルIP>:11434/api/tags

👉 モデル一覧が返れば OK です。

⑧ Open WebUI の導入

Docker 起動

docker run -d -p 3000:8080 \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
ghcr.io/open-webui/open-webui:main

アクセス

http://<ローカルIP>:3000

👉 ChatGPT 風 UI が表示されれば成功です。

技術選定まとめ

Ollama

観点 理由
導入 超簡単
API 標準
GPU 対応

7B モデル

観点 理由
メモリ 8 GB で動く
速度 実用
精度 十分

Open WebUI

観点 理由
UX 良い
管理 マルチモデル
履歴 保存可能

運用イメージ

PC起動
↓
Ollama起動
↓
WebUI起動
↓
ブラウザアクセス

得られる価値

ローカル AI

  • オフライン利用可能
  • データ外部送信なし

開発支援

  • コード生成
  • バグ修正
  • 技術相談

まとめ

スペック確認
→ Ollama導入
→ モデル選定(7B)
→ サーバー化
→ WebUI追加

👉 この流れで LAN 内共有できるローカル LLM 環境が構築可能です。

おわりに

ローカル LLM は「思ってるより簡単」に作れます。まずは 7B から触ってみるのがおすすめです 👍

ではまた次の記事でお会いしましょう。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?