秘伝のレシピとか、持ち込み前の小説とか、ブラッシュアップのために生成AIを使いたいけど、情報を吸い上げられるのはヤダな...
自分のパソコンの中だけで動く生成AIがあればいいなぁ。
そんな悩みを解決するため、いろいろ調べていくと辿り着くうちのひとつ。
"Ollama + Open WebUI
"
「ターミナルデコレラノコマンドヲウチマス」
brew install ollama
ollama run example
docker pull ghcr.io/open-webui/open-webui:main
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
どゆこと?ターミナルって何?
「あーもうよくわかんね調べた時間損した!」
という強い憤りを感じながらNetflixを楽しんでいるアナタに救済を。
このページにアクセスしていただき、ありがとうございます。
ここではOllamaとOpen WebUIの仕組み、概念を理解していただくことを目的としています。 未知のものを理解することで、導入のハードルが一気に下がると考えているからです。
この記事が皆さんのお役に立てれば幸いです。
それでは、いってみましょう!
※本記事は理解に重きを置いているので、細かい仕組み等は無視しています。そのため、厳密には正しくない表現もあります。
また、詳しい導入方法については記載していません。ご了承ください。
Ollama とは?
そもそもの大前提として、生成AIを使うためには膨大な知識を学習したLLM
というシステムが必要です。
いわゆる、物知り博士ですね。
LLM
生成AIを利用するとは、この博士に質問し回答をもらうことです。
しかし、博士の知識レベルは人智を超越してしまっているので、我々人間には何を言っているのかサッパリ分かりません。こまった。
そこで登場するのが、博士専属の通訳者です。これがOllama
です。
Ollama
通訳者が間に入ってくれるおかげで、会話が成立するようになりました。
憤りを感じる。
ただ、これでは通訳者とメールのやり取りしかできない状態です。せっかくだし、テレビ電話で視覚的にやりとりしたいですよね?
このテレビ電話の役目を果たすのがOpen WebUI
です。
Open WebUI とは?
生成AIを使うユーザーと通訳者(Ollama)を視覚的に繋いでくれる役割を果たします。
必須ではありませんが、とても便利なので導入することを強くお勧めします。
使わなくても問題ないのはITガチ勢だけです。
他の生成AIと同じく、クロームなどのブラウザで使用します。
日本語にも対応しており、シンプルで使いやすいことが特徴です。
OllamaとOpen WebUIを組み合わせることで、ローカル(情報が外に出ない環境)で生成AIを使用できるようになります。
一連の流れ
最後に、ローカル環境で生成AIを動かした時の流れを確認していきましょう。
・通訳者(Ollama)に質問を投げかけます。身振り手振りも伝わるように、テレビ電話(Open WebUI)を使いましょう。
「おなかすいた」
・通訳者はユーザーの質問を博士(LLM)に伝えます。
「体内のエネルギー供給が不足し、血糖値の低下に伴う視床下部の摂食中枢が活性化し、グレリンなどのホルモン分泌が増加した結果、摂食行動を促す感覚が顕在化している状態です。」
・博士は通訳者に回答を伝えます。
「空腹感の認知は、生体内のエネルギーホメオスタシス維持において重要な役割を果たしており、視床下部弓状核を介した摂食中枢と満腹中枢の調節により、内因性ホルモン(例: グレリン、レプチン)の分泌変動が、神経伝達物質を通じて意識レベルでの感覚として表出する、進化的に保存された生理的現象である。」
・通訳者がテレビ電話でユーザーに回答します。
「空腹を感じるのは自然なことです」
以上が一連の流れになります。
おまけ: 実際にOllamaとOpen WebuUIを導入するには?
前提条件として以下のものが必要です。
- それなりのスペックがあるPC
- ターミナル、もしくはコマンドプロンプトの基礎知識
- Dockerの基礎知識
今回はOllamaとOpen WebUIの仕組みや概念を説明しました。
ここまで読んでいただき、ありがとうございました!