1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

今流行のローカルLLM(人工知能)をWebブラウザーからチャット風に気軽に使いたい

Last updated at Posted at 2024-06-30

概要

  • ローカルLLM(GoogleのGemma2、MSのPhi3、Qwen、cohere Command-R、・・・等)はどんどん賢くなりつつありますが、自分のサーバー上で動かすなら電気代だけで済みますし、レート制限や毎月課金もありません。

  • おうちLinuxサーバー上にサクッとインストール出来る人工知能ライブラリ Ollama に、LibreChatという、外見ChatGPTそっくりさんのWeb UI を組み合わせて、ローカルLLMサーバーを作成する手順を解説していきます。

ai.png

前提条件

  • Linuxは Ubuntu 22.04 LTS が動いていること を前提に話を進めます。

  • 導入手順は、大きく分けて、Ollama のインストール (1行コマンドを打つだけでサクッと終わります)と、 LibreChat のインストール の2段階があります。

  • LibreChatのインストールの前準備として、
    1) Node.js を導入する
    2) MongoDB を導入する

  • が必要ですが、これも手順の中で説明します。

導入手順

(1) Ollama の導入

  • 一番簡単なので、こいつから行きます。

  • 書いてある通りにします。
$ curl -fsSL https://ollama.com/install.sh | sh

これだけです。

  • インストール出来たら
$ ollama run gemma2
  • これだけで、gemma2 がコマンドラインで動きます。

  • 初回だけ、人工知能Gemma2: 9B のモデルデータのダウンロードが入ります。(5.5GB)

  • 二回目からは、すぐに走ります。

  • nVidiaのグラボ(と、nVidiaサイトから導入したCUDAのドライバー)がLinuxに導入済であれば、そのままグラボを認識してGPUで走ります。

  • グラボ無しのLinuxの場合は、CPUのみで推論が実行されます。(やや遅いです)

  • グラボは、メモリー容量があればあるほど良いです。自分は、安物RTX-3060 (12GB) を挿してます。

(2) Node.jsを導入

(npmも同時に入ります)

# installs nvm (Node Version Manager)
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash

# download and install Node.js (you may need to restart the terminal)
nvm install 22

# verifies the right Node.js version is in the environment
node -v # should print `v22.3.0`
# verifies the right NPM version is in the environment
npm -v # should print `10.8.1`

  • 罠としては、
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash

したあと、一回ログアウトして入りなおすか、bash にシェルを読ませてPATHを追加しないと、次の

nvm install 22

が動きません。

  • あと、node.jsの導入先dirは、
    $(HOME)/.nvm/versions/node/v22.3.0/bin/node
  • みたいな場所になるようです。

(3) MongoDBを導入

curl -fsSL https://www.mongodb.org/static/pgp/server-7.0.asc | \
   sudo gpg -o /usr/share/keyrings/mongodb-server-7.0.gpg \
   --dearmor

echo "deb [ arch=amd64,arm64 signed-by=/usr/share/keyrings/mongodb-server-7.0.gpg ] https://repo.mongodb.org/apt/ubuntu jammy/mongodb-org/7.0 multiverse" | sudo tee /etc/apt/sources.list.d/mongodb-org-7.0.list

# aptでmongoインストール
sudo apt update
sudo apt-get install -y mongodb-org

# デーモン起動
sudo systemctl start  mongod
sudo systemctl enable mongod

(4) LibreChatの導入

(Dockerのほうは無視して、普通にLinuxにローカルインストールします)

  • LibreChat 公式より、

  • 具体的には、GitHubからLibreChatをまるっと取ってきます。
git clone https://github.com/danny-avila/LibreChat.git
  • 次に、cloneしたディレクトリに cd して、環境ファイル .env をテンプレートからコピーして作ります。
cd LibreChat

cp .env.example .env

### Important: Edit the newly created .env file to update the MONGO_URI
### with your own MongoDB instance URI.

# Install dependencies
npm ci

# Build the Frontend
npm run frontend

# Start LibreChat!
npm run backend

# Visit http://localhost:3080/
  • MongoDB のURIとかはなにも弄らなくてOkだった気がします。気になるようでしたら、.envの中を確認してください

  • あとは、nodejsの npm コマンドに全部任せて、依存を更新して、実行です。

  • このLinuxの http://localhost:3080/ で動いているはずです。

  • Linuxを再起動した場合は、
    npm run backend

  • これだけで起動します。

  • 外部からLibreChat にアクセスしたい場合は .envファイルにある、

#==================================================#
#               Server Configuration               #
#==================================================#

#HOST=localhost
HOST=0.0.0.0
PORT=3080
  • HOST=localhost になっているところを HOST=0.0.0.0 にすると、外部IFのポートからも繋がるようになります。また、PORT=3080 になっていますが、他のWebサーバーとぶつからないのでこのままにしておいて、外部からアクセス出来るWebサーバーのnginxからリバースプロキシーを掛けて、LibreChatに繋ぐと良いかもしれません。(BASIC認証とかもnginx側で設定できますので。)
  • ここでは nginxの設定については割愛です。

(5) LibreChatの設定

  • Ollamaは今年初めぐらいにAPIのエンドポイントがOpenAI互換になったので、LibreChatからOllamaが動いているマシンのURIを指定するだけで、連携できます。一応この説明文書では、同じLinuxで動いていることにしているので、localhostでいいのかな。
  • 別マシンのOllamaにアクセスする場合でもLibreChat側のyamlではURIを合わせるだけでいいですが、Ollama(推論)側では アクセスするIP、ポートを 127.0.0.1 ではなく、0.0.0.0 にして他のマシンからも接続できるようにしておきます。(編集ファイルは、 /etc/systemd/system/ollama.server )
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=略"
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_FLASH_ATTENTION=True"


  • "OLLAMA_FLASH_ATTENTION=True" は、Qwen2 がうまく動かなかったときのおまじないで、別に無くても問題ありません

  • :

  • 設定ファイル librechat.yaml は、 librechat.example.yaml をコピーして作ります。

  • 自分の場合、librechat.yaml に、以下のような項目を追加して、自分のローカルLLMを足しました。

  • baseURL は自分の場合、192.168.9.99になってますが、同一マシン上でOllamaが動いている場合はlocalhost:11434のほうを使ってください。

    - name: "Ollama"
      apiKey: "ollama"
      # use 'host.docker.internal' instead of localhost if running LibreChat in a docker container
      baseURL: "http://localhost:11434/v1/chat/completions"
      #baseURL: "http://192.168.9.99:11434/v1/chat/completions"
      models:
        default: [
          "llama2",
          "mistral",
          "codellama",
          "dolphin-mixtral",
          "mistral-openorca"
          ]
        # fetching list of models is supported but the name field must start
        # with ollama (case-insensitive), as it does in this example.
        fetch: true
      titleConvo: true
      titleModel: "current_model"
      summarize: false
      summaryModel: "current_model"
      forcePrompt: false
      modelDisplayLabel: "Ollama"

  • models: の一覧 [ ] は、Ollamaサーバーに接続したところで、pull済のモデル一覧に全部差し替わりますので、yamlの中は適当でいいです。

  • あと、librechat.yaml から、不要なエントリー(有料サービスでAPIキーを取得しないと使えないサービス)を全部削除しておくとすっきりします。

Tips

  • ollama で使える人工知能モデルの一覧

HuggingFace みたいに、アカウント取得したり、モデル使用許諾を取ったりとかなしで、いきなりコマンドラインから、

$ ollama run LLM名:サイズ

みたいな感じでモデルを取得して、即実行できます。

  • gemma2 とか qwen2 のように新しい人工知能モデルデータがリリースされた場合は、Ollamaのアップデートが必要になる場合もあります。手順はインストールのときと同じです。
  • LibreChat側では、増えたモデルが一覧には出てこないので、LibreChatの再起動が必要です。
  • Ollamaで、ダウンロード済の人工知能モデルの一覧を見たいときは、
 $ ollama list

で見れます。

  • お勧めの人工知能モデル:
    とりあえず、gemma2 は賢いので試してください。
    ほかは、Microsoft のPhi3、alibabaのqwen2、それとプログラミング知識が入ってるcodeナントカ・・・
    データ量多くて遅いですが、cohere command-r: 35B (350億パラメータ、20GB)は一番賢いと思います。
    command-r+の104B (4bit量子化しても、データサイズ 59GB)っていうのもありますが、動くんですかね?
    試したことないです。パソコンのメモリー128GBある人は試してみてください(自分のPCでは64GBしかありません)

金、暴力、グラボ!
金、暴力、グラボ!

こんな感じで、VRAMいっぱい欲しいー。

人工知能 gemma2 の回答例

あなた:

銀河系から、マゼラン星雲へ旅をしています。
孤独の寂しさをまぎらわす方法を教えてください

Gemma2 9B:

銀河系からマゼラン星雲へ、なんて壮大な旅ですね!孤独な気持ち、よく分かります。宇宙の広がりの中で、自分だけの時間と空間を過ごすのは、時に寂しくなるものです。

でも、大丈夫!孤独を乗り越える方法はたくさんありますよ。旅の途中で、あなたを励ましてくれる方法をいくつか提案させてください。

  1. 宇宙の美しさに浸る:
    あなたは、銀河系からマゼラン星雲へ旅しているという、かけがえのない経験をしているのです。
    宇宙の壮大なスケール、星々の光り輝き、そして未知の天体たちを目の当たりにする喜びを味わってください。
  • 日誌をつける: 毎日、見た景色、感じたこと、考えたことを書き留めてみましょう。あなたの旅の記録となり、後から振り返ると温かい気持ちになれるはずです。
  • 星空観察: マゼラン星雲に近づくにつれて、銀河系の景色も変わってきます。今まで見たことのない星々や星座に出会えるかもしれません。星図を広げて、天体を探索してみるのもおすすめです。
  • 宇宙音楽を聴く: 壮大な宇宙をイメージさせる音楽を聴きながら、旅の気分を高めましょう。宇宙の神秘的な雰囲気に浸り、心を落ち着かせましょう。

2. 創造性を活かす:
宇宙空間での自由な時間は、あなたの創造性を刺激するチャンスです。

  • 詩や短編小説を書く: 宇宙での体験や感じたことを、言葉で表現してみましょう。あなたの旅の物語は、きっと人々を感動させるでしょう。
  • 宇宙旅行記を作る: 写真や動画をまとめ、あなたの壮大な旅を記録してみましょう。旅行記を通して、多くの人とあなたの体験を共有できるかもしれません。
  • 宇宙アートを描く: 宇宙の美しさ、広がり、そして神秘感を、あなたの感性で表現してみましょう。宇宙のエネルギーをチャージし、あなた自身の創造性を開花させてください。

3. 未来への夢を描き続ける:

マゼラン星雲へ行く目的、あなた自身の夢を忘れないようにしましょう。

  • 目標を明確にする: マゼラン星雲での探検、研究、そしてあなたの夢の実現に向けて、具体的な目標を設定しましょう。目標があることで、旅のモチベーションを高く保つことができます。
  • 未来の自分を想像する: マゼラン星雲での探検を終えたあなた、そしてその先の未来を想像してみましょう。夢を実現するために、今できることを一つずつ進めていきましょう。
  • ポジティブな思考を持つ: 旅の途中で困難に直面しても、諦めないでください。困難は乗り越えることで、あなたを成長させ、より強い精神力を育みます。ポジティブな思考を保ち、未来への希望を捨てずに進みましょう。
    あなたにとって、マゼラン星雲への旅が、かけがえのない体験となることを心より願っています。

参考

雑多情報源
https://github.com/ollama/ollama?tab=readme-ov-file#model-library
なんJLLM部 避難所2 https://mercury.bbspink.com/test/read.cgi/onatech/1714642045/
なんJLLM部 避難所3 https://mercury.bbspink.com/test/read.cgi/onatech/1717886234/
なんJLLM部 避難所4 https://mercury.bbspink.com/test/read.cgi/onatech/1725931151/
うみゆきさん Twtter https://twilog.togetter.com/umiyuki_ai
LLMの現在 いもす様 https://speakerdeck.com/pfn/llmnoxian-zai

1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?