はじめに
Open WebUIでChatGPTとClaudeとCerebras(Llam3.1)が使える環境を立ち上げてみました。それぞれWebのコンソールがあるのでそれを使えばよいのですが、ただローカルで立ち上げてみたかったというだけです。APIだと高性能なモデルを従量課金で使えるのがいい。
前提条件
Dockerが動作するUbuntu上でWeb UI環境を立ち上げます。Macでも動作すると思います。
ChatGPTのAPIキー取得
以下からAPIキーを取得する。WebUIのDockerを立ち上げるときに使う。
ClaudeのAPIキーを取得
以下からAPIキーを取得する。ClaudeのAPIキーはDockerの起動オプションではなく、Functionsから入力する。
Cerebras(Llama3.1)のAPIキーを取得
以下からAPIキーを取得する。Cerebrasはプロセッサーの名前で、その上で走るLlama3.1が使える。非常に高速なのが特色。今は普及活動中らしく、トークンの制限はあるが無料で使える。
Open WebUIのインストール
以下の「Installation for OpenAI API Usage Only」のコマンドでWebUIをインストール(Dockerを起動)する。Dockerの起動オプションでChatGPTのAPIキー
を使う。インストールが終わると、ブラウザに [IPアドレス]:3000
と入れればWebUIが起動できる。
Claude(Anthropic)のFunctionを追加してAPIキーを設定
これがちょっとわかりにくい。AnthropicはWebUIの追加ファンクションとして配布されている。以下からAnthropicをGetして保存を押す。保存を押さないと追加されないので注意。
WebUIの左側のワークスペース→FunctionsにAnthropicが追加されているので、そこの歯車マークからAPIキーを入力するとClaudeが使えるようになる。
CerebrasのAPIキーを設定
WebUIの左下のユーザー名から管理者パネル
→設定
→接続
を選ぶ。OpenAIのAPIキーはすでに入っているので、右側の+
を押して行を追加して、左側に https://api.cerebras.ai/v1
と入れて、右側にAPIキーを入力する。一番右のボタンを押すと接続確認ができる。
モデルを使う
設定がうまくいくと、いろんなLLMモデルを選択したり、3つのLLMモデルを同時に使ったりすることができる。
所感
ひょっとしたら外部でこのようなサービスがあるのかもしれないが、なんとなくWebUIの使い方を理解したかったのでやってみました。すごく簡単ですね。Llama3.1は自分のテイストに合う回答をくれない。ChatGPTがやっぱり一番いいかな。Claudeはまだちょっと良さがわかってない。複雑な処理をやらせたら差がでるのかも。
ローカルでLlama3.2を動かしてみてもいいのですが、性能のいいモデルは動かせないのであまりやる気がわかない。最新版のMac miniは64GBのユニファイドメモリを乗せれば70Bは動くらしいので、手に入れたらLlama3.2オンプレミスをやってみようと思います。