概要
注目のDeepSeek R1がリリースされました。
o1と同等の能力を持つと噂ですが、ローカルでも実用的な軽さで動かせるとのことで試してみます。
前提条件
- Dockerがインストールされていること
- Docker Composeがインストールされていること
1. Ollamaのダウンロード・インストールと実行
からollamaをダウンロードしインストールをしてください。
- macOS
- Linux
- Windows
OSに合わせて選んでください
インストール完了後、以下のコマンドを実行してください
ollama run deepseek-r1:8b
実行後以下のようなログが出るのでしばらく待ちましょう
実行エラーが発生する場合は
ollama serve
を実行して、ollamaを起動してから、ollama run deepseek-r1:8b
を実行しましょう。
だいぶ待たされると思いますが、
実行ができる状態になりましたら、
>>> Send a message
と表示されるので、会話してみましょう。
ちっす
とメッセージを送ってみました。
回答が来ましたね。
ちょっと日本語が怪しいですが、そのまま進めてください。
2. Docker Composeファイルの作成
Open WebUIを立ち上げるための設定ファイルを作成します。
docker-compose.yml
ファイルを作成し、以下の内容を記述します。
version: '3.8'
services:
open-webui:
image: ghcr.io/open-webui/open-webui:main
ports:
- "127.0.0.1:3000:8080"
volumes:
- open-webui:/app/backend/data
extra_hosts:
- "host.docker.internal:host-gateway"
volumes:
open-webui:
3. Docker Composeでコンテナを起動
つづいて先ほどdocker-compose.yml
ファイルを作成した場所で以下のコマンドを実行し、Open WebUIのコンテナを起動します。
docker compose up
起動したら下記のログが出ます。
4. Open WebUIを開く
docker compose up
コマンドを実行してコンテナが正常に起動したら、ブラウザで以下のURLにアクセスしてOpen WebUIを開いてください。
初回アクセス時にはAdminの
- ユーザー名
- メールアドレス
- パスワード
の入力が求められますが、任意の文字を入力して問題ありません。ローカル環境ですので。
- ユーザー名
- メールアドレス
- パスワード
の入力が完了したら、すぐにDeepseek R1とのチャットが開始できます。
もっさり感が気になりますが、あとはローカル環境ですので好き放題できます。