はじめに
世間を賑わせているDeepSeek R1は高性能なオープンソースの大規模言語モデル(LLM)です。公開されてまもなく複数の国の政府、企業が利用制限を呼びかける事態になっています。
使ってみたい、でもデータが収集されるのは怖いので本家のアプリを使うのは躊躇している、そんな方もいると思います。そんな方はローカルマシンで実行を試してみてはどうでしょうか。
「試しにローカルで動かしてみたい!」という方向けに、Macで簡単にセットアップして動かす方法を2パターン紹介します。本記事では、初心者でもわかりやすいように、必要なツールの説明や、モデルの選び方についても詳しく解説します。
本記事の手法に基づくDeepSeek R1の起動は、すべて自己責任で実施してください。モデルはローカルマシンで起動するため入力した情報が外部サーバを経由することはありませんが、セキュリティ上のリスクを完全に否定することはできません。例えばエージェントとしてマシンを操作させる用途で利用するなどといった場合には予期せぬ挙動やバックドアの潜在リスクがあるため、十分ご注意願います。
本記事で使用するモデルについて
DeepSeekには複数のモデルがあり、性能やメモリ使用量が異なります。本記事では、Macのリソースを考慮し、以下の蒸留モデル(Distill)を使用します。つまりDeepSeekアプリと同じ性能がでるわけではないのでその点は注意してください。
-
LM Studio では
DeepSeek-R1-Distill-Llama-8B-GGUF
-
Ollama では
DeepSeek-R1-Distill-Llama-8B(deepseek-r1:8b)
モデルについては補足情報を後述します。
動作確認済み端末について
本記事の動作確認には以下のMac端末を使用しています。
- モデル: MacBook Air
- チップ: Apple M3
- メモリ: 16GB
- OS: Sequoia 15.2
DeepSeek R1を動かす方法
本記事では2種類の方法を解説します。
- LM Studio を使う
- Rancher Desktop + Open WebUI + Ollama を使う
環境によって選択可能ですが、手間が少ない方法1をおすすめします。
方法1: LM Studio を使う
前提環境
この方法では、以下の環境を前提としています。
- Mac(Apple Silicon または Intel)
- LM Studio(公式サイトからインストール)
(1) LM Studioをインストール
公式サイトからMac版をダウンロードし、インストールします。
(2) DeepSeekモデルのダウンロード
(3) チャット画面での動作確認
DeepSeek R1がローカルマシンで動作しました。とりあえず試すならこの方法が一番簡単です。
方法2: Rancher Desktop + Open WebUI + Ollama
前提環境
この方法では、以下の環境を前提としています。
- Mac(Apple Silicon または Intel)
- Docker環境(Rancher Desktopを使用)
- Ollama(モデル管理用)
- Open WebUI(GUIで操作可能)
(1) Rancher Desktop をセットアップ
-
公式サイト からダウンロード&インストール
-
インストール時の設定で
containerd
ではなくdockerd (moby)
を有効にする
(2) Open WebUI のインストール
Rancher Desktopの Extensions から Open WebUI
をインストール。
インストールされると Extensionsの下にOpen WebUIが並びます。
(3) Ollama をセットアップ
Ollamaをインストールして起動する。
(4) Ollama でDeepSeekをダウンロード。
ターミナルを開き、次のコマンドを実行します。
ollama pull deepseek-r1:8b
Ollamaのモデル一覧はこちらで確認できます。
(5) Open WebUI での動作確認
まとめ
- 手軽に試したいなら → LM Studio
- コンテナ環境で運用するなら → Rancher Desktop + Open WebUI + Ollama
どちらも簡単に構築できました。
補足情報
モデルについて
DeepSeekには複数のモデルがあり、性能やメモリ使用量が異なります。ここでは、モデル名に含まれる要素の意味を解説します。
モデル名の要素の解説
-
B(Billion): モデルのパラメータ数を表します。たとえば
7B
は約70億パラメータを持つことを意味します - LLaMA: Meta社が開発したLLMのシリーズで、軽量かつ高性能な構造を持つ
- Distill: 蒸留(Distillation)技術を使い、元の大きなモデルを圧縮しつつ性能を維持
- GGUF: GGUFフォーマットにより最適化されたモデルで、ローカル推論に適している
- q8_0: 量子化(Quantization)を表し、メモリ使用量を削減しながら計算効率を向上
代表的なモデルとその特徴
モデル名 | サイズ | メモリ使用量 | 特徴 |
---|---|---|---|
DeepSeek-7B |
約7B | 約12GB以上 | 標準的なLLMモデル、高精度な出力が可能 |
DeepSeek-R1-Distill-Llama-8B |
約8B | 約8GB以上 | Distill技術で圧縮されており、軽量で扱いやすいモデル |
DeepSeek-R1-Distill-Llama-8B-GGUF |
約8B | 約10GB以上 | DeepSeek-R1-Distill-Llama-8BがGGUFフォーマットで最適化されたモデル |
DeepSeek-13B |
約13B | 約24GB以上 | より高精度な応答が可能だが、メモリ消費も増加 |