4
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

DeepSeek R1を自宅のマシンでサクッと動かす方法 ~Mac編~

Last updated at Posted at 2025-01-30

logo.png

はじめに

世間を賑わせているDeepSeek R1は高性能なオープンソースの大規模言語モデル(LLM)です。公開されてまもなく複数の国の政府、企業が利用制限を呼びかける事態になっています。
使ってみたい、でもデータが収集されるのは怖いので本家のアプリを使うのは躊躇している、そんな方もいると思います。そんな方はローカルマシンで実行を試してみてはどうでしょうか。

「試しにローカルで動かしてみたい!」という方向けに、Macで簡単にセットアップして動かす方法を2パターン紹介します。本記事では、初心者でもわかりやすいように、必要なツールの説明や、モデルの選び方についても詳しく解説します。

本記事の手法に基づくDeepSeek R1の起動は、すべて自己責任で実施してください。モデルはローカルマシンで起動するため入力した情報が外部サーバを経由することはありませんが、セキュリティ上のリスクを完全に否定することはできません。例えばエージェントとしてマシンを操作させる用途で利用するなどといった場合には予期せぬ挙動やバックドアの潜在リスクがあるため、十分ご注意願います。

本記事で使用するモデルについて

DeepSeekには複数のモデルがあり、性能やメモリ使用量が異なります。本記事では、Macのリソースを考慮し、以下の蒸留モデル(Distill)を使用します。つまりDeepSeekアプリと同じ性能がでるわけではないのでその点は注意してください。

  • LM Studio では DeepSeek-R1-Distill-Llama-8B-GGUF
  • Ollama では DeepSeek-R1-Distill-Llama-8B(deepseek-r1:8b)

モデルについては補足情報を後述します。

動作確認済み端末について

本記事の動作確認には以下のMac端末を使用しています。

  • モデル: MacBook Air
  • チップ: Apple M3
  • メモリ: 16GB
  • OS: Sequoia 15.2

DeepSeek R1を動かす方法

本記事では2種類の方法を解説します。

  1. LM Studio を使う
  2. Rancher Desktop + Open WebUI + Ollama を使う

環境によって選択可能ですが、手間が少ない方法1をおすすめします。

方法1: LM Studio を使う

前提環境

この方法では、以下の環境を前提としています。

  • Mac(Apple Silicon または Intel)
  • LM Studio(公式サイトからインストール)

(1) LM Studioをインストール

FireShot Capture 001 - LM Studio - Discover, download, and run local LLMs - lmstudio.ai.png

公式サイトからMac版をダウンロードし、インストールします。

(2) DeepSeekモデルのダウンロード

  1. LM Studioを起動します
    スクリーンショット 2025-01-30 10.50.03.png

  2. "Discover"(探索) タブで deepseek-r1 を検索し モデルDeepSeek-R1-Distill-Llama-8B-GGUFを選択、右下のダウンロードボタンを押します
    スクリーンショット 2025-01-30 10.49.10.png

(3) チャット画面での動作確認

  1. LM Studioの"Chat"タブを開く
    スクリーンショット 2025-01-30 11.01.53.png
  2. 画面上部のLLM選択窓からダウンロードした DeepSeek-R1-Distill-Llama-8B-GGUF を選択
  3. 入力欄に文章を入力し、送信

スクリーンショット 2025-01-30 11.06.07.png

DeepSeek R1がローカルマシンで動作しました。とりあえず試すならこの方法が一番簡単です。

方法2: Rancher Desktop + Open WebUI + Ollama

前提環境

この方法では、以下の環境を前提としています。

  • Mac(Apple Silicon または Intel)
  • Docker環境(Rancher Desktopを使用)
  • Ollama(モデル管理用)
  • Open WebUI(GUIで操作可能)

(1) Rancher Desktop をセットアップ

  1. 公式サイト からダウンロード&インストール
    FireShot Capture 002 - Rancher Desktop by SUSE - rancherdesktop.io.png

  2. インストール時の設定で containerd ではなく dockerd (moby) を有効にする

  3. Rancher Desktopを起動する
    スクリーンショット 2025-01-30 11.11.55.png

(2) Open WebUI のインストール

スクリーンショット 2025-01-30 11.12.16.png

Rancher Desktopの Extensions から Open WebUI をインストール。
インストールされると Extensionsの下にOpen WebUIが並びます。

(3) Ollama をセットアップ

FireShot Capture 003 - Ollama - ollama.com.png

Ollamaをインストールして起動する。

(4) Ollama でDeepSeekをダウンロード。

ターミナルを開き、次のコマンドを実行します。

ollama pull deepseek-r1:8b

Ollamaのモデル一覧はこちらで確認できます。

(5) Open WebUI での動作確認

  1. Rancher DesktopのExtensionsの下にOpen WebUIを開く
    スクリーンショット 2025-01-30 12.22.12.png

  2. Chat画面左上からモデルdeepseek-r1:8bを選択
    スクリーンショット 2025-01-30 12.22.24.png

  3. 入力欄に文章を入力し、送信
    スクリーンショット 2025-01-30 12.25.02.png

まとめ

  • 手軽に試したいならLM Studio
  • コンテナ環境で運用するならRancher Desktop + Open WebUI + Ollama

どちらも簡単に構築できました。

補足情報

モデルについて

DeepSeekには複数のモデルがあり、性能やメモリ使用量が異なります。ここでは、モデル名に含まれる要素の意味を解説します。

モデル名の要素の解説

  • B(Billion): モデルのパラメータ数を表します。たとえば 7B は約70億パラメータを持つことを意味します
  • LLaMA: Meta社が開発したLLMのシリーズで、軽量かつ高性能な構造を持つ
  • Distill: 蒸留(Distillation)技術を使い、元の大きなモデルを圧縮しつつ性能を維持
  • GGUF: GGUFフォーマットにより最適化されたモデルで、ローカル推論に適している
  • q8_0: 量子化(Quantization)を表し、メモリ使用量を削減しながら計算効率を向上

代表的なモデルとその特徴

モデル名 サイズ メモリ使用量 特徴
DeepSeek-7B 約7B 約12GB以上 標準的なLLMモデル、高精度な出力が可能
DeepSeek-R1-Distill-Llama-8B 約8B 約8GB以上 Distill技術で圧縮されており、軽量で扱いやすいモデル
DeepSeek-R1-Distill-Llama-8B-GGUF 約8B 約10GB以上 DeepSeek-R1-Distill-Llama-8BがGGUFフォーマットで最適化されたモデル
DeepSeek-13B 約13B 約24GB以上 より高精度な応答が可能だが、メモリ消費も増加

参考リンク

4
5
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
4
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?