61
51

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

LM StudioとOllamaで動くDeepSeek R1の力を体験

Last updated at Posted at 2025-01-26

はじめに

推論において優れた性能を発揮し、オープンソースであるため無料のAIを探しているなら、新しく立ち上げられたDeepSeek R1は素晴らしい選択です。これはGPT-4、o1-mini、Claude 3.5などのモデルと競争し、それを上回っています。テストした結果、非常に良いと感じました!

r1-1.png

Visual Studio CodeでGitHub Copilotに似たコードエージェントとして直接使用し、コストをかけずに使用したい場合、LM StudioOllamaJanなどのツールを使ってその方法をお見せします。

最近なぜDeepSeek R1が話題なのか?

  • 無料でオープンソース:多くのモデルは高額ですが、これは無料で使用可能です。https://chat.deepseek.comでチャットもできます
  • パフォーマンス:論理、数学、さらにはコード生成(私のお気に入りの部分)で他のモデルよりも優れています
  • 複数のバージョン:ローカルに実行するために(LLM)、1.5Bから70Bパラメータまでのモデルがあります。あなたのハードウェアに最適なものを選びましょう
  • 簡単に統合ClineRoo Codeのような拡張機能を使用してVSCodeに接続できます
  • コストなし:ローカルで実行すれば、トークンやAPIにお金を払う必要はありません。グラフィックカードをお勧めします、CPUのみで動作させると遅いですので

DeepSeek-r1.jpg

始める前の重要なヒント

  • リソースを節約:PCの性能があまり高くない場合は、小さいモデル(1.5Bまたは7Bパラメータ)または量子化版を選んでください
  • RAM計算機LLM Calcを使用して必要な最低RAMを確認します
  • プライバシー:ローカルで実行することでデータが外部サーバーに送信されず、PCに保持されます
  • コストなし:ローカルで無料で実行できますが、DeepSeek APIを使用する場合、トークンの支払いが必要です。良いニュースは、競合他社よりも価格が低いことです

どのモデルを選ぶべきか?あなたのPC次第で決まります!

  • 1.5B パラメータ

    • 必要な RAM: 約4 GB
    • GPU: 統合(NVIDIA GTX 1050など)またはモダンCPU
    • 狙い:シンプルなタスクと平凡なPC用
  • 7B パラメータ

    • 必要な RAM: 約8-10 GB
    • GPU: 専用(NVIDIA GTX 1660以上)
    • 狙い:中級タスクとより良いハードウェアを持つPC用
  • 70B パラメータ

    • 必要な RAM: 約40 GB
    • GPU: 高性能(NVIDIA RTX 3090またはそれ以上)
    • 狙い:複雑なタスクと非常に強力なPC用

DeepSeek R1をローカルで実行する方法

  1. LM Studioを使う
    lmstudio-2.png

    • LM StudioをダウンロードしてインストールLM Studioのウェブサイトでシステムに合ったバージョンをダウンロードしてください
    • DeepSeek R1モデルのダウンロード:LM StudioのDiscoverタブに移動し、「DeepSeek R1」と検索して、システムに最も適したバージョンを選択します。Appleプロセッサを搭載したMacBookを使用している場合は、検索バーの横でMLXオプションを選択したままにしておいてください(これらのバージョンはAppleハードウェア用に最適化されています)。WindowsまたはLinuxの場合は、GGUFオプションを選択します
    • モデルをロード:ダウンロード後、Local Models に移動し、DeepSeek R1を選択してLoadをクリックします
    • ローカルサーバーを開始DeveloperタブでStart Serverを有効にします。http://localhost:1234でモデルが動き始めます
    • 4のステップに進んでVSCodeに統合しましょう
  2. Ollamaを使う
    ollama-1.png

    • OllamaをインストールOllamaのウェブサイトからダウンロードしてインストールします

    • インストール確認

      ollama --version
      

      image-59.png

    • モデルをダウンロード:ターミナルで次を実行:

      ollama pull deepseek-r1  
      

*これはメインモデルです。より小さいモデルが欲しい場合は、https://ollama.com/library/deepseek-r1 にアクセスし、ターミナルで実行するコマンドを確認してください。

  • サーバーを開始:ターミナルで実行:

    ollama serve
    

    このコマンドは、http://localhost:11434 でモデルの実行を開始します。

  • 4のステップに進んでVSCodeに統合しましょう

3.Janを使う
jan-3.png

  • JanをダウンロードしインストールJanのウェブサイトでお使いのシステムに合ったバージョンを選択してください
  • モデルをダウンロード:JanではDeepSeek R1を直接見つけられませんでした。Hugging Faceのウェブサイトに行き、「unsloth gguf deepseek r1」と検索しました。該当するモデルを見つけ、「このモデルを使用」ボタンをクリックし、オプションとしてJanを選択しました。モデルは自動的にJanで開き、その後ダウンロードしました
  • モデルをロード:ダウンロード後、モデルを選択してLoadをクリックします
  • サーバーを開始:Janは通常、http://localhost:1337でサーバーを自動的に開始します
  • 4のステップに進んでVSCodeに統合しましょう

4.VSCodeへの統合

  • 拡張機能をインストールVSCodeでExtensionsタブを開き、ClineまたはRoo Codeをインストールします

cline-or-roo-code.png

  • JanまたはLM Studio用に拡張機能を設定:ClineとRoo Codeの設定はほぼ同じです。以下の手順に従ってください:

    • 拡張機能をクリックし、"Settings"にアクセスします
    • API Providerで"LM Studio"を選択します
    • Base URL欄に、JanまたはLM Studioで設定したURLを入力します
    • モデルが1つしかない場合、Model ID欄は自動で埋められます。そうでない場合は、ダウンロードしたDeepSeekモデルを手動で選択します
    • "Done"をクリックして設定を終了します
  • Ollama用に拡張機能を設定

    • 拡張機能をクリックし、"Settings"にアクセスします
    • API Providerで"Ollama"を選択します
    • Base URL欄に、Ollamaで設定したURLを入力します
    • モデルが1つしかない場合、Model ID欄は自動で埋められます。そうでない場合は、ダウンロードしたDeepSeekモデルを手動で選択します
    • "Done"をクリックして設定を終了します

ApidogとDeepSeek R1が手を組んで、開発体験を次のレベルへ!ApidogでAPIテストが簡単に、DeepSeek R1でコード生成もばっちり。効率と精度がぐんとアップ!今すぐ試して、開発をもっと楽しく、スムーズにしよう!

apidog-client-1.png

結論

DeepSeek R1は、強力なAIを費用をかけずに求める人々にとって救いの存在です。LM Studio、Ollama、またはJanを使用することで、ローカルで実行し、Visual Studio Codeに直接統合することができます。自分のPCに合ったモデルを選んで、今日から使用を開始しましょう!

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
61
51

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?