はじめに
推論において優れた性能を発揮し、オープンソースであるため無料のAIを探しているなら、新しく立ち上げられたDeepSeek R1は素晴らしい選択です。これはGPT-4、o1-mini、Claude 3.5などのモデルと競争し、それを上回っています。テストした結果、非常に良いと感じました!
Visual Studio CodeでGitHub Copilotに似たコードエージェントとして直接使用し、コストをかけずに使用したい場合、LM Studio、Ollama、Janなどのツールを使ってその方法をお見せします。
最近なぜDeepSeek R1が話題なのか?
- 無料でオープンソース:多くのモデルは高額ですが、これは無料で使用可能です。https://chat.deepseek.comでチャットもできます
- パフォーマンス:論理、数学、さらにはコード生成(私のお気に入りの部分)で他のモデルよりも優れています
- 複数のバージョン:ローカルに実行するために(LLM)、1.5Bから70Bパラメータまでのモデルがあります。あなたのハードウェアに最適なものを選びましょう
- 簡単に統合:ClineやRoo Codeのような拡張機能を使用してVSCodeに接続できます
- コストなし:ローカルで実行すれば、トークンやAPIにお金を払う必要はありません。グラフィックカードをお勧めします、CPUのみで動作させると遅いですので
始める前の重要なヒント
- リソースを節約:PCの性能があまり高くない場合は、小さいモデル(1.5Bまたは7Bパラメータ)または量子化版を選んでください
- RAM計算機:LLM Calcを使用して必要な最低RAMを確認します
- プライバシー:ローカルで実行することでデータが外部サーバーに送信されず、PCに保持されます
- コストなし:ローカルで無料で実行できますが、DeepSeek APIを使用する場合、トークンの支払いが必要です。良いニュースは、競合他社よりも価格が低いことです
どのモデルを選ぶべきか?あなたのPC次第で決まります!
-
1.5B パラメータ:
- 必要な RAM: 約4 GB
- GPU: 統合(NVIDIA GTX 1050など)またはモダンCPU
- 狙い:シンプルなタスクと平凡なPC用
-
7B パラメータ:
- 必要な RAM: 約8-10 GB
- GPU: 専用(NVIDIA GTX 1660以上)
- 狙い:中級タスクとより良いハードウェアを持つPC用
-
70B パラメータ:
- 必要な RAM: 約40 GB
- GPU: 高性能(NVIDIA RTX 3090またはそれ以上)
- 狙い:複雑なタスクと非常に強力なPC用
DeepSeek R1をローカルで実行する方法
-
- LM Studioをダウンロードしてインストール:LM Studioのウェブサイトでシステムに合ったバージョンをダウンロードしてください
- DeepSeek R1モデルのダウンロード:LM StudioのDiscoverタブに移動し、「DeepSeek R1」と検索して、システムに最も適したバージョンを選択します。Appleプロセッサを搭載したMacBookを使用している場合は、検索バーの横でMLXオプションを選択したままにしておいてください(これらのバージョンはAppleハードウェア用に最適化されています)。WindowsまたはLinuxの場合は、GGUFオプションを選択します
- モデルをロード:ダウンロード後、Local Models に移動し、DeepSeek R1を選択してLoadをクリックします
-
ローカルサーバーを開始:DeveloperタブでStart Serverを有効にします。
http://localhost:1234
でモデルが動き始めます - 4のステップに進んでVSCodeに統合しましょう!
-
-
Ollamaをインストール:Ollamaのウェブサイトからダウンロードしてインストールします
-
インストール確認:
ollama --version
-
モデルをダウンロード:ターミナルで次を実行:
ollama pull deepseek-r1
-
*これはメインモデルです。より小さいモデルが欲しい場合は、https://ollama.com/library/deepseek-r1 にアクセスし、ターミナルで実行するコマンドを確認してください。
-
サーバーを開始:ターミナルで実行:
ollama serve
このコマンドは、
http://localhost:11434
でモデルの実行を開始します。 -
4のステップに進んでVSCodeに統合しましょう!
- Janをダウンロードしインストール:Janのウェブサイトでお使いのシステムに合ったバージョンを選択してください
- モデルをダウンロード:JanではDeepSeek R1を直接見つけられませんでした。Hugging Faceのウェブサイトに行き、「unsloth gguf deepseek r1」と検索しました。該当するモデルを見つけ、「このモデルを使用」ボタンをクリックし、オプションとしてJanを選択しました。モデルは自動的にJanで開き、その後ダウンロードしました
- モデルをロード:ダウンロード後、モデルを選択してLoadをクリックします
-
サーバーを開始:Janは通常、
http://localhost:1337
でサーバーを自動的に開始します - 4のステップに進んでVSCodeに統合しましょう!
4.VSCodeへの統合
- 拡張機能をインストール:VSCodeでExtensionsタブを開き、ClineまたはRoo Codeをインストールします
-
JanまたはLM Studio用に拡張機能を設定:ClineとRoo Codeの設定はほぼ同じです。以下の手順に従ってください:
- 拡張機能をクリックし、"Settings"にアクセスします
- API Providerで"LM Studio"を選択します
- Base URL欄に、JanまたはLM Studioで設定したURLを入力します
- モデルが1つしかない場合、Model ID欄は自動で埋められます。そうでない場合は、ダウンロードしたDeepSeekモデルを手動で選択します
- "Done"をクリックして設定を終了します
-
Ollama用に拡張機能を設定:
- 拡張機能をクリックし、"Settings"にアクセスします
- API Providerで"Ollama"を選択します
- Base URL欄に、Ollamaで設定したURLを入力します
- モデルが1つしかない場合、Model ID欄は自動で埋められます。そうでない場合は、ダウンロードしたDeepSeekモデルを手動で選択します
- "Done"をクリックして設定を終了します
結論
DeepSeek R1は、強力なAIを費用をかけずに求める人々にとって救いの存在です。LM Studio、Ollama、またはJanを使用することで、ローカルで実行し、Visual Studio Codeに直接統合することができます。自分のPCに合ったモデルを選んで、今日から使用を開始しましょう!