GPT4-Turbo に匹敵するパフォーマンスを実現するDeepseek-coder-v2でフリーでサクサク動くAIコーディング環境を構築する。
目次
はじめに
DeepSeek Coder v2を使用して、無料で高速なAIコーディング環境を構築できます。
GPT-4 Turbo相当の性能を持つAIを無制限に利用可能です。
VS Codeと連携し、ローカル環境でコード補完や修正をスムーズに実行することが可能です。
制限なしで利用でき、ChatGPTの無料版の制限に悩まされることがなくなります。
環境
本記事ではリモートPCとしてUbuntuサーバーを使用します。
リモート用のパソコン
項目 | 説明 |
---|---|
os | Windows 11 |
cpu | 4コア |
RAM | 16G |
disk | 1T |
GPU | no |
Ubuntuサーバーの構成
項目 | 説明 |
---|---|
os | Ubuntu 24.04.1 LTS (GNU/Linux 6.8.0-51-generic x86_64) |
cpu | 6コア / 12スレッド |
RAM | 32G |
disk | 2T |
disk2 | 1T |
GPU | no |
DeepSeek-Coder-v2とは
DeepSeek Coderは、オープンソースのLLMで、GPT-4 Turbo相当の性能を持つAIモデルです。
DeepSeek Coder v2(16B)は、コード補完、デバッグ支援、コード生成が可能です。
Python、C++、Node.js、Dart、JavaScript、PHP
多数の言語に対応しています。
ローカルで動作しするため、外部へのインターネット接続なしで使用可能です。
また、クラウドサーバーを使わない為、セキュリティも高いです。
ライセンス
DeepSeek Coderはオープンソースのライセンスの下で提供されているため、
商用利用も可能です。
詳しくは、ChatGPTに聞いてみてください。
丁寧に教えてくれると思います。
Ollama 環境を構築
Ollamaは、ローカル環境でAIモデルを簡単に実行できるフレームワークです。
Ollamaのインストール
Ubuntuサーバーを使っているため、以下のコマンドを実行してOllamaをインストールします。
curl -fsSL https://ollama.com/install.sh | sh
DeepSeek Coder v2 16Bをダウンロード
正確にモデル性能が発表されておりませんが、
公式サイトの記載では、GPT-4 Turbo相当の性能であるようです。
モデルが8.9GBのサイズため、ダウンロードに時間がかかります。
また、16Bのモデルは、CPUのRAMが16GB以上必要です。
ollama pull deepseek-coder-v2:16b
モデルを実行
ollama run deepseek-coder-v2:16b
VSCodeでのContinue.devの設定方法
Continue拡張機能
Continueは、VS CodeでAI補完を行うための拡張機能です。
他にも、CatGPTやTabNineなどの拡張機能もありますが、
Continueは最も高性能な拡張機能です。
インストール
VS Codeの拡張機能マーケットプレイスでContinueを検索し、
インストールします。
settings.jsonに以下を追加
{
"continue.server": "http://localhost:11434"
}
使用方法
下記は一例ですが、ChatGPTのような使い方ができます。
・コード補完
・コードを入力すると、自動的に補完候補が表示される
・コメントを入力すると、コードの修正提案が表示される
・デバッグ支援
・エラーの詳細解析
・最適な修正方法の提案
・テストコードを自動生成
・コードの品質向上
一番のおすすめポイント
現在のプロジェクトを分析した上で、最適な修正方法を提案してくれる点です。
これにより、開発効率が大幅に向上します。
チームでの開発において、コードの品質を一定に保つことができます。
今後について
弊社で使用している開発サーバーは、GPUを搭載しておりません。
そのため、今後はGPUを購入し、よりレスポンスの向上が期待できます。
モデルによっては、RAMの容量が足りない場合もあります。
そのため、RAMの容量を増やすことも今後の課題です。
参考文献とリンク
株式会社アマテック 公式サイト
※Tech ブログで記載されている内容です。