DeepSeek V4 API 移行完全ガイド【2026年版】— 7月24日までに対応すべきこと
2026年4月24日にリリースされたDeepSeek V4。旧モデル名(deepseek-chat / deepseek-reasoner)は2026年7月24日に廃止されます。今すぐ対応が必要です。
廃止スケジュール一覧
| 旧モデル名 | 新モデル名 | 廃止日 |
|---|---|---|
deepseek-chat |
deepseek-v4-flash |
2026年7月24日 |
deepseek-reasoner |
deepseek-v4-flash(thinking) |
2026年7月24日 |
deepseek-v3 |
deepseek-v4-flash |
2026年7月24日 |
廃止日以降は旧名を使うとAPIエラーになります。今すぐ明示的なモデル名に変更してください。
各フレームワーク別 移行コード例
OpenAI SDK(直接)
# Before
from openai import OpenAI
client = OpenAI(api_key="sk-...", base_url="https://api.deepseek.com")
response = client.chat.completions.create(
model="deepseek-chat", # ← 廃止予定
messages=[{"role": "user", "content": "Hello"}]
)
# After
response = client.chat.completions.create(
model="deepseek-v4-flash", # ✅ 新モデル名
messages=[{"role": "user", "content": "Hello"}]
)
# 高性能版はdeepseek-v4-pro
LangChain / LangGraph
# Before
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(model="deepseek-chat", base_url="https://api.deepseek.com", api_key="...")
# After
llm = ChatOpenAI(
model="deepseek-v4-pro", # または deepseek-v4-flash
base_url="https://api.deepseek.com",
api_key="your-key"
)
LiteLLM(複数プロバイダー対応)
# Before
import litellm
response = litellm.completion(model="deepseek/deepseek-chat", messages=[...])
# After
response = litellm.completion(model="deepseek/deepseek-v4-flash", messages=[...])
# または高性能版
response = litellm.completion(model="deepseek/deepseek-v4-pro", messages=[...])
OpenRouter経由
# OpenRouter経由の場合
response = client.chat.completions.create(
model="deepseek/deepseek-v4-pro", # OpenRouterのモデルID
messages=[...]
)
CrewAI
from crewai import LLM
llm = LLM(
model="deepseek/deepseek-v4-flash", # LiteLLM形式
api_key="your-deepseek-key"
)
V4-Pro vs V4-Flash — どちらを選ぶか
| 項目 | V4-Pro | V4-Flash |
|---|---|---|
| パラメータ | 1.6兆(アクティブ490億) | 2840億(アクティブ130億) |
| コンテキスト | 100万トークン | 100万トークン |
| 用途 | 複雑な推論・コーディング | 高速・低コスト |
| エージェンティックコーディング | オープンソースSOTA | 強力 |
| オープンウェイト | ✅ HuggingFace公開 | ✅ |
選択の目安:
- 複雑なコーディングエージェント →
deepseek-v4-pro - 高頻度APIコール・コスト重視 →
deepseek-v4-flash - RAGパイプライン・チャット →
deepseek-v4-flash
環境変数での管理(推奨)
# .env
DEEPSEEK_MODEL=deepseek-v4-flash # または deepseek-v4-pro
DEEPSEEK_API_KEY=your-key
DEEPSEEK_BASE_URL=https://api.deepseek.com
import os
from openai import OpenAI
client = OpenAI(
api_key=os.getenv("DEEPSEEK_API_KEY"),
base_url=os.getenv("DEEPSEEK_BASE_URL")
)
response = client.chat.completions.create(
model=os.getenv("DEEPSEEK_MODEL", "deepseek-v4-flash"),
messages=[...]
)
環境変数で管理すれば、モデル名の変更が1箇所で完結します。
移行チェックリスト
-
コードベース全体で
deepseek-chatを検索して置換 -
deepseek-reasonerをdeepseek-v4-flash(thinking=on)に置換 -
deepseek-v3の参照を削除 - 環境変数でモデル名を管理する仕組みに変更
- ステージング環境でV4の動作確認
- 2026年7月24日前に本番デプロイ
DeepSeek V4をはじめ、400以上のAIエージェントツール・LLM APIを比較できる AgDex.ai もご活用ください。