0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

DeepSeek V4 API 移行完全ガイド【2026年版】— 7月24日廃止前に対応すべきこと

0
Posted at

DeepSeek V4 API 移行完全ガイド【2026年版】— 7月24日までに対応すべきこと

2026年4月24日にリリースされたDeepSeek V4。旧モデル名(deepseek-chat / deepseek-reasoner)は2026年7月24日に廃止されます。今すぐ対応が必要です。

廃止スケジュール一覧

旧モデル名 新モデル名 廃止日
deepseek-chat deepseek-v4-flash 2026年7月24日
deepseek-reasoner deepseek-v4-flash(thinking) 2026年7月24日
deepseek-v3 deepseek-v4-flash 2026年7月24日

廃止日以降は旧名を使うとAPIエラーになります。今すぐ明示的なモデル名に変更してください。


各フレームワーク別 移行コード例

OpenAI SDK(直接)

# Before
from openai import OpenAI
client = OpenAI(api_key="sk-...", base_url="https://api.deepseek.com")
response = client.chat.completions.create(
    model="deepseek-chat",  # ← 廃止予定
    messages=[{"role": "user", "content": "Hello"}]
)

# After
response = client.chat.completions.create(
    model="deepseek-v4-flash",  # ✅ 新モデル名
    messages=[{"role": "user", "content": "Hello"}]
)
# 高性能版はdeepseek-v4-pro

LangChain / LangGraph

# Before
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(model="deepseek-chat", base_url="https://api.deepseek.com", api_key="...")

# After
llm = ChatOpenAI(
    model="deepseek-v4-pro",   # または deepseek-v4-flash
    base_url="https://api.deepseek.com",
    api_key="your-key"
)

LiteLLM(複数プロバイダー対応)

# Before
import litellm
response = litellm.completion(model="deepseek/deepseek-chat", messages=[...])

# After
response = litellm.completion(model="deepseek/deepseek-v4-flash", messages=[...])
# または高性能版
response = litellm.completion(model="deepseek/deepseek-v4-pro", messages=[...])

OpenRouter経由

# OpenRouter経由の場合
response = client.chat.completions.create(
    model="deepseek/deepseek-v4-pro",  # OpenRouterのモデルID
    messages=[...]
)

CrewAI

from crewai import LLM

llm = LLM(
    model="deepseek/deepseek-v4-flash",  # LiteLLM形式
    api_key="your-deepseek-key"
)

V4-Pro vs V4-Flash — どちらを選ぶか

項目 V4-Pro V4-Flash
パラメータ 1.6兆(アクティブ490億) 2840億(アクティブ130億)
コンテキスト 100万トークン 100万トークン
用途 複雑な推論・コーディング 高速・低コスト
エージェンティックコーディング オープンソースSOTA 強力
オープンウェイト ✅ HuggingFace公開

選択の目安:

  • 複雑なコーディングエージェント → deepseek-v4-pro
  • 高頻度APIコール・コスト重視 → deepseek-v4-flash
  • RAGパイプライン・チャット → deepseek-v4-flash

環境変数での管理(推奨)

# .env
DEEPSEEK_MODEL=deepseek-v4-flash  # または deepseek-v4-pro
DEEPSEEK_API_KEY=your-key
DEEPSEEK_BASE_URL=https://api.deepseek.com
import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("DEEPSEEK_API_KEY"),
    base_url=os.getenv("DEEPSEEK_BASE_URL")
)

response = client.chat.completions.create(
    model=os.getenv("DEEPSEEK_MODEL", "deepseek-v4-flash"),
    messages=[...]
)

環境変数で管理すれば、モデル名の変更が1箇所で完結します。


移行チェックリスト

  • コードベース全体で deepseek-chat を検索して置換
  • deepseek-reasonerdeepseek-v4-flash(thinking=on)に置換
  • deepseek-v3 の参照を削除
  • 環境変数でモデル名を管理する仕組みに変更
  • ステージング環境でV4の動作確認
  • 2026年7月24日前に本番デプロイ

DeepSeek V4をはじめ、400以上のAIエージェントツール・LLM APIを比較できる AgDex.ai もご活用ください。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?