GPT-5 の新パラメータ
OpenAIから発表されたGPT-5系の新パラメータ「verbosity」「reasoning_effort」について、実務で使える情報をまとめました。GPT-5ではsampling系パラメータの多くが無効化され、これら2つのパラメータでの制御に移行しています。
GPT-5の新パラメータ概要
1. verbosity(出力制御パラメータ)
役割: 出力の長さ・説明量の「目安」を与えるヒント
設定値: low
/ medium
(既定) / high
注意点として、明示的な指示(例:「5段落で」)がある場合はそちらが優先されます。あくまでヒント的な役割として機能します。
2. reasoning_effort(推論制御パラメータ)
役割: モデルが応答前に割く「推論量」の目安(思考時間/深さ)
設定値: minimal
/ low
/ medium
(既定) / high
-
minimal
: 速度・コスト重視の設定 -
high
: 複雑課題で品質重視の設定
利用可能なモデル(2025年8月13日時点)
現在利用可能なGPT-5系モデルは以下の通りです:
推論モデル
- gpt-5(推論): 最高性能、最大文脈/ツール連鎖/エージェント向け
- gpt-5-mini(推論): 高速・低コストの汎用モデル
- gpt-5-nano(推論): 最安・最速、抽出/分類/要約など軽量用途
非推論モデル
- gpt-5-chat-latest(非推論): Chat用途のAPI版
コンテキスト目安: 入力約272k + 推論/出力約128k = 合計約40万トークン
従来パラメータからの変更点
GPT-5/mini/nanoでは、従来のsampling系パラメータが非対応になりました:
非対応パラメータ:
temperature
top_p
presence_penalty
frequency_penalty
新しい制御方法:
- 出力量 →
verbosity
で調整 - 思考深さ →
reasoning_effort
で調整
実装時のベストプラクティス
速度最優先の場合
reasoning_effort='minimal' + verbosity='low'
を初期値として設定
品質最優先の場合
必要箇所のみ段階的にhigh
へ変更
厳密なフォーマットが必要な場合
カスタムツール + CFG/正規表現での強制制御を推奨
ツール連鎖の場合
失敗時の再試行・並列化・進捗プレアンプル設計を検討
移行時のチェックリスト
GPT-4系からGPT-5系への移行時は、以下の点を確認してください:
- temperature/top_pなどの削除
- presence/frequency_penaltyの削除
- verbosity/reasoning_effortの導入
- Chat Completions使用箇所の互換確認
- 出力量変化に伴うコスト監視
- 回帰テスト(ツール呼び出し/長文脈/ストリーミング)
- 不正パラメータ/ツール失敗/タイムアウトのハンドリング
まとめ
GPT-5系では従来のsampling制御から、より直感的なverbosity
とreasoning_effort
による制御に変更されています。特に推論モデルでは、タスクの複雑さに応じてreasoning_effort
を調整することで、コストと品質のバランスを取ることが重要です。
移行時は段階的にパラメータを調整し、十分なテストを行うことを推奨します。