はじめに
CursorのProプランに登録したのですが、モデルの種類が豊富だったので、
CursorのClaude-4-Sonnetで全モデルの比較表を出力してもらいました。
(ちなみに同じプロンプトでClaude-3.7-Sonnetに聞くと、表がもう少し簡易的でした)
2025年に記事を書いたのですが、
1年経って、どのように出力が変化したのか検証します、
今回使用したモデルは Claude Opus 4.6(Thinking) です。
2026年2月現在の出力結果に更新しました。
可読性向上のため、一部文章表現を修正している箇所があります。
($20分 -> $20 相当 など)
個人開発で、AIを使った夢診断サービスを作成中です。
Cursorをフル稼働で使わせてもらっています。
プロンプト
2026年2月19日現在、Cursorで使える全モデルの以下の情報をまとめて表で出力して。
- 月額料金内か
- リクエスト数
- おすすめ度
- 詳細
出力結果(2026年2月)
調べてきたよ!
2026年2月19日現在、Cursorの公式ドキュメントをもとにまとめるね 😊
Cursorの料金プラン
まず前提として、2025年6月からCursorはリクエスト制からクレジット制(従量課金)に変わってるよ。
月額料金に含まれるクレジット内で、各モデルのAPI料金に応じて使う形になったの。
| プラン | 月額 | 含まれるクレジット | 主な特徴 |
|---|---|---|---|
| Hobby | 無料 | 限定的 | Agent / Tab補完が限定的 |
| Pro | $20 | $20 相当 | 無制限Tab補完、Cloud Agent |
| Pro+ | $60 | $70 相当 | 3倍の使用量、Background Agent |
| Ultra | $200 | $400 相当 | 20倍の使用量、新機能優先アクセス |
メインモデル一覧(公式ドキュメント掲載)
| モデル | 月額内 | コスト ※1 | コンテキスト | Max Mode | おすすめ度 | 詳細 |
|---|---|---|---|---|---|---|
| Claude 4.6 Opus | ✅ (クレジット消費) | $5 / $25 | 200k | 1M | ⭐⭐⭐⭐⭐ | 最高峰の推論・コーディング能力。複雑なタスクに最適 |
| Claude 4.6 Sonnet | ✅ (クレジット消費) | $3 / $15 | 200k | 1M | ⭐⭐⭐⭐⭐ | Opusに次ぐ性能でコスパ良し。日常開発のメインに最適 |
| Composer 1.5 | ✅ (クレジット消費) | $3.5 / $17.5 | 200k | - | ⭐⭐⭐⭐ | Cursor独自モデル。Agent向けに最適化 |
| Gemini 3 Flash | ✅ (クレジット消費) | $0.5 / $3 | 200k | 1M | ⭐⭐⭐⭐ | 超低コスト&高速。軽い作業に◎ |
| Gemini 3 Pro | ✅ (クレジット消費) | $2 / $12 | 200k | 1M | ⭐⭐⭐⭐ | Flashより高品質。バランス型 |
| GPT-5.2 | ✅ (クレジット消費) | $1.75 / $14 | 272k | - | ⭐⭐⭐⭐ | OpenAI最新世代。大きなコンテキストが魅力 |
| GPT-5.3 Codex | ✅ (クレジット消費) | $1.75 / $14 | 272k | - | ⭐⭐⭐⭐⭐ | コード特化モデル。生成・リファクタに強い |
| Grok Code | ✅ (クレジット消費) | $0.2 / $1.5 | 256k | - | ⭐⭐⭐⭐ | 最安モデル。256kでコスパ抜群 |
※1 コストは「1Mトークンあたりの入力 / 出力価格」を示す
Auto モード
| 項目 | 料金 |
|---|---|
| 入力 + キャッシュ書込 | $1.25 / 1Mトークン |
| キャッシュ読込 | $0.25 / 1Mトークン |
| 出力 | $6.00 / 1Mトークン |
Autoモードはタスクに応じてCursorが最適なモデルを自動選択。
迷ったらこれでOK。
Show more models(旧世代・その他)
| モデル | 月額内 | おすすめ度 | 詳細 |
|---|---|---|---|
| Claude 4.5 Sonnet | ✅ | ⭐⭐⭐⭐ | 1つ前の世代だけどまだまだ強い |
| Claude 4.1 Opus | ✅ | ⭐⭐⭐ | Max Mode専用。超複雑な推論向け |
| Claude 3.5 Sonnet | ✅ | ⭐⭐⭐ | 安定の旧世代。軽いタスクなら十分 |
| Claude 3.5 Haiku | ✅ | ⭐⭐⭐ | 超高速&低コスト。シンプルなタスク向け |
| GPT-5 / Fast / Mini / Nano | ✅ | ⭐⭐⭐〜⭐⭐⭐⭐ | GPT-5ファミリー。Nanoは超低コスト |
| GPT-4o | ✅ | ⭐⭐⭐ | 旧世代だけどバランス良し |
| GPT-4o mini | ✅ (無料枠あり) | ⭐⭐⭐ | 500回/日まで無料。練習や軽作業に最適 |
| o4-mini | ✅ | ⭐⭐⭐⭐ | 推論特化。効率の良いreasoningモデル |
| o3 / o3-mini | ✅ | ⭐⭐⭐ | 推論系タスク向け |
| Gemini 2.5 Pro / Flash | ✅ | ⭐⭐⭐ | 1つ前のGemini世代 |
| Grok 4 / Grok 4 Fast | ✅ | ⭐⭐⭐⭐ | Grok 4 Fastは最大2Mコンテキスト |
| Grok 3 Beta / Mini | ✅ (Miniは無料) | ⭐⭐⭐ | Grok 3 Miniは無料で利用可能 |
| DeepSeek V3.1 / V3 / R1 | ✅ (無料) | ⭐⭐⭐⭐ | 全部無料。コーディング能力も高い |
| Cursor Small | ✅ (無料) | ⭐⭐ | 無制限無料。Tab補完向け |
おすすめの使い分け
| やりたいこと | おすすめモデル |
|---|---|
| 複雑な設計・大規模リファクタ | Claude 4.6 Opus / GPT-5.3 Codex |
| 日常的な開発全般 | Claude 4.6 Sonnet / Auto |
| コスパ重視 | Gemini 3 Flash / Grok Code |
| 無料で使いたい | DeepSeek系 / GPT-4o mini / Cursor Small |
| 巨大コードベース | Grok 4 Fast (2M) / Gemini 3 Pro (1M Max) |
注意点(クレジット制)
現在のCursorはクレジット制。
「月○○リクエスト」という固定回数ではなく、
どのモデルをどれだけ使うかで消費量が変わる。
例:
- Proプラン ($20) で Gemini 3 Flash を使う → 大量に利用可能
- Claude 4.6 Opus を多用 → すぐクレジットが減る
迷ったら Auto モード か Claude 4.6 Sonnet がバランス良くおすすめ。
まとめ
1年前と比較すると、検索や出力の性能が上がっていることに気付けました。
特にメインモデルと、旧モデルを分けて出力してくれたのが良かったです。
Web上の情報をしっかりと読み込めているんですね。
下記に、過去の出力結果も残しておきます。
比較してみてください。
個人開発で、AIを使った夢診断サービスを作成中です。
Cursorをフル稼働で使わせてもらっています。
出力結果(2025年5月)
Cursorで使える全モデルの性能比較表
🆓 完全無料モデル(リクエスト消費なし)
| モデル名 | 月額料金内か | リクエスト数 | 評価 | 詳細 |
|---|---|---|---|---|
| Gemini 2.5 Flash | ✅ 完全無料 | 0 | ★★★★☆ | 128Kコンテキスト、ツール使用・推論機能あり。完全無料で高機能 |
| Grok 3 Mini Beta | ✅ 完全無料 | 0 | ★★★☆☆ | 60Kコンテキスト、ツール使用可能。xAIの無料モデル |
💎 高効率プレミアムモデル(月額料金内)
| モデル名 | 月額料金内か | リクエスト数 | 評価 | 詳細 |
|---|---|---|---|---|
| Claude 4 Sonnet | ✅ 制限内+スロー | 0.5 | ★★★★★ | 120Kコンテキスト、最新高性能モデルで低消費。最もコスパ良好 |
| Claude 4 Sonnet Thinking | ✅ 制限内+スロー | 0.75 | ★★★★★ | 120Kコンテキスト、深い推論機能付き。複雑タスクに最適 |
| Claude 4 Opus | ✅ |
0.75 | ★★★★★ | 120Kコンテキスト、最高性能モデル。難しい問題に強い |
🔧 標準プレミアムモデル(月額料金内)
| モデル名 | 月額料金内か | リクエスト数 | 評価 | 詳細 |
|---|---|---|---|---|
| Claude 3.7 Sonnet | ✅ 制限内+スロー | 1 | ★★★★☆ | 120Kコンテキスト、力強いが変更を積極的に行う傾向 |
| Claude 3.5 Sonnet | ✅ 制限内+スロー | 1 | ★★★★☆ | 75Kコンテキスト、万能型で多くのタスクに適している |
| GPT-4o | ✅ 制限内+スロー | 1 | ★★★★☆ | 60Kコンテキスト、最適化された高速応答モデル |
| GPT-4.1 | ✅ 制限内+スロー | 1 | ★★★★☆ | 128Kコンテキスト、大きなコンテキストウィンドウ |
| Gemini 2.5 Pro | ✅ 制限内+スロー | 1 | ★★★★☆ | 120Kコンテキスト、慎重で精密な応答が特徴 |
| Grok 3 Beta | ✅ 制限内+スロー | 1 | ★★★☆☆ | 60Kコンテキスト、xAIの最新モデル |
| o4-mini | ✅ 制限内+スロー | 1 | ★★★★☆ | 128Kコンテキスト、高度な推論能力を持つ軽量版 |
⚡ 高消費プレミアムモデル(月額料金内)
| モデル名 | 月額料金内で使用可能 | 1回のリクエスト数 | 評価 | 詳細 |
|---|---|---|---|---|
| Claude 3.7 Sonnet Thinking | ✅ 制限内+スロー | 2 | ★★★★☆ | 120Kコンテキスト、深い思考プロセス。トークン集約的 |
| o3 | ✅ |
7.5 | ★★★☆☆ | 128Kコンテキスト、最高レベルの推論。非常に高消費 |
💰 追加料金モデル(Maxモード)
| モデル名 | 月額料金か | リクエスト数 | 評価 | 詳細 |
|---|---|---|---|---|
| Claude 4 Sonnet Max | ❌ 追加料金 | トークンベース | ★★★☆☆ | 200Kコンテキスト、入力1.5/出力7.5リクエスト/MTok |
| Claude 4 Opus Max | ❌ 追加料金 | トークンベース | ★★★☆☆ | 200Kコンテキスト、入力7.5/出力37.5リクエスト/MTok |
| Claude 3.7 Sonnet Max | ❌ 追加料金 | トークンベース | ★★★☆☆ | 200Kコンテキスト、入力3/出力15リクエスト/MTok |
| Claude 3.5 Sonnet Max | ❌ 追加料金 | トークンベース | ★★★☆☆ | 200Kコンテキスト、入力3/出力15リクエスト/MTok |
| GPT-4o Max | ❌ 追加料金 | トークンベース | ★★★☆☆ | 128Kコンテキスト、入力2.5/出力10リクエスト/MTok |
| GPT-4.1 Max | ❌ 追加料金 | トークンベース | ★★★☆☆ | 1Mコンテキスト、入力2/出力8リクエスト/MTok |
| Gemini 2.5 Pro Max | ❌ 追加料金 | トークンベース | ★★★☆☆ | 1Mコンテキスト、入力1.25/出力10リクエスト/MTok |
| o3 Max | ❌ 追加料金 | トークンベース | ★★☆☆☆ | 200Kコンテキスト、入力10/出力40リクエスト/MTok |
| o4-mini Max | ❌ 追加料金 | トークンベース | ★★★☆☆ | 200Kコンテキスト、入力1.1/出力4.4リクエスト/MTok |
| Grok 3 Beta Max | ❌ 追加料金 | トークンベース | ★★☆☆☆ | 132Kコンテキスト、入力3/出力15リクエスト/MTok |
| Grok 3 Mini Max | ❌ 追加料金 | トークンベース | ★★★☆☆ | 132Kコンテキスト、入力0.3/出力1リクエスト/MTok |
📊 使用シーン別おすすめ
🎯 最もコスパが良い選択
無料で使うなら: Gemini 2.5 Flash(完全無料で高機能)
高性能重視: Claude 4 Sonnet(0.5リクエストで最新性能)
推論重視: Claude 4 Sonnet Thinking(0.75リクエストで深い思考)
💡 用途別推奨
日常的なコーディング: Gemini 2.5 Flash、Claude 4 Sonnet
複雑な問題解決: Claude 4 Opus、o4-mini
大規模プロジェクト: GPT-4.1、Gemini 2.5 Pro
最高レベルの推論: o3(ただし高消費に注意)
重要な注意点:
月額プラン(Pro $20/月)では500リクエスト制限あり
超過後は無料のスローリクエスト(処理が遅い可能性)
Maxモードは常に追加料金($0.04/リクエスト基準)
この表を参考に、用途と予算に合わせて最適なモデルを選んでね!✨
※追記
DeepSeekについても聞いてみました。
DeepSeek-V3とDeepSeek-R1の主な違い 🔍
基本的な特徴
DeepSeek-V3: 汎用的な大規模言語モデル(671Bパラメータ、37B活性化)
DeepSeek-R1: 推論特化型モデル(強化学習ベース、1.5B~70Bパラメータ)
アーキテクチャの違い
V3: Mixture-of-Experts (MoE) アーキテクチャ
R1: 強化学習(RL)最適化アーキテクチャ
得意分野
DeepSeek-V3 🌟
マルチタスク処理(コーディング、数学、多言語対応)
複雑なタスクの深い理解
企業レベルの大規模ワークロード
柔軟性とカスタマイズ性
DeepSeek-R1 ⚡
高速処理と効率性
論理的思考と数学的推論
教育ツールや研究用途
軽量ハードウェアでの動作
パフォーマンス特性
V3: より正確だけど少し重い、クラウド環境向け
R1: 高速だけど特化型、エッジデバイス向け
使い分けのポイント 💡
V3を選ぶべき人: 多様なタスクを扱う企業や研究者
R1を選ぶべき人: 教育者、研究者、論理的タスク重視の人
Grok-3についても聞いてみました。
Grok-3-betaとGrok-3-miniの違い 🤖
基本的な位置づけ
Grok-3-beta 🚀
xAIの最新フラッグシップモデル
高性能・高機能を重視した設計
大規模な計算リソースを活用
Grok-3-mini ⚡
Grok-3の軽量版・効率化版
速度とコスト効率を重視
より幅広いユーザー向け
主な違い
| 特徴 | Grok-3-beta | Grok-3-mini |
|---|---|---|
| 処理能力 | 最高レベルの推論能力 | 基本的な推論能力 |
| 速度 | やや重い(高品質重視) | 高速レスポンス |
| コスト | 高価格 | 低価格・アクセスしやすい |
| 用途 | 複雑なタスク、研究用途 | 日常的な使用、簡単なタスク |
| リソース要求 | 高い計算リソースが必要 | 軽量、低リソース |
具体的な使い分け 💡
Grok-3-betaを選ぶべき場合:
複雑な推論や分析が必要
高品質な出力が最優先
予算に余裕がある
研究や専門的な用途
Grok-3-miniを選ぶべき場合:
日常的なチャットや質問応答
速いレスポンスが欲しい
コストを抑えたい
個人利用や小規模ビジネス
実際の性能差 📊
Grok-3-beta: より深い文脈理解、複雑な問題解決
Grok-3-mini: 基本的なタスクを高速処理、十分な精度
つまり、Grok-3-miniは「Grok-3の軽量版」って感じで、日常使いには十分だけど、本格的な作業にはGrok-3-betaの方が向いてるって感じかな!✨
どっちを使うかは、あなたの用途と予算次第だね~😊 何か他に知りたいことがあったら聞いてね!