ゼロから始めるAI駆動開発+Claude Code連載について
この記事は、アドベントカレンダーを1人で完走する試みの3記事目です。
「AIモデルの進化、AIツールの進化が早すぎて着いていけない…」
「このままではいけないと思って学びたいけど、どこから手を付けたらいいか分からない…」
「そしてこの先、AIに仕事が奪われてエンジニアでいられるかも不安…」
といった悩みを解決するためのアドベントカレンダーです。
AI駆動開発の基礎、現時点でのデファクト・スタンダードと言えるClaude Codeの基礎から応用、AI時代のキャリア論からAI推進までを取り扱います。
コンテキストウィンドウとは何か
本日は「コンテキストウィンドウ」を取り扱います。
抽象的な全体感が多い連載序盤において具体的なキーワードですが、今後AI駆動開発を進める上で必ず必要になる知識なので、早めに紹介をしておきます。
コンテキストウィンドウとは、ざっくり言うとAIが一度に記憶することができるテキストの最大容量です。会話における、短期記憶と言えば分かりやすいでしょう。
つまりこの数字が多ければ多いほど、一度にたくさんの情報を記憶しておくことができます。
トークンとは何か
AIがテキストを記憶する時、トークンという単位でカウントされます。
OpenAIが出している以下Tokenizerというツールで確認してみます。
英語の方が分かりやすく単語で区切られ、トークンとしてカウントされていますね。
文字数の多寡がトークン数に直結するわけではないという点は、日本語と英語を比較すると分かります。
日本語はひらがなや漢字の文字単位でトークンカウントされることが多く、英語は単語単位でカウントされることが多いです。結果として同じ情報量を伝えるにしても、(場合によりますが)日本語の方が2倍近くトークンを消費してしまう等、低効率であることが見てとれます。
コンテキストウィンドウ制限に達するとどうなるか
会話が続いてコンテキストウィンドウ制限に達した場合は、基本的に古い情報から渡されなくなります。
ただし完全なFIFOではなく、重要な情報や要約情報は残されたりするようです。
また、Claude Code等のツールにおいては/compactや/clearといったコマンドが用意されています。
/compactコマンドを実行することでそれまでの会話を要約して圧縮します。これにより、重要な文脈をできるだけ失うことなく、会話を続行することができます。
/clearコマンドはそれまでのやり取りを忘れることで、空き容量を再度確保します。
主要モデルのコンテキストウィンドウ
記事執筆時点(2025年12月)では、
- GPT5.1は12.8万トークン
- Gemini 3.0 Proは100万トークン
- Claude Sonnet 4.5は基本20万トークン、一部組織向けに100万トークン
とされています。
基本的にはGoogleのGeminiがトークン数が大きいことを売りにしているので、大規模な言語処理に向いています。
最後に
それでは、コンテキストウィンドウが大きければ大きいほど良くて、あらゆる情報を詰め込んだ方が良いのか?というと必ずしもそうではありません。
LLMではLost in the Middle現象と呼ばれる、中間に渡した情報が忘れられやすい特徴を持ちます。
そのため、適切な情報を適切な量渡しつつ、適度に/compactや/clearを使った渡し直しが必要となります。このあたりは連載における実践をしつつ、徐々に感覚を掴んでいければ良いと思います。
次回は、AIエージェント中心の世の中にどう変化していったのか再度抽象的な話に戻り、2025年のAI駆動開発の変化について、マクロの視点で見てみましょう。
宣伝
Xやっています。
Claude CodeとAntigravity中心にキャッチアップして、たまにQiitaやZennで発信しています。
良ければフォローお願いします!
この記事は全て人間が書いています。一部画像生成はAIを利用しています。

