TL;DR
- AIエージェント(Cursor, Antigravity等)の制限は、読み込んだコンテキスト量で決まる。
-
.aiignore等で不要なファイル(巨大データ、自動生成コード)を隠すのが最も効果的。 - 作業スコープを絞る運用を組み合わせることで、制限回避と回答精度の向上が両立できる。
はじめに
Cursor、Antigravity、Cline、WindsurfなどのAIコードエージェントを活用していると、プロジェクトが大規模になるにつれて「すぐに利用制限(Quota)に達してしまう」「AIが関係ないコードを読み込んで挙動が不安定になる」といった問題に直面します。
AIエージェントの制限の多くは、単なる質問回数ではなく読み込んだコンテキスト量(トークン数)に基づいています。そのため、AIにいかに無駄なファイルを読ませないかを管理することが、開発効率を維持する上での重要なスキルになります。
この記事では、AIの視界を最適化し、制限をうまく回避するための現実的な対策をまとめます。
1. ignoreファイルを活用してコンテキストを絞る
AIエージェントは、指示を受けると関連ファイルを自動的にインデックスから読み込みますが、大規模プロジェクトではこのプロセスだけでトークンを大量に消費します。
.gitignore とは別に、各ツールに対応した ignore ファイル(.aiignore, .cursorignore, .geminiignore 等)を作成し、AIが参照する必要のないファイルを除外するのが最も効果的です。
基本的な除外設定
以下のような「テキスト量が多いが、ロジック理解には不要なファイル」を優先的に除外します。
# ビルド成果物・キャッシュ
node_modules/
dist/
.next/
*.log
# 画像・バイナリ・PDF
# これらはコンテキストを圧迫するだけで、コード生成には寄与しません
public/assets/
*.png
*.jpg
*.pdf
# 巨大なデータファイル
# JSONやCSV、SQLダンプは文字数が極めて多いため、真っ先に除外すべきです
data/
*.json
*.csv
*.sql
# 自動生成されたコード
# gRPCやPrisma、型定義などはAIに読ませる必要がないケースが多いです
src/generated/
*.pb.go
2. 実践的な運用の工夫
作業対象外のディレクトリを一時的に隠す
例えばフロントエンドの実装に集中している間は、ignore ファイルに一時的に backend/ を追記します。これだけで、AIが無関係なコードを読み込んで制限を削るのを防げますし、回答のノイズも減ります。
スコープを明示した指示を出す
プロジェクト全体を対象にするのではなく、ディレクトリやパスを具体的に指定してプロンプトを書く習慣をつけると、トークン消費を抑えられます。
-
指示の例: 「
src/features/auth/内のロジックを修正して。型定義はsrc/types/auth.tsだけ参照して」
AIの思考プロセスを監視する
最近の推論モデル(Gemini 3 Deep ThinkやClaude 3.5/4系など)は、回答の前に長い思考ステップが入ります。この思考中もコストを消費するため、AIが意図しない方向へ進んでいると判断した時点で、すぐに生成を停止して指示を修正するのが得策です。
3. 制限に達してしまった時の対応
もし枠を使い切ってしまった場合は、以下のような立ち回りが考えられます。
- モデルの使い分け: 複雑な推論が不要な単純作業は、FlashやHaikuなどの軽量モデルに切り替えて、上位モデルの枠を温存する。
- クレジットの追加購入: 2026年現在の多くのツールでは、月額プランとは別に追加枠をスポット購入できるようになっています。
- ローカルLLMエージェントの併用: セキュリティ要件が低く、かつ単純な作業はローカルLLMで処理し、クラウド側の枠を節約する。
まとめ
AIエージェントとの共同開発では、プログラミングスキルと同様にAIに渡す情報を管理するスキルが求められます。適切な ignore 設定とスコープ管理を行うだけで、制限に悩まされる回数は大幅に減らせるはずです。