こんちくわ。
GitHub Copilotの精度が落ちるに落ちまくって、頭が禿げそうな人です。
ver 1.100で追加された新機能!!
リリースノート( バージョン1.100 )
ver 1.100のタイミングで、下記の機能がGitHub Copilotにリリースされました。
ようは、エージェントモードにおいて大量のチャット履歴を数行に圧縮し、キャッシュを削減しながら精度を維持する機能です。
対話がはかどりそうな機能ですね。
これのせいでポンコツになってる。
Copilot拡張 0.27.0以降のバージョン
・「会話の要約」機能が走るたびに、重要な情報やタスクが抜け落ちて、生成されるコードの精度が落ちる。
デカいタスクを丸投げすると起きがち。
前からコレは問題にはなってますが、今回のアップデートでそれがさらに露骨になりました。でも正直これは使い方の問題な気もするので、タスクのさらなる細分化で対応できると思います。
・(これがマジで問題) MCPのトリガーが無限ループを引き起こす。
MCPツールが大きなテキストを返すケースで発生します。
例えばチャットでログ検索など大規模なデータ取得を行うと、モデルの文脈メモリ上限を超えてしまい、結果として無限ループ状態に陥ります。
MCP 出力を返したところ、「コンテキスト上限 → 要約実行 → 同じ MCP を再呼び出し → …」を延々と繰り返すという悪循環。そのせいでリクエストクオータを使い果たしてストライキしやがる事も。
Claude 3.7 / Gemini 2.5 等のツヨツヨモデルで起きてる問題です。
GPT-4.1では会話の要約でフリーズします(これも問題)。
実演
実際にテキトーにDBCodeを使ってDBを見に行かせようとすると、要約のたびにMCP呼出がトリガーされ、そのトリガーがさらに要約プロセスを発生させてます。
コーヒー汲みに行って戻ってきたらこの状況だったので、焦って止めて別のタスクをやらせたら「リクエスト制限により使用できません」とか言われて萎えました。
ちなみに
この問題は開発チームも認識しており、下記のイシューで問題定義されてます。
既にinsider版で修正版がリリースされてますが、これでも改善には至ってないようです。
とりま、機能をオフにする設定を追加するみたい
この問題の緊急対処として、
"github.copilot.chat.summarizeAgentConversationHistory.enabled"
という 新しい設定 が入り、チャット履歴の自動要約を 完全オフ できるようにするらしいです。
無限ループなどに悩んでいる VS CodeのGitHub Copilot ユーザーは、この設定を切って様子を見ましょう。
(多分insider版のプレリリースです)
おわり
この症状、ほかに悩んでる人はいますか???
もしいたら、コメントで詳細を共有してほしいです。