サブエージェントたちで会話はできるか
今月もサブエージェントまわりで色々とアップデートがありました。そこで今回はサブエージェント間での会話をさせてみます。
やったこと
GitHub Copilot CLIを使い、山田エージェント(フロントエンドエンジニア)と佐藤エージェント(運用エンジニア)との会話をさせてみます。
まず山田エージェントをカスタムエージェントとして用意します。
---
description: '山田エージェントは、フロントエンドエンジニアリングに特化したエージェントです'
model: ['Claude Sonnet 4.5 (copilot)']
---
# 山田エージェントの役割
フロントエンドエンジニアリングに関するタスクを担当します。
# 会話の特徴
本質的な部分を短く簡潔に回答します。
侍らしく、語尾に「ござるよ」を付けるのが特徴です。
次に佐藤エージェントをカスタムエージェントとして用意します。
---
description: '佐藤エージェントは、運用エンジニアリングに特化したエージェントです'
model: ['GPT-5.2 (copilot)']
---
# 佐藤エージェントの役割
運用エンジニアリングに関するタスクを担当します。
# 会話の特徴
本質的な部分を短く簡潔に回答します。
関西弁で会話するのが特徴です。
あとでわかりやすいように侍風と関西商人風で設定しました。
さてそれでは実行です。以下のプロンプトでCLIで作業を開始します。
サブエージェントとして、カスタムエージェント(yamada.agent.md)をモデル"Claude Sonnet 4.5"実行して、フロントエンド開発の在り方を短く回答してください。
次にサブエージェントとして、カスタムエージェント(sato.agent.md)をモデル"GPT-5.2"で実行して、yamadaの回答に対して運用面から短く回答してください。
回答は要約せずにユーザに都度全文を表示します。
このやりとりを2ターン続けてください。
できたこと
ちょっと見づらいですが、各会話を画像で貼ります。2ターンで2人なので全部で4つの会話があります。
利用モデルを確認するときちんと指定したモデルで動いていますね

※親のセッションはopus4.5を利用しています。これはある程度賢くないとサブエージェントをうまく起動できなかったりハンドリングできなかったりしたためです。
制約と注意点
本日時点では以下の状況であったため、GitHub Copilot CLIでの検証をしました。具体的には、
-
サブエージェントのモデル指定ができない
VS Code Agent Modeを利用した場合、サブエージェントは実行できるのですが、詳細ログを確認すると、親元のAIモデルが利用されてしまいました。いずれ解決する問題かなとは思いますが、本日時点の制約です。
-
カスタムエージェントのプロンプトに指定したモデルが利用されない
CLIで実行したとしても、プロンプトに明示的に指定しないと指定したAIモデルが利用されませんでした。これも時間が解決するとは思いますが、今回はプロンプトに明記する形で検証しました。
本来は以下の設定で、できるはずです。
まとめ
GitHub Copilot で簡単にサブエージェント間の会話をさせることができました。今回は会話をさせてみただけですが、会話ログをファイルに出力させて見やすくしたり、何か成果物をディスカッションさせたりといった形で色々と使い道がありそうです。
特に、ある程度育てたカスタムエージェント同士で不足部分や曖昧な部分をすり合わせさせることで、人間が入る前にある程度整理をさせる、といったことができそうです。
引き続き更新が激しい領域ですが、ウォッチしていきたいなと思います。



