3行まとめ
- Dockerが2026年2月に発表したAIエージェント専用のセキュリティフレームワーク
- Containment(封じ込め)・Confidence(信頼)・Curation(整備)**の3軸
- 「エージェントがやったことを後から承認する」のではなく「エージェントが動く世界を事前に定義する」思想
なぜDockerがAIエージェントのセキュリティを語るのか
2026年2月3日、Dockerの公式ブログに「The 3Cs: A Framework for AI Agent Security」が公開されました。
Dockerといえばコンテナ。なぜAIエージェントのセキュリティなのか。
答えはシンプルです。コンテナがプロセス隔離の標準になったように、AIエージェントの隔離にも標準が必要になった。 Dockerはその系譜の上にいます。
プロセスにはメモリ保護、VMにはハイパーバイザー、コンテナにはnamespace。AIエージェントの実行境界は、まだ標準がない。 Dockerが「3C」でその空白を埋めようとしています。
3つのCを解説する
C1: Containment(封じ込め)
定義: エージェントのミスが、データ・ワークフロー・ビジネスに永続的なダメージを与えないよう、影響範囲を制限する。
具体的に何をするか:
- エージェントの実行をDockerコンテナ内に隔離する
- ファイルシステムへのアクセスをマウント単位で制限する
- ネットワークアクセスを必要最小限に絞る
- 実行時間とリソース使用量にリミットを設ける
Claude Codeのサンドボックス機能も、このContainmentの実装の1つです。コマンド実行をサンドボックス内に閉じ込めることで、ホストマシンへの影響を防いでいます。
C2: Confidence(信頼)
定義: エージェントが自律的に動いても「暴走しない」という信頼を構造的に担保する。
Containmentが「壊れても大丈夫にする」なら、Confidenceは「そもそも壊れにくくする」。
具体的に何をするか:
- エージェントの行動ログを記録し、監査可能にする
- 特定の操作(DB書き込み、外部API呼び出し等)に対して承認フローを設ける
- エージェントの振る舞いをテスト可能にする(再現可能な実行環境)
C3: Curation(整備)
定義: エージェントが「何を使えるか」を事前に定義する。エージェントの行動を事後に承認するのではなく、世界を事前に設計する。
Curationの核心:
You are not reviewing what the agent wants to do; you are defining the world it operates in.
(エージェントがやりたいことをレビューするのではない。エージェントが動く世界を定義するのだ)
これはClaude CodeのCLAUDE.md設計と同じ思想です。CLAUDE.mdは「エージェントに何をさせるか」ではなく「エージェントが動く環境を定義する」もの。Dockerの3Cは、これをセキュリティの文脈で体系化しています。
3つのCはどう連携するか
- Curation: 事前に「何ができるか」を定義
- Confidence: 実行中に「正しく動いているか」を監視
- Containment: 失敗したときに「影響を閉じ込める」
3つ揃って初めて機能する。 Containmentだけではミスが減らない。Curationだけでは想定外の事態に対応できない。
Claude CodeユーザーがDockerの3Cから学べること
すでにClaude Codeを使っている人向けに、3Cの考え方を日常のワークフローにマッピングします。
| Docker 3C | Claude Codeでの対応 |
|---|---|
| Containment | サンドボックスモード、ファイルアクセス制限 |
| Confidence | Hooks(PostToolUseで型チェック・テスト実行) |
| Curation | CLAUDE.md(技術スタック・ルール定義)、Skills(必要な知識の選択的提供) |
あなたが普段やっているCLAUDE.mdの設計は、Dockerが「Curation」と呼んでいるものと同じ構造です。
【結論】エージェントの時代に「境界」を設計する
プロセスにメモリ保護が必要だったように、コンテナにnamespaceが必要だったように、AIエージェントにも実行境界が必要です。
Dockerの3Cフレームワークは、その境界を**Containment(封じ込め)・Confidence(信頼)・Curation(整備)の3軸で整理しました。
AIエージェントを本格導入するすべてのチームに、この3つの軸での自己点検をおすすめします。
参考:
- Docker Blog「The 3Cs: A Framework for AI Agent Security」(2026年2月3日)
- Docker Docs「Agentic AI applications」
- Docker Blog「Secure AI Agents at Runtime with Docker」
- Claude Code Docs「Sandboxing」