つい最近、サイバーセキュリティの常識を覆すような出来事があった。Anthropicが発表したばかりの「Mythos」モデルが、人間の介入なしに、巧妙に細工された2つのTCPパケットをOpenBSDに送信したのだ。たった2つのパケットだけで、世界で最も厳格なコード監査が行われ、無数の重要インフラを支えているこのOSを、リモートからカーネルパニックに陥らせてしまった。
正直、このニュースを最初に見たときは、「またAI企業の過剰なPRだろう」としか思わなかった。しかし、その脆弱性がコードの中に27年もの間、ひっそりと潜み続けていたという事実には驚かされた。
AIが20年以上も放置されてきたセキュリティの死角をこうも簡単に見破ってしまう今、既存のソフトウェアの信頼性モデルは果たしていつまで持ちこたえられるのだろうか?
📊 Mythos 脆弱性発見の実績まとめ
| ターゲット | 潜伏期間 | 脆弱性の種類 | 実績 |
|---|---|---|---|
| OpenBSD | 27年 | TCP選択的確認応答の整数オーバーフロー | たった2つのパケットでリモートからカーネルパニックを引き起こす |
| FFmpeg | 16年 | 範囲外書き込み(Out-of-bounds write) | 500万回のファジングテストをすり抜けた死角を突破 |
| Linux カーネル | 不明 | 低リスク脆弱性の連鎖 | メモリページアロケータを操作し、一気に最高権限を取得 |
| Firefox エンジン | - | 複数の脆弱性 | 181個の有効なエクスプロイトスクリプトを自律的に開発し、成功率72.4%を記録 |
🧨 既存の防御システムの「物理的限界」
全自動のファジング(Fuzzing)ツールがあるじゃないか、と思うかもしれない。世界中のテック巨人が巨大なサーバーファームを構築し、24時間休むことなくテストを回し続けている。おまけにトップクラスの専門家たちが毎日コードを睨みつけているのに、なぜこんな致命的なバグが20年以上も見逃されてきたのだろうか?
この問いに答えるには、既存の防御策に対する過信を捨てなければならない。例えば16年間隠れていたFFmpegの脆弱性。過去十数年、Google OSS-Fuzzのようなツールが該当のコードを500万回以上も繰り返し実行してきたが、一度もクラッシュすることはなかった。
なぜか?ファジングの真髄は超高速なランダム試行錯誤にあるからだ。しかし、このFFmpegの脆弱性は極めて精密な論理の罠だった。特定の動画がきっちり65536個のスライスを含んでいる必要がある。複雑なデコーダーシステムの中で、ランダムな変異が「65536」というピンポイントな状態に偶然ヒットする確率はほぼゼロに近い。エンジニアリングの世界ではこれを「状態爆発」と呼ぶ。
機械のランダム攻撃がダメなら、専門家の目視レビューはどうだろう。OpenBSDの防壁が突破された理由はここにある。人間の脳は局所的な構文エラーを見つけるのは得意だが、数百万行にも及ぶ相互依存したコードを前にすると、モジュール間の暗黙の前提まで追跡しきれない。
このOpenBSDの脆弱性の本質は、数字のレベルで発生した論理的パラドックスだ。パッケージのシーケンス番号が同時に「正の数」であり「負の数」でもあるなんてことは、人間の常識ではあり得ない。しかし、整数オーバーフローが発生した瞬間、コードの中ではそのあり得ないパラドックスが本当に起きてしまったのだ。
💡 Mythosの次元が違う戦い方
Mythosを単に「処理速度の速いファジングツール」だと思っているなら、状況を完全に見誤っている。従来のテストが、目隠しをして砂浜に金属探知機を乱射しているようなものだとすれば、Mythosは砂浜全体の地形を読み取り、砂粒一つの物理的性質まで理解している「超・観察者」だ。
その圧倒的な強みは以下の2点にある。
- 超大規模なコンテキストの理解力:現在漏洩している情報によると、Claude Mythos Previewは10兆パラメータ規模の超巨大モデルだ。OS全体のソースコードを一度にコンテキストに読み込み、「ターゲットを絞ったセマンティック検索」を行うことができる。
- 極めて高い自律エージェント能力:攻撃のループを完全に自律化している。論理の断絶を発見する → 自分でテストケースを書く → コンパイラを呼び出す → クラッシュ時のメモリダンプを監視する。もし失敗しても、エラーログから戦略を修正して再攻撃を仕掛けるのだ。
ただ窓の隙間を見つけるだけでなく、その窓を完璧にこじ開けるためのオーダーメイドのバールまで作ってくれるようなものだ。
⏳ 崩壊する信頼モデル:なぜ修正はこれほど難しいのか?
サイバーセキュリティの世界には「90日間の脆弱性開示期限」という暗黙のルールがある。だが、Mythosの前では、この90日という猶予期間はもはや過去の遺物にすぎない。
AIはわずか数分で深層の脆弱性を特定し、数時間でエクスプロイトコードから権限昇格ルート、痕跡消去のバックドアまですべてパッケージ化して書き上げてしまう。対照的に、人間がパッチを当ててデプロイするサイクルは、短くても数ヶ月、長ければ年単位の時間がかかる。
- 再現と検証の異常なコスト:稀な条件の組み合わせを人力で再現するのは「人・年」単位の時間を消費する。以前関わったプロジェクトでも、並行処理が原因の稀なクラッシュを再現するだけで、チームの3人が丸1週間徹夜したことがある。
- アーキテクチャの負の遺産:10年以上潜伏していた脆弱性は、システムのコアアーキテクチャと密結合していることが多い。根本の整数オーバーフローを修正しようとすると、他のネットワークプロトコルで予期せぬ連鎖クラッシュを引き起こす危険がある。
この「スピードの圧倒的格差」がもたらす結果は残酷だ。Mythosが暴き出した深刻な脆弱性のうち、迅速に修正されるものは全体の1%にも満たない。残りの99%は、デジタル世界に吊るされた時限爆弾となってしまう。
🚀 次の打ち手は「ソースコードではなく環境を直す」
こうした板挟みの中、AnthropicはApple、Google、Microsoftなど12のコア組織と共同で「Project Glasswing」を立ち上げた。彼らの戦略は、人間の修正作業を加速させることではない。「生死を分けるタイムリミットを稼ぐ」こと、つまりソースコードは触らず、環境側を改修するというアプローチだ。
システムの入口にAIが生成した「仮想パッチ」を適用する。緩んだ窓の前に、一時的に見えない鉄格子を溶接するようなイメージだ。だが、これには新たなリスクも伴う。もしAIが正常な銀行の決済指示を「攻撃」と誤認して遮断してしまったら、一体何が起きるだろうか?
私たちは、一つの宿命的な現実を受け入れなければならない。コードは永遠に不完全だということだ。セキュリティ防壁の真の最前線は、「システムにバグがないこと」を追求する場所ではない。バグが突かれたとき、大惨事になる直前のほんの一瞬で、システムが自律的に攻撃を弾き返せるかどうかにかかっている。
AIによる脆弱性発掘が当たり前になる未来で、セキュリティエンジニアの仕事はどう変わっていくと思うだろうか?ぜひコメント欄であなたの考えを聞かせてほしい!
