📌 この記事について
本記事はオピニオン記事です。核心的な主張(モデルは漏れていない)は技術的に正確ですが、一部の数値・詳細については完全な検証が取れていない箇所があります。該当箇所には⚠️ 要確認マーカーを付けています。詳細は末尾の「ファクトチェックノート」をご参照ください。
はじめに
2026年3月31日、海外の大手メディアが一斉にこんな見出しを出した。
FortuneやBrietbartなどをはじめ、複数の海外メディアが「Anthropic Leaks Its AI Model」「Major Security Breach」といった言葉を使って報じた。
…本当に?
正直に言う。私はこれを読んで カチン ときた。
なぜなら、これらの見出しのほぼすべてが技術的に間違っているから。
何が実際に起きたのかを、できるだけシンプルに整理していく。
何がリークしたのか?
一言で言うと
Claude Codeというツールのソースコードが、うっかり公開されてしまった。
もう少し詳しく言うと、Anthropicが配布しているコーディングツール「Claude Code」のパッケージに、本来入れるべきでなかったファイルが誤って混入した。そのファイルを辿ることで、Claude CodeのTypeScriptソースコード(約50万行) ⚠️ 要確認-1 が誰でも見られる状態になった。
Anthropic自身もこれを認め、「人為的なミスによるパッケージングのエラーであり、セキュリティ侵害ではない」と声明を出した。
以上。これが事件の全貌だ。
では「モデルはリークしたのか?」
答え:No。
モデルは漏れていない。
ここで「モデル」が何を指すかを整理しておく。AIの「モデル」とは、簡単に言えばClaudeの頭脳そのものだ。何百億というパラメータ(数値の塊)で構成されており、Anthropicのサーバーの中だけに存在する。これが漏れるということは、Claudeの「知性」が丸ごと外に出ることを意味する。
今回、それは起きていない。
リークしたのは、そのモデルを使うためのアプリのコードだ。
モデルとアプリは別物だ
わかりやすく例えるなら——
シェフのレシピ帳(アプリのコード)が外に出てしまった。
でもシェフ自身(モデル)は厨房の中に無事いる。
Claude Codeというツールは、Claudeモデルに「こういう仕事をしてください」と指示するためのアプリに過ぎない。そのアプリのコードが漏れたとしても、Claudeモデルそのものには何も影響がない。
今Claude.aiやAPIを使っている人は何も心配しなくていい。あなたのClaudeは漏洩前と全く同じだ。
実際の影響:あるものとないもの
ある影響(正直に認める)
-
競合他社がClaude Codeの設計を見られるようになった。 まだ公開されていない機能の情報も含まれていたと報告されている。
⚠️ 要確認-2 - 偽物のClaude Codeリポジトリが大量に出回った。 マルウェアが仕込まれたものも確認されている。これは現実の脅威だ。
- Anthropicの知的財産が外部に露出した。
ない影響(これが重要)
- ❌ Claudeモデルの流出
- ❌ ユーザーデータや認証情報の漏洩
- ❌ Claudeの能力や安全性への影響
- ❌ 「ハックされた」という事実
なぜ海外メディアはこう報じたのか
FortuneやBreitbartのような海外の大手メディアが「モデルがリークした」というニュアンスで報じたのには、構造的な理由がある。
まず、「Claude Code」という製品名に「Claude」が入っているため、Claude CodeのコードをClaudeモデルそのものと同一視する誤解が生まれやすい。
次に、「ソースコードが漏れる」ことと「AIモデルが漏れる」ことの違いは、エンジニアには自明でも、一般読者には伝わりにくい。
そして何より、「Anthropic leaks source map file」より「Anthropic leaks its AI」の方がクリックされる。
エンジニアなら誰でも知っていることだが、こういう区別は:
- Webアプリのコードが漏れても、データベースの中身は漏れない
- スマホアプリのソースが漏れても、Appleのサーバーは無事だ
- Claude Codeのコードが漏れても、Claudeのモデルは漏れない
見出しになった瞬間、この当たり前が消える。
Anthropicの対応
悪かった点:
そもそも防げたミスだ。リリース時にファイルを除外する設定を入れるだけでよかった。「世界で最も安全なAIラボ」を名乗る企業として、初歩的すぎる失敗だ。さらに、漏れたコードをGitHubから削除しようとして、無関係なリポジトリまで大量に巻き込んでしまった。⚠️ 要確認-3 これも余計な炎上を招いた。
良かった点:
隠さなかった。Anthropicはすぐに事実を認め、「人為的ミス」と明言した。ユーザーデータは漏れていないことも明示した。
まとめ
一行で言えば:
「Anthropicはツールの設計図を誤って公開したが、Claudeの頭脳は無事だ。」
これはビジネス的な打撃であり、オペレーションの失敗だ。しかし「AIモデルが丸ごとリークした」という報道は、技術的に正確ではない。
海外メディアの見出しをそのまま信じる前に、少し立ち止まって考えてほしい。「ソースコード」と「モデル」は違う。この区別だけで、情報の受け取り方が大きく変わる。
おまけ:今すぐできること
- GitHubで「leaked Claude Code」を名乗るリポジトリは絶対に実行しないこと。 マルウェア入りのものが確認されている。
- 公式(anthropic.com)以外からはインストールしないこと。
- 心配なら、Anthropicの公式セキュリティアドバイザリを直接確認することを推奨する。
⚠️ ファクトチェックノート
本記事の核心的な主張(「モデルは漏れていない」「リークはアプリ層のコード」)はAnthropicの公式声明および複数の技術レポートと一致しており、信頼性が高い。ただし以下の詳細については、一次情報源での独立した確認を推奨する。
✅ 確認済み
| 主張 | 根拠 |
|---|---|
| モデルウェイト・ユーザーデータは漏れていない | Anthropic公式声明(Fortune, CNBC, Axiosが確認) |
| 原因はパッケージングのhuman error | Anthropic公式声明、Zscaler技術分析 |
| 外部攻撃ではない | Anthropic公式声明 |
| マルウェア入りの偽フォークが存在する | Zscaler ThreatLabzによる実地調査 |
⚠️ 要確認の項目
要確認-1|「約50万行」という数字
Fortune・Axios・Cybernewsなど複数メディアが報じているが、500,000行・512,000行など数字に揺れがある。Anthropicの公式発表ではないため、概算として扱うべきだ。
要確認-2|「未リリースの機能フラグ」の数
サードパーティのセキュリティ研究者が報告した数字であり、Anthropicが公式に確認した数ではない。存在自体はAnthropicも認めているが、具体的な数を断言するのは避けた方がいい。
要確認-3|GitHubでの大量削除の規模
TechCrunchがGitHubの記録をもとに報じた数字だ。Anthropicは過剰適用を認めて申請を撤回しているが、具体的な影響規模については独立した確認が理想的だ。
間違いや補足があればコメントで教えてください。
著者より: AI・LLMアーキテクチャに関心のあるエンジニアです。正確な情報の普及が業界全体の健全な発展につながると信じています。