2026年3月、米国防総省(DOD)はAnthropicとそのClaude製品群を「サプライチェーンリスク」に指定しました。米国企業に対するこの指定は史上初です。
判決と差し戻しが続き、Anthropicは控訴審での仮停止申し立てに敗れました。2026年5月時点では指定が有効です。同月、DODはOpenAIやGoogleなど7社と国防契約を結び、Anthropicは唯一外されました。
開発者として気になるのは「ではClaude Codeを業務で使い続けて大丈夫なのか」という点です。本記事では2026年5月時点の状況を整理し、私たちが取るべき4つの判断軸を提示します。
何が起きたのか 3行で
私の視点で時系列を整理します。
| 時期 | 出来事 |
|---|---|
| 2026年2月 | Rob Zolkos氏のOAuth投稿が炎上、Anthropic広報が釈明 |
| 2026年3月5日 | DODがAnthropicをサプライチェーンリスクに指定 |
| 2026年3月26日 | カリフォルニア連邦地裁が指定を一時差し止め |
| 2026年4月8日 | DC連邦控訴裁が差し止めを覆し、指定が再開 |
| 2026年5月1日 | DODが7社と契約、Anthropicは外れる |
3月の指定理由は単純です。Anthropicの利用規約が「自律型兵器」と「米国民への大規模監視」での利用を禁じていたからです。ペンタゴンはこれを「合法目的に無制限で使えないAIは要らない」と判断しました。
指定の効果は強烈です。国防契約者は「Anthropic製品を使っていない」と証明しないと契約を失います。これは米国の国防サプライチェーン全体への波及を意味します。
地裁は3月26日、トランプ政権の措置を「言論の自由を侵害するOrwellian(オーウェル的)な発想」として一時差し止めました。しかし4月8日、控訴裁はこれを覆し指定を継続させます。Anthropicは訴訟を続けつつも、5月のDOD契約から外されました。
私は法律家ではありません。それでも、米国企業が自国政府からサプライチェーンリスクと名指しされる事態は前例がなく、技術選定の前提が一段変わったと感じています。
OAuth騒動と地続きの構造問題
実は2月のOAuth騒動と3月のペンタゴン指定は、根っこが同じです。
2月の騒動では「Claude Free/Pro/MaxのOAuthトークンを他製品で使うのは禁止」という解釈が広がりました。OpenClawユーザーがBANされる懸念で大騒ぎになりました。
結局これは「ドキュメント整理の混乱」とAnthropic自身が釈明しました。商用利用での流用は元から禁止、個人利用のセルフホスト型ツールは引き続きOK、という整理です。
しかし重要なのはこの一件で示された事実です。AI事業者の規約一行で、エコシステム全体が一夜で動揺する。これが現実です。
ペンタゴン指定はその10倍のスケールで起きた同じ現象です。Anthropic側のポリシーは変わっていないのに、買い手側の解釈が変わるだけで、市場が消し飛ぶ。私たち開発者が向き合っているのはこういう不安定な世界です。
RSPとASLレベルを抑えておく
判断軸に入る前に、Anthropicの安全ガバナンスを理解しておきます。これがペンタゴンとの対立の根源だからです。
AnthropicはRSP(Responsible Scaling Policy)を採用し、AI Safety Level(ASL)という段階基準を運用しています。
ASL-1: 基本リスク。標準的なセーフガード
ASL-2: 中程度リスク。現在のフロンティアモデル
ASL-3: 高リスク。CBRN兵器や自律的R&Dに迫る能力
ASL-4+: 極めて高いリスク。将来の超知能級
ASLが上がるほど、外部監査・物理セキュリティ・利用制限が強化されます。原子力や航空のリスク管理を参考にした設計です。
DODの不満はここにあります。「ASLが上がれば軍事利用が縛られる。買えても使えないAIに価値はない」。一方Anthropicは「縛らないAIは社会全体のリスク」と主張する。両者の立場は構造的に交わりません。
開発者が取るべき4つの判断軸
ここからが本題です。私が今、自社事業と顧客プロジェクトで採用している4つの軸を共有します。
軸1 利用形態を「正規化」する
OAuth騒動の教訓は、業務利用は最初からAPI契約に寄せることです。
| 形態 | 用途 | 安定性 |
|---|---|---|
| Anthropic API直接 | プロダクト組み込み | ◯ |
| Amazon Bedrock経由 | エンプラ要件 | ◎ |
| Google Vertex AI経由 | GCP統合 | ◎ |
| Claude Pro/Max OAuth | 個人開発のセルフ運用のみ | △ |
私のチームでは、本番環境はBedrock、社内ツールはAnthropic API、個人検証だけPro契約という形に整理しました。OAuth流用が必要な構成は最初から組まない、と決めるだけで、規約変動リスクが激減します。
正直に書くと、私自身が一番最初にやらかしていました。Claude Pro契約のセッショントークンを社内Slack botに使い回していて、2月のOAuth騒動の翌朝に深夜まで巻き直す羽目になっています。失敗してから整理するより、最初から構成を分けたほうが圧倒的に安い、というのが身に染みた教訓です。
個人のClaude Pro/MaxトークンをチームのSlack botに埋め込む構成は、商用利用と判断される可能性が高いです。少額でもAPI契約に切り替えるべきです。
軸2 ベンダーロックインを避ける
ペンタゴン指定の最大の教訓は「単一ベンダー依存はリスク」です。
私はCLAUDE.mdの設計を特定モデル非依存で書くことを徹底しています。具体的には次の3点です。
## 設計ルール
- モデル固有の挙動(Claude特有のXMLタグ等)は最小限
- ツール呼び出しはMCP(Model Context Protocol)経由に統一
- プロンプト評価はGPT-5/Gemini 2.5/Claudeの3社で並走
MCPはモデル間で互換性が高いプロトコルです。サーバー実装を変えずにLLM側だけ差し替え可能なので、緊急避難の選択肢を常に確保できます。
軸3 地政学リスクを「業務データ単位」で評価する
ペンタゴン指定は今のところ国防契約者向けです。しかし政府機関や金融、医療など、米政府の影響を強く受ける顧客を抱える日本企業には間接的に波及します。
私は顧客プロジェクトで次のチェックリストを使っています。
□ この案件のデータは米政府の規制対象になりうるか
□ 顧客の取引先に米国防産業のサプライチェーンが含まれるか
□ Anthropicが今後利用拒否される業界に該当するか
□ 代替モデル(GPT-5, Gemini, 国産Karakuri等)で要件を満たせるか
該当が1つでもあれば、Anthropic単独構成は避けます。「使うな」ではなく「依存しない構成にする」が正解です。
軸4 代替手段を常時温める
最後の軸はシンプルです。Claude Code以外のエージェントを最低1つ、毎週触っておく。
| ツール | 強み | 弱み |
|---|---|---|
| GitHub Copilot | IDE統合の安定感 | エージェント機能はやや弱い |
| Cursor | モデル切替の柔軟さ | 大規模リファクタは荒れがち |
| Cline | OSSでマルチプロバイダー | 設定の手間 |
| Aider | コミット粒度が細かい | UIなし |
私の運用は「メインClaude Code、サブCursor、検証用Aider」です。週1で同じタスクをCursorで再現し、品質と速度を比較しています。これだけで「乗り換えコスト」の感覚が研ぎ澄まされます。
スイッチングコストは想像より高いです。プロンプトの癖、CLAUDE.mdの読み方、ツール呼び出しの精度。同じ指示でも結果が変わります。「いざとなったら乗り換える」では遅いです。普段から並走させて初めて、本当の意味の代替手段になります。
正直、毎週同じタスクを別のエージェントに食わせ直すのは地味に面倒です。私も先週は3日サボりました。それでも本番乗り換えの瞬間に「Cursorのショートカット思い出せない」を避けるための保険料だと割り切っています。
代替手段の評価は「動くか」ではなく「乗り換え後30分で同じ生産性を出せるか」で見るべきです。慣れの差が思った以上に大きいです。
なぜAnthropicは規約を緩めないのか
「軍事利用OKにすればこの問題は終わる」と思う方もいるかもしれません。しかし私はAnthropicの姿勢を支持しています。
CEOのDario Amodei氏はFortune誌のインタビューでこう述べています。
数社・数人がAIの未来を決めていることに、深い不快感がある
OpenAIから安全性への懸念で分離独立したのがAnthropicです。設立DNAそのものが「規約を緩めない」設計です。むしろ世界最大の顧客を失ってでも姿勢を崩さない、その筋の通し方が今後の信用を生むと私は考えています。
短期で見ればペンタゴン契約を失う痛手です。しかし長期で見れば、規約を曲げる事業者の方がより大きな信用を失うはずです。
私が顧客に提案するときも、Anthropicの「ブレなさ」は重要な選定理由になっています。「自律型兵器に使わない」と明言する事業者の方が、医療データやプライベート情報の扱いも信頼できると感じるからです。コンプライアンスは細部に宿ります。
日本のエンジニアが今すぐやるべきこと
ペンタゴン問題は対岸の火事ではありません。私が今週、自社で実行したことを共有します。
## 今週のアクション
1. 全プロジェクトのLLM利用を棚卸し(誰がどこで何を)
2. OAuth流用構成の有無を確認、あればAPI契約に移行
3. CLAUDE.md/AGENTS.mdをモデル非依存形式に書き直す
4. 主要顧客の業界が米政府規制下かを確認
5. 代替モデルでの動作検証チケットをスプリントに入れる
5項目とも、コード1行も書かずに着手できます。重要なのは「いつかやる」ではなく「今週着手する」ことです。ポリシーは突然変わる、その学びがOAuth騒動でした。次のサプライズに備える時間は今しかありません。
まとめ
ペンタゴンによるAnthropic指定は、AI事業者と国家の関係性が新フェーズに入ったことを示しています。Anthropic単体のリスクではなく、AIプラットフォーム全体に共通する構造リスクです。
私が提示した4つの軸はシンプルです。
- 利用形態を正規化(OAuth流用を排除)
- ベンダーロックインを回避(MCP+マルチモデル)
- 地政学リスクをデータ単位で評価
- 代替手段を毎週触って温めておく
ポリシーは変わります。設計思想は残ります。変わることを前提に、自分のポジションを設計する。これが私のとっている戦略です。
あなたのチームは今、Claude単独構成になっていませんか。一度棚卸ししてみる価値はあると思います。
本記事の内容をさらに掘り下げたい方へ。Zenn Book「Claude Code完全攻略ガイド」の第17章で、OAuth騒動からペンタゴン認定までを構造的に解説しています。
https://zenn.dev/kenimo49/books/claude-code-mastery
参考
- Pentagon Designates Anthropic a Supply Chain Risk(Mayer Brown, 2026年3月)
- Anthropic loses appeals court bid to temporarily block Pentagon blacklisting(CNBC, 2026年4月)
- Pentagon freezes out Anthropic as it signs deals with AI rivals(Defense News, 2026年5月)
- Where things stand with the Department of War(Anthropic公式)
- Anthropic「Responsible Scaling Policy v2.2」公式サイト
