事の発端:「自律兵器への全面提供」が踏み絵になった
もともとAnthropicとPentagonの間には、AIモデルの利用規約をめぐる長期的な摩擦があった。
争点の核心は一つの条文だ。 Pentagonは、Claude(AnthropicのAIモデル)を「全ての合法的な目的(all lawful purposes)」に無制限に使用できるよう求めた。 具体的には、完全自律型兵器システムおよび大規模国内監視への応用が含まれている。 AnthropicはAI安全性の原則から、この条件を受け入れることを拒否した。
2026年2月27日、トランプ政権はAnthropicを「サプライチェーン上の国家安全保障リスク」に指定し、連邦機関全体にAnthropicとの取引停止を命じた。 これを受けてAnthropicは国防総省を提訴し、現在も法廷闘争が続いている。
Pentagonが選んだ「8社の顔ぶれ」
Pentagonが代替として契約した企業の顔ぶれは、この問題の地政学的含意を明確に示す。
| 企業 | 主要AIモデル |
|---|---|
| Microsoft | Copilot / GPT-5.5(OpenAI経由) |
| Gemini | |
| xAI | Grok |
| Amazon | Nova / Bedrock |
| Meta | Llama |
| Oracle | 複数モデルのホスティング |
| L3Technologies | 防衛特化型AI |
| (8社目) | 非公開 |
共通点は「軍事・機密システムへの全面提供に同意した」という点だ。
この構図は、AIの軍事利用において「自律兵器へのアクセス制限」を設けるかどうかを、事実上の業界分断線にしてしまった。 米CAISIが主要AIモデルの公開前安全審査制度を整備したことと組み合わせると、米政府はAI企業を「従順なサプライヤー」と「原則派」に二分しつつあると読める。
5月11日の新展開:James BakerがAnthropicへ移籍
この重要な人事が5月11日に報じられた。
ジェームズ・ベイカー氏は2015年から2025年まで、国防総省の「純評価局(ONA: Office of Net Assessment)」を率いた人物だ。 「ペンタゴンのシンクタンク」とも呼ばれるONAは、30〜50年先を見据えた長期安全保障戦略を担う組織で、AI・宇宙・量子技術の軍事的含意についても深く研究してきた。
ベイカー氏の移籍は、Anthropicが軍事・安全保障領域とのチャネルを完全に断つのではなく、「政策的に整合した形での連邦関与の道を探っている」ことを示唆している。 同社は現在、連邦業務から6ヶ月の「引き下がり」期間にあるとされるが、ホワイトハウスが主導する「Anthropicとの連邦取引を正式に許可する計画」の策定が進んでいることも報じられている。
地政学アナリスト視点:三つの長期リスク
地政学的に見て、この一連の事件が示唆するのは次の3点だ。
1. AIの軍事調達に「政治的スタンス」が入り込む危険
AIの調達先が企業の「倫理的原則」ではなく「政治的な従順さ」で決まる時代になるとすれば、長期的に市場の歪みが生じる。 「ガードレールを外せ」という圧力に応じた企業がより多くの政府契約を獲得し、安全基準の高い企業が市場から排除されるという逆インセンティブ構造だ。
2. AI安全性の「二極化」が加速する
AnthropicのClaude Mythosが企業侵入テストで最高水準を記録したように、先進AIモデルは攻撃的サイバー能力においても高い水準に達しつつある。 こうしたモデルを完全自律型兵器に組み込むことへのリスクは、AI研究者の間でも深刻な懸念として共有されている。 しかし国防調達の論理は往々にして、安全性より「使いやすさ」と「政治的コンプライアンス」を優先する。
3. 日本・欧州への波及
米国でこの二極化が進めば、同盟国の調達判断にも影響する。 日本の防衛省や自衛隊がAIを導入する際、米国基準に沿って「自律兵器容認モデル」を選ぶ圧力が生じる可能性は否定できない。 欧州ではEU AI Actが自律兵器への高リスクAI規制を明文化しているが、NATO枠組みの中での実運用はまだ未整備の領域だ。
Anthropicの戦略的ジレンマ
Anthropicの立場から見ると、この問題は単純ではない。
商業事業(金融・ヘルスケア・エンタープライズ)では、Blackstone・Goldman Sachsとの1.5兆円規模の合弁事業に見られるように、旺盛な需要がある。 しかし連邦調達市場全体(年間数兆円規模)からの排除が長期化すれば、成長のボトルネックとなりうる。
また、「原則を守った企業」としての評判は、欧州市場や倫理的調達を重視する企業顧客に対してプラスに働く。 AI安全性への強いコミットメントは、長期的な信頼資本の構築につながるという見方もある。
James Bakerの採用は、こうした複雑な方程式を解く一手として位置づけられる。
今後の注目点
2026年後半の焦点は二つだ。
第一に、AnthropicとPentagonの法廷闘争の行方だ。 連邦裁判所がAnthropicのガードレール条項を「合理的な制限」と認めるかどうかは、AI企業全体の利用規約設計に影響する法的先例になる。
第二に、ホワイトハウス主導の「Anthropic連邦利用再承認計画」の具体化だ。 これが実現すれば、Pentagonとの対立を維持しつつも他の連邦機関(医療・教育・行政)での利用は認めるという分断した構造になりうる。
AIが軍事・安全保障に深く組み込まれていく時代において、「企業の倫理的原則」と「国家安全保障の要求」はどこで折り合えるのか——あなたはどう考えるだろうか。
ソース:
- Pentagon strikes deals with 8 Big Tech companies after shunning Anthropic — CNN Business(2026年5月1日)
- Former head of 'Pentagon's think tank' joins Anthropic — Defense One(2026年5月11日)
- Anthropic's Standoff With the Pentagon Is a Test of U.S. Credibility — Council on Foreign Relations
- White House is drafting plans to permit federal Anthropic use — Nextgov/FCW(2026年4月)



