この記事のポイント
- Anthropicが米国防総省(ペンタゴン)を連邦裁判所に提訴
- 国防総省がAnthropicを「サプライチェーンリスク」に指定——通常は外国の敵対勢力に適用される措置
- 争点はAnthropicが求める2つの制限:大量監視への不使用、自律兵器への不使用
- 国防総省は国防生産法(DPA)の発動を示唆し、安全制限の撤廃を要求
- OpenAIが同時期に国防総省と契約締結——AI業界の分断が浮き彫りに
「前例のない、違法な行為」
2026年3月9日、AI企業Anthropicはカリフォルニア州北部地区連邦地方裁判所に訴訟を提起した。被告はトランプ政権下の国防総省およびその他の連邦機関だ。
訴状でAnthropicは、政府の行動を「前例のない違法な行為」と表現し、「サプライチェーンリスク」指定によって同社が「回復不能な損害」を被ると主張している。この指定により、数億ドル規模の政府契約および民間契約が脅かされているという。
2つのレッドライン
紛争の核心にあるのは、Anthropicが政府契約において譲らなかった2つの条件だ。
- 米国市民に対する大量監視にClaudeを使用しないこと
- 自律型兵器システムにClaudeを使用しないこと
国防総省は2026年1月、ヘグセス国防長官のAI戦略覚書において、全ての国防AI契約に「あらゆる合法的使用(any lawful use)」を認める標準条項を180日以内に導入するよう指示した。これはAnthropicの制限条項と真正面から衝突する内容だった。
交渉が決裂すると、国防総省はAnthropicとの政府契約を打ち切り、さらに同社を「サプライチェーンリスク」に正式指定。これにより、防衛請負業者がAnthropicの技術を国防総省関連業務に使用することも事実上禁止された。
国防生産法の影
事態をさらに深刻にしているのが、国防総省による国防生産法(Defense Production Act, DPA)発動の示唆だ。
DPAは、国防上の必要がある場合に政府が民間企業に生産を強制できる法律で、主に戦時中の物資調達に使用されてきた。国防総省はこの法律を使い、Anthropicに安全制限を撤廃した形でのAIモデル提供を強制する可能性を示唆している。
しかし法律専門家は、この適用には「前例がない」と指摘する。Lawfareの分析によれば、「DPAが企業に対し、自社が安全でないと判断した製品の生産を強制したり、利用規約を一方的に変更させるために使用されたことは一度もない」という。
OpenAIとの明暗
この紛争が注目を集めるもう一つの理由は、OpenAIとの対比だ。
Anthropicが国防総省との交渉を打ち切られたまさに同時期に、OpenAIは国防総省との新たな契約を締結した。報道によれば、OpenAIの契約条項にはAnthropicが要求して拒否されたものと類似した安全条項が含まれているとされ、この点について「場当たり的で日和見的」との批判が上がっている。
AI業界への波及
この訴訟は、AI技術の軍事利用を巡る業界全体の分水嶺となりうる。
Anthropicが勝訴すれば、AI企業が政府に対して安全制限を維持する法的根拠が確立される。一方で敗訴すれば、国防総省はDPAを通じて他のAI企業にも同様の要求を行う前例を手にすることになる。
Anthropicの共同創業者兼CEOであるDario Amodeiは、安全性を企業のコアバリューとして位置づけてきた。今回の訴訟は、その理念が最も厳しい試練に直面している瞬間と言えるだろう。
出典・参考
本記事は以下の報道をもとに作成しています。
- Fortune「Anthropic sues the Pentagon after being labeled a threat to national security」(2026年3月9日)
- CNN Business「Anthropic sues the Trump administration after it was designated a supply chain risk」(2026年3月9日)
- Deccan Herald「Anthropic sues to block Pentagon blacklisting over AI use restrictions」(2026年3月9日)
- Military Times「What to know about Defense Protection Act and the Pentagon's Anthropic ultimatum」(2026年2月26日)
- Lawfare「What the Defense Production Act Can and Can't Do to Anthropic」(2026年3月)
- The Hill「Pentagon draws scrutiny with Anthropic threats, Defense Production Act」(2026年3月)
この訴訟が日本のAI企業に示唆するもの
Anthropicの訴訟は、日本のAI企業にとっても他人事ではない。日本政府もAIの安全保障利用を推進しており、防衛省は2025年に「AI活用推進室」を設置した。将来、日本のAI企業が同様の立場に立たされる可能性はゼロではない。
日本のAI企業——Preferred Networks、ABEJA、Sakana AIなど——が自社のAI安全性ポリシーをどこまで明確に定義しているかは、今後重要な経営課題となる。Anthropicの訴訟が生み出す判例は、米国内にとどまらず、同盟国のAI政策にも波及する可能性が高い。
AI安全性をめぐる3つのシナリオ
今回の訴訟の結末として、3つのシナリオが考えられる。
| シナリオ | 内容 | AI業界への影響 |
|---|---|---|
| Anthropic勝訴 | AI企業の安全性ポリシーの自律性が法的に認められる | 企業は独自の倫理基準を維持しやすくなる |
| 政府勝訴 | DPAの適用範囲がAIにまで拡大 | AI企業は政府の要請を拒否しにくくなる |
| 和解 | 非公開の条件で決着 | 法的先例は生まれないが、実質的な妥協が形成 |
いずれの結末になるにせよ、この訴訟は「AIの安全性を誰が決めるのか」という根本的な問いに法的な枠組みを与える試みとして、AI業界の歴史に記録されることになるだろう。Anthropicが掲げる「Constitutional AI(憲法AI)」の理念——AIに人間の価値観を明示的に組み込むアプローチ——は、今回の訴訟によって企業のマーケティング用語から法的議論の対象へと格上げされた。AI安全性が「理念」から「法的権利」へと進化するかどうか——その転換点に、私たちは立ち会っている。
※訴訟は係属中であり、今後の法廷判断により状況が変化する可能性があります。
