対立の経緯:ヘグセス長官の要求とAnthropicの拒否
事の発端は今年2月、ピート・ヘグセス国防長官がAnthropicに対し、同社の利用規約に含まれる2つの条項の削除を求めたことだった。
- 「完全自律的な致死的兵器システムの開発・運用への使用禁止」
- 「法的権限なしに個人を標的とする大規模監視システムへの使用禁止」
これらはAnthropicがClaude全バージョンに課す「使用ポリシー」の中核であり、同社が創業以来一貫して守ってきたレッドラインだ。 Anthropicは「AIはまだ自律兵器を信頼できるほど正確に動作できない」「大規模監視に関するAI使用を規律する法律が存在しない」という2つの論拠から、要求を拒絶した。
これに対してトランプ政権は3月、Anthropicを「サプライチェーン上のリスク(supply chain risk)」に指定し、政府との全契約打ち切りを命じた。
連邦裁判所の判断:仮処分による排除命令停止
2026年3月27日、カリフォルニア州北部地区連邦地方裁判所のリタ・リン判事は、トランプ政権によるAnthropicの「supply chain risk」指定と政府契約打ち切り命令に対し、仮処分(temporary restraining order)を発令した。 これにより、Anthropicが政府との既存契約から実質的に排除される状態は法的に停止された。
裁判所が指摘した主な論拠は以下のとおりとされる。 まず、政府が適正手続(due process)を経ずに指定を行ったこと。 次に、Anthropicが「ガードレール条項」を維持することは合理的な商業判断であること。 そして、排除による損害は回復困難であること。
この判決は、「AIセーフティ条項は商業的な合理的慣行であり、政府が一方的に撤廃させることはできない」という法理を示した点で、AI産業全体に大きな先例的意義を持つ。
法務・ポリシー視点:「AIセーフガード」は契約条項か公序良俗か
法的観点からこの事案を分析すると、争点の核心は「AIセーフティ条項の法的性質」にある。 企業が自社製品の使用制限を設けることは、知的財産権・使用許諾(ライセンシング)の観点から原則として適法だ。 しかし政府調達の文脈では、民間企業の使用制限が「公共の利益(national security)」と衝突する場合、どちらが優先されるかという問いが発生する。
米国では「国防生産法(Defense Production Act)」が一定の状況下で民間企業に政府への協力を義務付けるが、思想・倫理的原則に基づく制限を強制的に撤廃させる権限は通常含まれない。 今回の政権側の論拠は「Anthropicのガードレールが軍事的有効性を損なう」というものだが、これが「国家安全保障上の緊急事態」として法的に立証できるかは別問題だ。 リタ・リン判事の仮処分は、この政権の主張に強い疑義を示したものと解釈できる。
ホワイトハウスがAnthropicのMythosセキュリティツール展開に反対した件についてはこの記事で解説した。
国際的な含意:Responsible AI原則の崩壊シナリオ
OECDが2019年に採択し、G20も支持する「AIに関するOECD原則」は、AIシステムが「安全」「透明」「説明可能」「人間の監視下」にあることを求めている。 国連も2024年に「責任あるAI利用のための国際的合意」形成に向けた議論を始めていた。
今回の米国の動き——民間企業のAIセーフティ原則を国家安全保障の名の下に無効化しようとする試み——は、このグローバルなAIガバナンスの流れに逆行する。 欧州、カナダ、日本など規制寄りの民主主義国家は、自国内のAI規制と米国の「脱規制路線」との整合性をどう保つかというジレンマを抱えることになる。
また、Anthropicが資金調達で企業価値9,000億ドル超を模索している背景についてはこちらが参考になる。
業界全体への波及:他のAI企業への圧力は?
今回のAnthropicへの圧力は、他のAI企業にとっても無視できないシグナルとなっている。 OpenAI、Google、Microsoftは今回の協定を締結したが、彼らのモデルにも使用制限ポリシーは存在する。 政府の姿勢が今後さらに強硬になった場合、これらの企業も同様の圧力を受ける可能性はゼロではない。
一方で今回OpenAI等が協定に応じた背景には、彼らのポリシーが軍事使用に関してより柔軟な余地を残していたか、あるいは政治的配慮から妥協点を見出したと見られる。 AI業界における「政府との関係構築」が経営戦略の重要要素になっていることを、この事案は改めて示している。
今後の注目点:本訴訟の行方と立法化の可能性
仮処分はあくまで暫定措置であり、本訴訟の行方が引き続き重要だ。 Anthropicが勝訴すれば、「民間企業はAIの使用制限を法的に守れる」という先例が確立される。 敗訴すれば、政府は国家安全保障を理由に企業のAI使用ポリシーを上書きできるという判断が生まれる。
より長期的には、連邦議会でのAI規制立法が焦点となる。 「AI in Military Act」のような形で、軍事AIの使用基準を立法化する動きが出てくる可能性がある。 また、欧州・国連レベルでの国際規範化の議論も加速するだろう。
自律的なAI兵器の「制御」を誰が、どのような基準で担保するのか——この問いへの答えが定まらぬまま、技術だけが進んでいく。法と倫理の追いつき合いの中で、あなたはAnthropicの立場をどう評価するか。
ソース:
- Anthropic Refuses Pentagon Demand to Remove AI Security Guardrails — ASIS Online(2026年2月)
- Pentagon threatens to make Anthropic a pariah — CNN Business(2026年2月24日)
- Federal Court Blocks Pentagon's Blacklisting of Anthropic — Democracy Now!(2026年3月27日)
- Pentagon vs. Anthropic: Autonomous Weapons AI Guardrails — Cloud Security Alliance
- Why the Pentagon wants AI without guardrails — WBUR On Point(2026年3月2日)

