2026年2月末、トランプ大統領がすべての連邦機関にAnthropicのAI技術の即時利用停止を命じた。AI安全性を巡る企業と政府の対立が、前例のない制裁措置にまで発展した形だ。しかし3月末、連邦判事がこの禁止令をブロックし、「法に反し、恣意的で、修正第1条への報復に該当する可能性が高い」と判示した。
対立の全経緯——タイムライン
| 日時 | 出来事 |
|---|---|
| 2026年2月24日 | Anthropic、Responsible Scaling Policy(RSP)v3を公開 |
| 2月末 | 国防総省、Anthropicに金曜17:01の期限を設定——自律型兵器・大規模監視への制限を撤回するよう要求 |
| 2月27日 | Anthropic拒否。国防総省がAnthropicを「サプライチェーンリスク」に指定 |
| 同日 | OpenAIが国防総省と2億ドルの契約を発表 |
| 3月2日 | OpenAI CEOアルトマン「展開が便乗的で雑に見えた」と認め、契約を修正 |
| 3月24-25日 | サンフランシスコ連邦地裁で仮差止命令の審理 |
| 3月26-27日 | 連邦判事が禁止令をブロック。「おそらく違法で恣意的」と判示 |
争点の核心——2つの「譲れない条件」
国防総省とAnthropicの間で交渉されていた最大2億ドル規模の軍事契約で、Anthropicは2つの条件を提示した。
| 争点 | Anthropicの立場 | 国防総省の立場 |
|---|---|---|
| 完全自律型兵器 | 利用禁止を契約に明記 | 「すべての合法目的」に使えるべき |
| 国内大規模監視 | 不使用を条件に協力 | そのような意図はないが制限は受けない |
| 契約の性質 | 用途制限を条件に協力 | 無条件での技術提供を要求 |
CEO Dario Amodeiは「完全自律型兵器への現行モデルの使用は、米国の戦闘員と市民を危険にさらす」と主張。「運用上の意思決定に関与するのは軍の役割であり、民間企業の役割ではない」と述べた。
「サプライチェーンリスク」指定の異例さ
国防総省がAnthropicに適用した「サプライチェーンリスク」指定は、通常は中国やロシアの企業、あるいは外国情報機関やテロ組織に対してのみ使用されるものだ。連邦判事もこの点を重視し、「この指定はアメリカ企業ではなく、外国の脅威に対して想定されたものだ」と指摘した。
この指定により、防衛関連の業者・請負業者はAnthropicのモデルを使用していないことを証明する義務が生じ、全連邦機関には6か月以内にAnthropicとの取引を解消するよう命じられた。
ビジネスへの影響——数十億ドルの収益リスク
| 指標 | 数値 |
|---|---|
| Anthropicの年間売上ランレート | 190〜200億ドル(禁止令前の数週間で140億→190億に急成長) |
| 売上に占める法人比率 | 80%以上 |
| 禁止令による2026年の収益損失見込み | 数十億ドル |
| FDA案件(パートナー企業が代替製品に切替) | 1億ドル超の収益パイプライン喪失 |
あるパートナー企業はFDA関連のデプロイメントでClaudeの使用を中止し、1億ドル以上の収益パイプラインが消失した。ただし、Amazon、Google、Microsoftは非国防省クライアント向けのAnthropic統合を継続すると確認している。
OpenAIが「漁夫の利」——軍事AI市場の再編
Anthropic排除と同時に、OpenAIが国防総省との契約を獲得した。AI企業の軍事市場参入は加速している。
| 企業 | 軍事AI契約 |
|---|---|
| OpenAI | 国防総省2億ドル(2026年2月)。自社にも「レッドライン」を設定するが、Anthropicより緩い |
| Palantir | 陸軍Maven契約。最大100億ドル/10年規模。2024年の4.8億ドルから急拡大 |
| Microsoft | 90億ドルのマルチイヤー・セキュアクラウド契約(Amazon、Google、Oracleと共同) |
RSP v3——「安全性の約束」は変わったのか
禁止令の数日前に公開されたRSP v3では、以前のバージョンにあった「安全性管理がAI能力に追いつかない場合はモデル学習を一時停止する」という約束が削除された。代わりに「Frontier Safety Roadmaps」(野心的だが拘束力のない公開目標)とリスクレポート(3-6ヶ月ごと)が導入された。
批判者は「Anthropicの核心的な安全性の約束が消えた」と指摘するが、Anthropic側は「競合が先に進む中で、一方的な停止は非現実的」と説明している。
AI安全性コミュニティの反応——分かれる評価
Anthropicは禁止令の数日前にRSP v3を公開していた。最大の変更点は、以前のバージョンにあった「安全性管理がAI能力に追いつかない場合はモデル学習を一時停止する」という約束の削除だ。代わりに導入された「Frontier Safety Roadmaps」は野心的だが法的拘束力のない公開目標であり、リスクレポートは3〜6ヶ月ごとに公開される。
GovAI(オックスフォード大学のAIガバナンス研究所)は当初ネガティブな評価だったが、詳細な分析の結果「ロードマップとリスクレポートには重要な価値がある」との見方に転じた。一方、RAIDS AIのNik Kairinosは「Anthropicがモデルのリリース前に十分な安全性緩和策を保証するという核心的な約束が消えた」と批判。CNNは「AnthropicがAI安全性の核心的約束を撤回、国防総省との対決の最中に」という見出しで報じた。
Anthropic内部でも「RSPの改訂は実務的に理にかなっている」という声と「『一方的に学習を停止する』という約束が信頼性の源泉だった」という声が交錯しているという。競合が先に進む中で一社だけ立ち止まることの現実的な困難さと、安全性への原理的なコミットメントの間で、Anthropicは難しいバランスを取り続けている。
自律型兵器を巡る国際的文脈
2025年11月の国連総会では、2026年までに法的拘束力のある自律型致死兵器(LAWS)に関する合意を求める決議が156カ国の支持で採択された。米国とロシアは反対した5カ国に含まれる。
2015年にはイーロン・マスクやスティーブン・ホーキングを含む3,000人以上の専門家が、自律型致死兵器が「火薬、核兵器に続く第三の軍事革命」を引き起こしうると警告する公開書簡に署名した。Anthropicの立場は、このグローバルな懸念と軌を一にしている。連邦判事が「サプライチェーンリスク」指定について「この指定は通常、外国の情報機関やテロリストに対して使用されるもので、アメリカ企業に対して使われた前例はない」と指摘したことは、政府の対応の異常さを浮き彫りにした。
皮肉なことに、この騒動によりAnthropicの知名度は急上昇し、消費者からの支持も高まった。「安全性を理由に政府に追放された」という事実が、むしろブランド価値を高めている。AI企業にとって「政府の言いなりにならない」ことは、リスクなのか、それとも最大の差別化要因なのか。連邦判事の判断は後者を支持した形だが、この問いの答えはまだ確定していない。
出典: NPR, CNBC, Washington Post, The Hill, 連邦地裁判決文