この記事でわかること
- 2026年2月のトランプ政権によるAnthropic利用停止命令と3月の連邦判事によるブロック判決の経緯
- 国防総省との最大2億ドル契約を巡る「完全自律型兵器」「国内大規模監視」の2つの争点
- 異例の「サプライチェーンリスク」指定が通常は外国企業・テロ組織向けである点の問題性
- 年間売上190〜200億ドル、法人比率80%超のAnthropicが直面した数十億ドル規模の収益リスク
- OpenAIが2億ドルの国防総省契約を獲得するなど、軍事AI市場の再編状況
- RSP v3での「モデル学習一時停止」約束削除とAI安全性コミュニティの分かれた評価
2026年2月末、トランプ大統領がすべての連邦機関にAnthropicのAI技術の即時利用停止を命じた。AI安全性を巡る企業と政府の対立が、前例のない制裁措置にまで発展した形だ。しかし3月末、連邦判事がこの禁止令をブロックし、「法に反し、恣意的で、修正第1条への報復に該当する可能性が高い」と判示した。
対立の全経緯——タイムライン
| 日時 | 出来事 |
|---|---|
| 2026年2月24日 | Anthropic、Responsible Scaling Policy(RSP)v3を公開 |
| 2月末 | 国防総省、Anthropicに金曜17:01の期限を設定——自律型兵器・大規模監視への制限を撤回するよう要求 |
| 2月27日 | Anthropic拒否。国防総省がAnthropicを「サプライチェーンリスク」に指定 |
| 同日 | OpenAIが国防総省と2億ドルの契約を発表 |
| 3月2日 | OpenAI CEOアルトマン「展開が便乗的で雑に見えた」と認め、契約を修正 |
| 3月24-25日 | サンフランシスコ連邦地裁で仮差止命令の審理 |
| 3月26-27日 | 連邦判事が禁止令をブロック。「おそらく違法で恣意的」と判示 |
争点の核心——2つの「譲れない条件」
国防総省とAnthropicの間で交渉されていた最大2億ドル規模の軍事契約で、Anthropicは2つの条件を提示した。
| 争点 | Anthropicの立場 | 国防総省の立場 |
|---|---|---|
| 完全自律型兵器 | 利用禁止を契約に明記 | 「すべての合法目的」に使えるべき |
| 国内大規模監視 | 不使用を条件に協力 | そのような意図はないが制限は受けない |
| 契約の性質 | 用途制限を条件に協力 | 無条件での技術提供を要求 |
CEO Dario Amodeiは「完全自律型兵器への現行モデルの使用は、米国の戦闘員と市民を危険にさらす」と主張。「運用上の意思決定に関与するのは軍の役割であり、民間企業の役割ではない」と述べた。
「サプライチェーンリスク」指定の異例さ
国防総省がAnthropicに適用した「サプライチェーンリスク」指定は、通常は中国やロシアの企業、あるいは外国情報機関やテロ組織に対してのみ使用されるものだ。連邦判事もこの点を重視し、「この指定はアメリカ企業ではなく、外国の脅威に対して想定されたものだ」と指摘した。
この指定により、防衛関連の業者・請負業者はAnthropicのモデルを使用していないことを証明する義務が生じ、全連邦機関には6か月以内にAnthropicとの取引を解消するよう命じられた。
ビジネスへの影響——数十億ドルの収益リスク
| 指標 | 数値 |
|---|---|
| Anthropicの年間売上ランレート | 190〜200億ドル(禁止令前の数週間で140億→190億に急成長) |
| 売上に占める法人比率 | 80%以上 |
| 禁止令による2026年の収益損失見込み | 数十億ドル |
| FDA案件(パートナー企業が代替製品に切替) | 1億ドル超の収益パイプライン喪失 |
あるパートナー企業はFDA関連のデプロイメントでClaudeの使用を中止し、1億ドル以上の収益パイプラインが消失した。ただし、Amazon、Google、Microsoftは非国防省クライアント向けのAnthropic統合を継続すると確認している。
OpenAIが「漁夫の利」——軍事AI市場の再編
Anthropic排除と同時に、OpenAIが国防総省との契約を獲得した。AI企業の軍事市場参入は加速している。
| 企業 | 軍事AI契約 |
|---|---|
| OpenAI | 国防総省2億ドル(2026年2月)。自社にも「レッドライン」を設定するが、Anthropicより緩い |
| Palantir | 陸軍Maven契約。最大100億ドル/10年規模。2024年の4.8億ドルから急拡大 |
| Microsoft | 90億ドルのマルチイヤー・セキュアクラウド契約(Amazon、Google、Oracleと共同) |
RSP v3——「安全性の約束」は変わったのか
禁止令の数日前に公開されたRSP v3では、以前のバージョンにあった「安全性管理がAI能力に追いつかない場合はモデル学習を一時停止する」という約束が削除された。代わりに「Frontier Safety Roadmaps」(野心的だが拘束力のない公開目標)とリスクレポート(3-6ヶ月ごと)が導入された。
批判者は「Anthropicの核心的な安全性の約束が消えた」と指摘するが、Anthropic側は「競合が先に進む中で、一方的な停止は非現実的」と説明している。
AI安全性コミュニティの反応——分かれる評価
Anthropicは禁止令の数日前にRSP v3を公開していた。最大の変更点は、以前のバージョンにあった「安全性管理がAI能力に追いつかない場合はモデル学習を一時停止する」という約束の削除だ。代わりに導入された「Frontier Safety Roadmaps」は野心的だが法的拘束力のない公開目標であり、リスクレポートは3〜6ヶ月ごとに公開される。
GovAI(オックスフォード大学のAIガバナンス研究所)は当初ネガティブな評価だったが、詳細な分析の結果「ロードマップとリスクレポートには重要な価値がある」との見方に転じた。一方、RAIDS AIのNik Kairinosは「Anthropicがモデルのリリース前に十分な安全性緩和策を保証するという核心的な約束が消えた」と批判。CNNは「AnthropicがAI安全性の核心的約束を撤回、国防総省との対決の最中に」という見出しで報じた。
Anthropic内部でも「RSPの改訂は実務的に理にかなっている」という声と「『一方的に学習を停止する』という約束が信頼性の源泉だった」という声が交錯しているという。競合が先に進む中で一社だけ立ち止まることの現実的な困難さと、安全性への原理的なコミットメントの間で、Anthropicは難しいバランスを取り続けている。
自律型兵器を巡る国際的文脈
2025年11月の国連総会では、2026年までに法的拘束力のある自律型致死兵器(LAWS)に関する合意を求める決議が156カ国の支持で採択された。米国とロシアは反対した5カ国に含まれる。
2015年にはイーロン・マスクやスティーブン・ホーキングを含む3,000人以上の専門家が、自律型致死兵器が「火薬、核兵器に続く第三の軍事革命」を引き起こしうると警告する公開書簡に署名した。Anthropicの立場は、このグローバルな懸念と軌を一にしている。連邦判事が「サプライチェーンリスク」指定について「この指定は通常、外国の情報機関やテロリストに対して使用されるもので、アメリカ企業に対して使われた前例はない」と指摘したことは、政府の対応の異常さを浮き彫りにした。
皮肉なことに、この騒動によりAnthropicの知名度は急上昇し、消費者からの支持も高まった。「安全性を理由に政府に追放された」という事実が、むしろブランド価値を高めている。AI企業にとって「政府の言いなりにならない」ことは、リスクなのか、それとも最大の差別化要因なのか。連邦判事の判断は後者を支持した形だが、この問いの答えはまだ確定していない。
出典: NPR, CNBC, Washington Post, The Hill, 連邦地裁判決文
テック業界と自分の距離
どの業界のニュースも、直接関わらないように見えて、数年単位でどこかで繋がってくる。
電力、半導体、通信、AI、規制、労働市場。
これらのどれか一つが動くと、自分のキャリアと生活に波及する確率は思いのほか高い。
遠くの出来事だと切り捨てず、自分との距離を測る視点を持ちたい。
よくある質問(FAQ)
Q. Anthropicはなぜ米連邦政府から利用停止を命じられたのか?
トランプ政権が2026年2月末に全連邦機関へAnthropic技術の即時利用停止を命じたのが発端だ。
国防総省との契約交渉で、Anthropicが「完全自律型兵器への使用禁止」と「国内大規模監視での不使用」を条件として提示したことに対し、国防総省が「すべての合法目的に使えるべき」と反発したためとされる。
Q. 「サプライチェーンリスク」指定は何が異例なのか?
この指定は通常、中国・ロシア企業や外国情報機関、テロ組織に対して使われるものだ。
連邦判事も「アメリカ企業に対して使われた前例はない」と指摘し、「法に反し、恣意的で、修正第1条への報復に該当する可能性が高い」として禁止令をブロックした。
Q. 禁止令によるAnthropicの事業影響はどの程度か?
年間売上ランレートは190〜200億ドル規模で、法人比率が80%以上を占める。
2026年だけで数十億ドルの収益損失が見込まれ、あるパートナー企業のFDA関連案件では1億ドル超の収益パイプラインが消失した。ただしAmazon、Google、Microsoftとの非国防向け統合は継続している。
Q. 一方でOpenAIの動きはどうだったのか?
2026年2月、OpenAIは国防総省と2億ドルの契約を発表した。
Anthropicが条件闘争で契約を失った同じタイミングでの獲得であり、CEOアルトマンは後に「展開が便乗的で雑に見えた」と認めて契約内容を修正した経緯がある。
Q. RSP v3では何が変わったのか?
以前のバージョンにあった「安全性管理がAI能力に追いつかない場合はモデル学習を一時停止する」という約束が削除された。
代わりに拘束力のない「Frontier Safety Roadmaps」と3〜6ヶ月ごとのリスクレポートが導入されたが、批判者からは「核心的な安全性の約束が消えた」との指摘が出ている。
よくある質問
Q1. 何が決裂の引き金になったのか?
完全自律型兵器への利用禁止と、国内大規模監視への不使用という2条件である。Anthropicが契約への明記を求めたのに対し、国防総省は無条件の技術提供を求め、金曜17:01という期限で要求を突き付けたことが対立を一気に表面化させた。
Q2. 「サプライチェーンリスク」指定の何が異例か?
通常は中国・ロシア企業や外国情報機関、テロ組織を対象に使う指定だからである。連邦判事もこの点を重視し「アメリカ企業ではなく外国の脅威を想定したものだ」と指摘した上で、禁止令をブロックする判断を下した。
Q3. ビジネスへの影響はどの程度か?
年間売上ランレート190〜200億ドルのうち法人比率は8割超を占める。禁止令による2026年の収益損失は数十億ドル規模と試算され、FDA関連だけでも1億ドル超の案件が代替製品へ切り替わったと報じられた。



