2026年2月末から3月にかけて、トランプ政権はAIに関する3つの大きな動きを見せた。Anthropicの連邦追放、OpenAIとの国防契約、そして国家AI立法フレームワークの発表だ。一見バラバラに見えるこれらの施策を繋げると、ひとつの明確な「思想」が浮かび上がる。
3つの動きの時系列
| 日付 | 出来事 | 意味 |
|---|---|---|
| 2月27日 | Anthropicの連邦利用禁止を大統領令で指示 | 「安全性」を理由に政府の要求を拒む企業を排除 |
| 2月27日 | OpenAIが国防総省の機密ネットワーク契約を獲得 | 「協力的な」企業を優遇 |
| 3月9日 | Anthropicを「サプライチェーンリスク」に指定 | 外国企業並みの制裁を国内企業に適用 |
| 3月20日 | 国家AI立法フレームワーク発表 | 州の独自規制を排除、連邦で統一 |
見えてくる「アメとムチ」戦略
これらを俯瞰すると、トランプ政権のAI政策は「アメとムチ」の二面構造だ。政府の方針に従うAI企業(OpenAI)には国防契約や規制緩和という「アメ」を与え、異を唱える企業(Anthropic)には市場からの排除という「ムチ」を振るう。
AI立法フレームワークの「本当の意味」
国家AI立法フレームワークが「イノベーション促進」と「開発者の責任制限」を柱に据えたのは偶然ではない。AI企業が政府と協力しやすい環境を整えつつ、州レベルの厳しい規制(カリフォルニア州の安全基準など)を無効化する。企業にとっては「連邦と仲良くすれば面倒な州規制から解放される」というインセンティブ構造だ。
シリコンバレーの反応——分断
シリコンバレーの反応は二分されている。OpenAI陣営はMicrosoftとともに政府との連携を深め、ビジネスチャンスを拡大。一方でAnthropicを支持する安全性重視派は、政府の圧力に屈しないことこそが長期的な信頼構築に繋がると主張する。
Anthropic排除の深層——「安全性」vs「国家安全保障」
Anthropicが連邦政府から排除された直接的な理由は、同社がAIの軍事利用に関する独自の制限ポリシーを維持したことだ。Anthropicは「Responsible Scaling Policy」のもとで、大量破壊兵器の開発支援や自律型致死兵器への利用を明確に禁じている。トランプ政権はこれを「国防のニーズに応えない企業は信頼できるサプライヤーではない」と解釈した。
興味深いのは、Anthropicの共同創業者でCEOのダリオ・アモデイが、この決定に対して公式には沈黙を守っている点だ。業界関係者の間では「法的対抗措置を準備している」という観測と「静かに政策変更を待つ戦略だ」という見方が分かれている。Anthropicの最大出資者であるAmazon(最大80億ドルのコミット)やGoogleも、政府との関係維持と投資先の擁護の間で微妙なバランスを迫られている。
テック業界のロビイング支出もこの問題を反映している。OpenAIは2025年のロビイング支出を前年比3倍に増やし、元国防総省高官を複数雇用した。対照的にAnthropicのロビイング支出は業界平均を下回っており、「ワシントンとの距離の取り方」がビジネス上の明暗を分けた形だ。
AI産業への「寒冷効果」
Anthropicへの制裁は、AI安全性研究コミュニティに深刻な「寒冷効果(Chilling Effect)」を及ぼしている。安全性を優先する企業が政府から罰せられるならば、他のAI企業は安全性研究への投資を控え、政府の意向に迎合する方向にシフトしかねない。YCombinatorのGarry Tan社長は「これはAI産業全体にとって危険な前例だ。安全性への取り組みが罰則の対象になるなら、誰も安全性に投資しなくなる」と警鐘を鳴らした。
一方で、OpenAIのサム・アルトマンCEOは「政府との協力はAIの安全な普及に不可欠」と述べ、政権との連携強化を正当化している。OpenAIは2025年後半に利益追求型の公益法人(PBC)への転換を完了しており、政府契約を含むあらゆるビジネス機会を追求する体制が整っている。
この「安全性派 vs. 実利派」の分断は、AI業界の次の10年を形作る構造的な対立軸となるだろう。どちらのアプローチが持続可能かは、最終的にはAI技術がもたらす具体的なリスクの大きさと、社会のリスク許容度によって決まる。しかし短期的には、政権の「アメとムチ」戦略がAI産業の行動様式を強く規定することになる。
この構造は冷戦期の防衛産業との類似性を持つ。ロッキード・マーティンやレイセオンが政府契約を獲得するために政権の政策方針と足並みを揃えたように、AI企業も政府との関係構築が事業成長の重要な変数になりつつある。しかしAI技術は防衛産業と異なり、民間の消費者市場でも巨大な事業を展開しており、「政府との距離の近さ」が消費者からの信頼を損なうリスクもある。
中国のAI規制がアルゴリズムの透明性と政府によるコンテンツ審査を重視するのに対し、米国はイノベーション促進と規制緩和を選び、EUは市民の権利保護を優先する。三極の規制ギャップは拡大する一方であり、グローバルに事業を展開するAI企業にとってはコンプライアンスコストの増大を意味する。
起業家への示唆
米国のAI政策の動向は、米国以外のAIスタートアップにとっても無関係ではない。政府調達を視野に入れるなら、政権の政策方針との整合性が不可欠になる。一方で、Anthropicのように「原則を貫く」選択は、規制先行の欧州市場や安全性重視の顧客からの信頼獲得につながる可能性もある。AI企業のポジショニングは、技術力だけでなく「政策との距離感」によっても決まる時代に入っている。
日本のAI企業にとっても、この動向は注視に値する。日本政府はAI戦略において米国との連携を重視しており、米国政府のAI調達方針が日本の防衛・安全保障分野にも間接的に影響する可能性がある。「どのAIベンダーが同盟国の政府調達リストに載るか」は、日本のAI導入判断にも影響する要素だ。
世界への波及効果
米国のAI政策は世界標準に影響を与える。EUはAI Act(AI法)で規制先行のアプローチを取っているが、米国が「規制より促進」の姿勢を鮮明にすれば、欧州企業は競争力で不利になりかねない。AI規制を巡る大西洋間の溝が広がる可能性がある。
連邦統一フレームワークの内容にも注目すべきだ。「開発者の責任制限」条項は、AIが引き起こす被害に対してAI開発企業の法的責任を限定するもので、これはシリコンバレーが長年ロビイングしてきた内容と合致する。カリフォルニア州が2025年に検討した「AI安全基準法案(SB 1047)」が連邦フレームワークにより事実上無効化される可能性があり、州の自治権との摩擦も生じている。この連邦 vs 州の対立は、かつてのデータプライバシー規制(連邦法 vs カリフォルニア州CCPA)の構図と類似している。AI政策がアメリカの連邦制そのものを試す局面に入りつつある。
AIの発展にとって、政府と企業の関係はどうあるべきか。完全な自由放任か、厳格な規制か、それとも「条件付きの協力」か。トランプ政権の一連の施策は、この問いに対するひとつの——そして論争的な——回答を示している。
出典: NPR, CNBC, White House, Fortune, Washington Post
