AI開発競争が激化する裏で、もう一つの採用競争が静かに進行している。AnthropicとOpenAIが相次いで「兵器の専門家」を募集していることが明らかになった。化学兵器、高性能爆発物、放射性物質——AIモデルがこれらの製造を手助けしてしまう事態を防ぐため、両社は安全対策を急ピッチで強化している。
求人の詳細——年俸は最大45万ドル
Anthropicは2026年3月、「Policy Manager, Chemical Weapons and High-Yield Explosives」というポジションを公開した。年俸は24万5,000〜28万5,000ドル(約3,700万〜4,300万円)。応募条件には、化学兵器や爆発物防衛に関する5年以上の実務経験が求められる。放射性拡散装置(いわゆる「ダーティボム」)に関する知見も必要とされている。
一方、OpenAIはPreparedessチーム(AI安全性の専門部署)を拡充中で、脅威モデリングの研究者を最大45万5,000ドル(約6,900万円)で募集している。Anthropicの同等ポジションの約2倍の水準だ。
| 項目 | Anthropic | OpenAI |
|---|---|---|
| 募集ポジション | 化学兵器・爆発物ポリシーマネージャー | 脅威モデリング研究者 |
| 年俸レンジ | 24.5万〜28.5万ドル | 最大45.5万ドル |
| 求められる経験 | 兵器防衛5年以上 | AI安全性研究 |
| 所属チーム | Trust & Safety | Preparedness |
なぜ「兵器専門家」がAI企業に必要なのか
背景にあるのは、AIモデルの「知識」が増えすぎているという現実だ。大規模言語モデルは膨大なテキストデータで学習されるため、危険物の製造手順に関する情報も含まれ得る。ユーザーが巧みにプロンプトを構成すれば、安全フィルターを回避して有害な情報を引き出せる可能性がある。
兵器専門家の役割は、AIモデルが「何を知っているか」を正確に把握し、危険な応答パターンを特定してブロックする仕組みを構築することだ。いわば、AIの「知識の境界線」を引く仕事である。
研究者が指摘するパラドックス
ただし、このアプローチには根本的なジレンマがある。AIに危険な知識を「認識」させ、それを拒否するよう訓練するプロセス自体が、モデル内部にさらに詳細な情報を定着させるリスクがあるのだ。
| アプローチ | メリット | リスク |
|---|---|---|
| 危険知識のブロック訓練 | 特定の応答パターンを抑制 | モデルが危険情報をより深く「理解」する可能性 |
| 学習データのフィルタリング | そもそも危険情報を学習させない | モデルの汎用性が低下 |
| 出力フィルター | 最終出力段階で遮断 | 巧妙なプロンプトで回避される可能性 |
国防総省との緊張関係
注目すべきは、この採用が行われている文脈だ。Anthropicは先日、Claudeの軍事利用に関して米国防総省と対立していることが報じられた。OpenAIも同様に、自律型兵器開発や国民監視への利用については慎重な姿勢を示している。
しかし、両社ともに国防分野でのAI活用そのものを否定しているわけではない。一般ユーザーによる悪用防止と、正規軍による活用は別の問題として扱われている。今回の採用は前者——つまり「一般ユーザーが危険な情報を引き出すこと」を防ぐための措置だ。
AI安全性の「第三フェーズ」
AI安全性の取り組みは、段階的に高度化してきた。
- 第一フェーズ(2022〜2023年)——基本的なコンテンツフィルター。暴力的・差別的な出力を抑制
- 第二フェーズ(2024〜2025年)——レッドチーミングの体系化。外部専門家による攻撃テスト
- 第三フェーズ(2026年〜)——ドメイン専門家の内部採用。兵器・バイオセキュリティの実務者がAI安全性チームに参画
今回の動きは、この第三フェーズへの移行を象徴している。単なるプロンプトエンジニアリングではなく、実世界の脅威を理解する専門家が必要になったのだ。
私たちが問うべきこと
AIの能力が拡大するにつれ、安全性の確保に必要な専門知識も専門化・高度化していく。AIの「知識の境界線」は、誰が、どのような基準で引くべきなのか。
AI安全性人材の需給ギャップ
AI安全性分野の人材不足は深刻だ。Anthropicが求めているような「化学兵器防衛の実務経験5年以上」を持つ人材は、全米で推定2,000人以下とされる。その大半は政府機関(国防総省、エネルギー省、CDC)に所属しており、民間企業が採用するには大幅な報酬プレミアムが必要だ。
この人材争奪戦は、政府の安全保障能力にも影響を及ぼしかねない。国防総省のAI安全性部門からAI企業への人材流出が加速すれば、政府側の専門知識が空洞化するリスクがある。2025年のRAND研究所の報告書は、「AI安全性の専門家を官民で取り合う構造は、国家安全保障上のリスクである」と警告している。
規制環境の変化——EU AI法とバイデン大統領令
兵器専門家の採用は、強化される規制環境への対応でもある。EU AI法(2024年施行)は、高リスクAIシステムの提供者に対して、「予見可能な誤用」に対する安全対策を義務づけている。化学兵器や爆発物の情報がAIから漏洩した場合、提供企業は法的責任を問われる可能性がある。
米国ではバイデン大統領の後任政権下でも、AIの安全性に関する行政命令の核心部分は維持されている。特に、デュアルユース(民生・軍事両用)基盤モデルの開発者に対するレッドチーミング義務は、トランプ政権下でも撤回されていない。これらの規制に適合するためには、形式的なコンプライアンスではなく、実質的な専門知識を持つ人材が不可欠だ。
他のAI企業の対応——Google、Meta、Mistral
兵器専門家の採用はAnthropicとOpenAIだけの動きではない。Google DeepMindは2025年に「CBRN(化学・生物・放射性物質・核)安全チーム」を設立し、10名以上の専門家を採用した。Metaも同様のチームを構築中だが、オープンソースモデルの特性上、モデル公開後の安全性確保が困難であるという根本的な課題を抱えている。
欧州のMistralは、EU AI法の規制に対応する形でAI安全性チームを拡充しているが、米企業と比較すると規模は小さい。AI安全性への投資額は、現時点で米国企業が世界全体の80%以上を占めているとされる。
日本のAI安全性への取り組み
日本ではAI安全性に関する専門人材の不足がより深刻だ。経済産業省のAIガバナンス検討会は2025年に「AI安全性の専門人材育成プログラム」の策定を発表したが、兵器専門家とAI技術者の両方のスキルを持つ人材は国内にはほぼ存在しない。防衛省との連携や、米国の専門機関との人材交流が検討されている段階だ。2026年度予算では、AIST(産業技術総合研究所)内に「AI安全性センター」を設立するための予算が計上されており、国内でもAI安全性の組織的な取り組みが本格化する見通しだ。
AIの能力が拡大するにつれ、安全性の確保に必要な専門知識も専門化・高度化していく。AIの「知識の境界線」は、誰が、どのような基準で引くべきなのか。そして、その判断を民間企業に委ねることは、社会として適切なのだろうか。