[AI](/tag/ai)開発競争が激化する裏で、もう一つの採用競争が静かに進行している。AnthropicとOpenAIが相次いで「兵器の専門家」を募集していることが明らかになった。化学兵器、高性能爆発物、放射性物質——AIモデルがこれらの製造を手助けしてしまう事態を防ぐため、両社は安全対策を急ピッチで強化している。
求人の詳細——年俸は最大45万ドル
Anthropicは2026年3月、「Policy Manager, Chemical Weapons and High-Yield Explosives」というポジションを公開した。年俸は24万5,000〜28万5,000ドル(約3,700万〜4,300万円)。応募条件には、化学兵器や爆発物[防衛](/tag/defense)に関する5年以上の実務経験が求められる。放射性拡散装置(いわゆる「ダーティボム」)に関する知見も必要とされている。
一方、OpenAIはPreparedessチーム(AI安全性の専門部署)を拡充中で、脅威モデリングの研究者を最大45万5,000ドル(約6,900万円)で募集している。Anthropicの同等ポジションの約2倍の水準だ。
| 項目 | Anthropic | OpenAI |
|---|---|---|
| 募集ポジション | 化学兵器・爆発物ポリシーマネージャー | 脅威モデリング研究者 |
| 年俸レンジ | 24.5万〜28.5万ドル | 最大45.5万ドル |
| 求められる経験 | 兵器防衛5年以上 | AI安全性研究 |
| 所属チーム | Trust & Safety | Preparedness |
なぜ「兵器専門家」がAI企業に必要なのか
背景にあるのは、AIモデルの「知識」が増えすぎているという現実だ。大規模言語モデルは膨大なテキストデータで学習されるため、危険物の製造手順に関する情報も含まれ得る。ユーザーが巧みにプロンプトを構成すれば、安全フィルターを回避して有害な情報を引き出せる可能性がある。
兵器専門家の役割は、AIモデルが「何を知っているか」を正確に把握し、危険な応答パターンを特定してブロックする仕組みを構築することだ。いわば、AIの「知識の境界線」を引く仕事である。
研究者が指摘するパラドックス
ただし、このアプローチには根本的なジレンマがある。AIに危険な知識を「認識」させ、それを拒否するよう訓練するプロセス自体が、モデル内部にさらに詳細な情報を定着させるリスクがあるのだ。
| アプローチ | メリット | リスク |
|---|---|---|
| 危険知識のブロック訓練 | 特定の応答パターンを抑制 | モデルが危険情報をより深く「理解」する可能性 |
| 学習データのフィルタリング | そもそも危険情報を学習させない | モデルの汎用性が低下 |
| 出力フィルター | 最終出力段階で遮断 | 巧妙なプロンプトで回避される可能性 |
国防総省との緊張関係
注目すべきは、この採用が行われている文脈だ。Anthropicは先日、[Claude](/tag/claude)の軍事利用に関して米国防総省と対立していることが報じられた。OpenAIも同様に、自律型兵器開発や国民監視への利用については慎重な姿勢を示している。
しかし、両社ともに国防分野でのAI活用そのものを否定しているわけではない。一般ユーザーによる悪用防止と、正規軍による活用は別の問題として扱われている。今回の採用は前者——つまり「一般ユーザーが危険な情報を引き出すこと」を防ぐための措置だ。
AI安全性の「第三フェーズ」
AI安全性の取り組みは、段階的に高度化してきた。
- 第一フェーズ(2022〜2023年)——基本的なコンテンツフィルター。暴力的・差別的な出力を抑制
- 第二フェーズ(2024〜2025年)——レッドチーミングの体系化。外部専門家による攻撃テスト
- 第三フェーズ(2026年〜)——ドメイン専門家の内部採用。兵器・バイオセキュリティの実務者がAI安全性チームに参画
今回の動きは、この第三フェーズへの移行を象徴している。単なるプロンプト[エンジニアリング](/tag/engineering)ではなく、実世界の脅威を理解する専門家が必要になったのだ。
私たちが問うべきこと
AIの能力が拡大するにつれ、安全性の確保に必要な専門知識も専門化・高度化していく。AIの「知識の境界線」は、誰が、どのような基準で引くべきなのか。そして、その判断を民間企業に委ねることは、社会として適切なのだろうか。

