富士通は2026年3月10日、防衛装備庁(ATLA)から自衛隊の指揮官の意思決定を支援するAIエージェントの開発に向けた委託研究を受注したと発表した。「AI幕僚」と呼ばれるこのシステムは、日本の防衛におけるAI活用の転換点となる。
正式名称は「迅速意思決定実験装置研究試作に基づく防衛用マルチAIエージェントによるAI幕僚能力の獲得に関する研究」。名前からして、その野心が伝わる。
「AI幕僚」のアーキテクチャ——マルチAIエージェントの協働
「幕僚」とは、軍の指揮官を補佐し、情報分析や作戦立案を行うスタッフだ。富士通が開発するAI幕僚は、単一のAIモデルではなく、「マルチAIエージェント」フレームワークで設計されている。異なる専門性を持つ複数のAIが協働し、単独では解決できない複雑な問題に対処する。
| 項目 | 詳細 |
|---|---|
| 受注企業 | 富士通 |
| 発注元 | 防衛装備庁(ATLA) |
| 設計原則 | Human-in-the-loop(最終判断は人間) |
| 技術基盤 | マルチAIエージェント(複数の専門AI) |
| 開発テーマ1 | マルチAIエージェントによる戦術生成技術 |
| 開発テーマ2 | シミュレーション言語変換技術(自然言語→シミュレーションコード) |
2つの開発テーマが明かされている。第一は、複数のAIエージェントが「多面的な議論」を通じて複数の作戦プランを指揮官に提示する技術。第二は、AIが生成した作戦プランを自然言語からシミュレーションコードに自動変換し、検証可能にする技術だ。
重要なのは、AI幕僚が「判断」するのではなく「提案」する点だ。最終的な意思決定は人間の指揮官が行う。
日本の防衛費拡大——過去最大9兆円とAI投資
AI幕僚の開発は、日本の防衛戦略の大転換の中に位置する。
| 年度 | 防衛予算 | 備考 |
|---|---|---|
| 2022年度 | 5.4兆円 | 防衛力整備計画前 |
| 2023年度 | 6.8兆円 | 5カ年計画1年目 |
| 2024年度 | 7.7兆円 | 12年連続過去最大 |
| 2025年度 | 8.7兆円 | ― |
| 2026年度 | 9.04兆円(約$580億) | 初の9兆円超え |
| 2027年度(目標) | GDP比2%(約11兆円) | 5カ年計画最終年 |
5カ年防衛力整備計画の総額は43兆円。2022年度比で65%増だ。日本は米国、中国に次ぐ世界第3位の防衛支出国になると予測されている。
その中でAI関連の投資も急速に拡大している。2026年度予算ではSHIELDプログラム(統合沿岸防衛用無人機ネットワーク)に1,287億円、スタンドオフ防衛能力に9,700億円、次期戦闘機GCAPに1,600億円が計上された。
富士通はAI幕僚と同日、「防衛テック・アクセラレータープログラム」も発表している。日本初の防衛技術オープンイノベーション施策で、民間スタートアップの先端技術を防衛分野に取り込む狙いだ。
世界の軍事AI——米$134億、中国「智能化戦争」、そしてAnthropicの反乱
世界的に見ると、軍事AIは急速に進化し、同時に深刻な倫理的対立を生んでいる。
| 国 | プロジェクト | 規模・概要 |
|---|---|---|
| 米国 | JADC2 | 陸海空・宇宙・サイバーの全領域統合指揮統制。AI情報統合 |
| 米国 | Project Maven | Palantirが運営。$13億以上の契約。全統合軍司令部で25,000人以上が利用 |
| 米国 | ペンタゴンAI予算 | FY2026で$134億(初の専用予算枠) |
| 中国 | 智能化戦争 | 2027年までに軍の近代化完了を目標。自律型ドローンスウォーム(100-150機同時制御)を実戦テスト |
| イスラエル | Gospel / Lavender | ガザでのターゲット選定にAI使用。民間人被害と倫理的批判 |
特筆すべきは、Anthropicとペンタゴンの対立だ。2025年7月にAnthropicはClaudeの軍事利用契約($2億の上限)を締結したが、国防総省が「すべての合法的用途への無制限アクセス」を要求。Anthropicは「完全自律型兵器」と「国内大量監視」への使用を拒否し、2026年2月にトランプ大統領がAnthropic製品の政府利用停止を指示。さらに「サプライチェーンリスク」に指定した。
Anthropicは連邦裁判所に提訴。判事は43ページの判決文で仮差止命令を認め、「政府への異議を理由に米国企業を敵対者と見なすことを支持するものは法律にない」と述べた。AIの軍事利用における「安全性」と「国家安全保障」の衝突が、法廷闘争にまで発展した前例のないケースだ。
倫理的課題——「提案」と「誘導」の境界線
AIの軍事利用には複数の根本的な問いがある。
| 論点 | 懸念 |
|---|---|
| 判断への影響力 | AIの作戦提案が人間の判断を事実上「誘導」するリスク |
| 速度のプレッシャー | AIの高速分析が、熟慮より即時行動を促す圧力に |
| アカウンタビリティ | AI提案に基づく判断で誤った結果が生じた場合の責任所在 |
| 自律性のエスカレーション | Human-in-the-loopが運用上の時間制約で形骸化するリスク |
| 国際法 | 国連で156カ国がLAWS(致死的自律兵器システム)規制を支持。米国とロシアは反対 |
2025年11月、国連総会第一委員会は156カ国の賛成でLAWSに関する法的拘束力のある合意を求める歴史的決議を採択した。しかし米国とロシアは厳格に反対。2026年は「拡散前の最後の窓」とされている。
米国の国防総省指令3000.09は、一般に信じられているのとは異なり、Human-in-the-loopを「義務付けて」いない。「武力行使に対する適切な水準の人間の判断」というより緩い基準を設定しており、完全自律型兵器も適切なレビューを経れば許容される。
AI幕僚が問いかけるもの
富士通のAI幕僚は、技術的には「マルチAIエージェントによる情報分析と選択肢提示」のツールだ。しかし、その選択肢が人命に関わる判断を左右するとき、ツールの意味は根本的に変わる。
世界第3位の防衛支出国になろうとする日本が、AIをどのように軍事に組み込むか。その答えは、技術者だけでなく、民主主義社会全体で議論される必要がある。
出典・参考
- 富士通「防衛テック・アクセラレータープログラム」プレスリリース(2026年3月10日)
- The Defense Post「Japan Boosts Domestic AI Defense Tech」(2026年3月)
- CNBC「Anthropic Wins Injunction Against Pentagon」(2026年3月26日)
- 防衛省「令和6年度防衛予算」
- CDO Magazine「Pentagon Seeks $13.4B for AI and Autonomy」(2026年)
- Stop Killer Robots「156 States Support UNGA Resolution」(2025年)
- War on the Rocks「Autonomous Weapon Systems: No Human in the Loop Required」(2025年)