技術的能力 — 人間を超えたベンチマーク
まず、能力面の到達点を確認する。
フロンティアモデルは今や、博士課程レベルの科学問題、マルチモーダル推論、数学競技において人間のベースラインを達成または上回っている。特に象徴的なのはコーディングベンチマーク「SWE-bench Verified」のスコアだ。
2024年にはスコア60%だったこのベンチマークが、2025年末にはほぼ100%に到達した。1年で40ポイントの跳躍。プロのソフトウェアエンジニアが解くレベルのコーディング課題を、AIがほぼ完璧にこなせるようになった。
| ベンチマーク | 2024年 | 2025年末 | 備考 |
|---|---|---|---|
| SWE-bench Verified(コーディング) | 60% | ≒100% | 1年で約40pt向上 |
| PhD科学問題 | 人間水準以下 | 人間水準以上 | 複数分野で超越 |
| 数学競技 | 部分的に超越 | 広範に超越 | IMO水準含む |
| マルチモーダル推論 | 限定的 | 人間水準以上 | テキスト+画像+音声 |
もうひとつ重要な数字がある。生成AIの人口普及率だ。生成AIはわずか3年で人口の53%に普及した。これはパーソナルコンピュータやインターネットよりも速い普及速度だ。
米中AI競争 — 事実上の「引き分け」
地政学的な視点では、米中間のAI能力格差が事実上消滅したことが今年の大きな発見だ。
2025年以降、米国と中国のモデルはArena Rankingなどのリーダーボードで首位を繰り返し交代している。「米国が圧倒的にリードしている」という従来の認識は、もはや正確ではない。
一方で、投資額には明確な差がある。
| 国 | 2025年のAI民間投資額 |
|---|---|
| 米国 | 2859億ドル |
| 中国 | 124億ドル |
| 倍率 | 米国は中国の23倍 |
米国は中国の23倍の資金をAIに投じている。にもかかわらず、技術的な能力ではほぼ拮抗している。この非対称性が意味するものは大きい。
中国のAI企業は、少ない資金でより効率的にモデルを開発しているということだ。DeepSeekのR1モデルが象徴するように、「巨額投資がなくてもフロンティアモデルは作れる」という事実は、AI覇権の構図を根本から揺さぶっている。
企業導入率88% — しかし成果は偏っている
レポートによれば、組織のAI導入率は88%に達した。大学生の5人に4人が生成AIを使っている。数字だけ見れば、AIは社会に浸透しきったように見える。
だが、導入と成果は別の話だ。
PwCの調査(2026年4月)が示すように、AI投資から実際に財務的リターンを得ているのは一部の企業に限られる。多くの企業は「パイロットプロジェクト」の段階で止まっており、本番環境への展開に至っていない。
導入率88%という数字の内訳を想像してみてほしい。ChatGPTを社員が個人的に使っている企業と、AIを事業の中核プロセスに組み込んでいる企業では、「導入」の意味がまったく違う。
透明性スコアの崩壊 — 58点から40点へ
ここからが、レポートの暗い面だ。
Foundation Model Transparency Indexは、主要なAI企業がモデルの学習データ、計算資源、能力、リスク、利用ポリシーをどれだけ開示しているかを測る指標だ。2025年の平均スコアは58点だった。
2026年は40点に下がった。
| 指標 | 2025年 | 2026年 | 変化 |
|---|---|---|---|
| 透明性スコア(100点満点) | 58 | 40 | -18点 |
| 安全性ベンチマーク | 能力に追随 | 追随できず | 悪化 |
| AI関連インシデント | 増加傾向 | 急増 | 悪化 |
能力が向上するほど、企業は情報を出さなくなっている。モデルが強力になるほど学習データやアーキテクチャの詳細は競争上の機密となり、透明性を犠牲にする動機が強まる。
レポートは明確に警告している。「責任あるAI(Responsible AI)は、AI能力の進歩に追いついていない。安全性ベンチマークは遅れ、インシデントは急増している」
信頼度33% — アメリカ人の3人に1人だけ
もうひとつの深刻な数字がある。「AIが自分の仕事をより良くすると期待する」アメリカ人は33%にとどまった。グローバル平均の40%を下回っている。
AIに最も多額の投資をしている国の国民が、AIを最も信頼していない。この逆説は何を意味するのか。
ひとつの解釈は、AIの影響を最も身近に感じている人ほど、その不確実性を実感しているということだ。「AIが仕事を奪う」という漠然とした不安ではなく、「自分の同僚がレイオフされた」「自分の業務がAIに代替された」という具体的な経験が、不信の根底にある。
レポートによれば、AIによる雇用への影響はもはや「予測」ではなく「現実」のフェーズに入っている。特に若年層が最初に影響を受けている。
- AIによる雇用の影響は予測から現実へ移行
- 若年労働者が最初に影響を受けている
- 2026年のテック業界レイオフの約48%がAI関連
能力と信頼のギャップをどう埋めるか
SWE-bench 100%と信頼度33%。この2つの数字の間に、AI産業が直面する本質的な課題がある。
技術の進歩は加速している。しかし、その進歩を社会が消化する速度は追いついていない。企業はモデルの能力を競い合いながら、そのモデルがどう作られ、何ができ、何ができないのかを開示する動機を失いつつある。
レポートの12の要点のうち、ポジティブなニュースはほぼすべて「能力」に関するものだ。ネガティブなニュースはほぼすべて「信頼」と「安全性」に関するものだ。
この非対称性は偶然ではない。能力の向上は測定しやすく、ビジネス的な価値に直結する。信頼や安全性は測定しにくく、短期的な競争優位にはつながりにくい。だから後回しにされる。
しかし後回しにした結果が、透明性スコア40点であり、信頼度33%だ。
AIの能力がどれほど高くても、社会がそれを信頼しなければ、真の意味での普及は実現しない。スタンフォードAI Index 2026が突きつけているのは、そのシンプルだが重い事実だ。
出典・参考
- Stanford HAI, "The 2026 AI Index Report," hai.stanford.edu, April 2026
- Stanford HAI, "Inside the AI Index: 12 Takeaways from the 2026 Report," April 2026
- IEEE Spectrum, "Stanford's AI Index for 2026 Shows the State of AI," April 2026
- eWeek, "Stanford AI Index 2026: The Trust Gap Hits Critical Levels," April 2026
- The Decoder, "Stanford's AI Index 2026 shows rapid progress, growing safety concerns, and declining public trust," April 2026
- The Register, "Everyone agrees AI will hurt elections, relationships," April 14, 2026
