「もっと大きなモデルを、もっと大量のデータで」。
この数年、AI業界はスケーリングの一本道を走ってきた。GPT、Claude、Gemini。パラメータ数とトレーニングデータ量を増やせば性能が上がるという前提は、業界の共通認識だった。
その常識に正面から挑む研究が、Tufts大学から発表された。
34分で学習、精度95%。従来モデルは36時間で34%
Tufts大学工学部のMatthias Scheutz教授(Karol Family Applied Technology Professor)率いるチームが開発したのは、ニューロシンボリックAIと呼ばれるアプローチだ。
ニューラルネットワーク(パターン認識に基づく学習)とシンボリック推論(形状やバランスなどの抽象的ルールに基づくロジック)を融合する。
その結果は、衝撃的だった。
「ハノイの塔」パズルを解くロボット操作タスクにおいて、ニューロシンボリックシステムは95%の成功率を達成。一方、従来のVLA(Vision-Language-Action)モデルは34%にとどまった。
学習時間は34分。従来モデルは36時間以上を要した。
エネルギー消費は従来の1%
最も注目すべきは、エネルギー効率だ。
トレーニング時のエネルギー消費は、従来VLAモデルのわずか1%。稼働時でも5%に抑えられた。
実に100倍のエネルギー効率改善だ。
AIのエネルギー消費は、業界全体の喫緊の課題になっている。国際エネルギー機関(IEA)の推計では、データセンターの電力消費は2026年には世界の発電量の4%以上に達する見込みだ。OpenAI、Google、MicrosoftがこぞってSMR(小型モジュール炉)への投資を表明しているのも、この問題が背景にある。
Scheutz教授はこう語る。「ニューロシンボリックVLAは、学習中の試行錯誤を制限するルールを適用できる。そのため、はるかに速く解にたどり着く」。
なぜシンボリック推論が効くのか
従来のVLAモデルは、カメラ入力と言語指示を受け取り、ロボットの動作を制御する。ChatGPTのようなLLMとは異なる領域だが、「大量のデータでパターンを学習する」という基本構造は共通している。
問題は、この方式だと「なぜそう動くべきか」の理由をモデルが理解しない点だ。
たとえばハノイの塔には明確なルールがある。「大きいディスクの上に小さいディスクしか置けない」。人間ならこのルールを理解したうえで手順を組み立てる。
しかし従来のVLAモデルは、ルールを「理解」するのではなく、膨大な試行錯誤から「パターン」として学ぶ。その非効率さが、36時間の学習時間と34%の成功率に表れている。
ニューロシンボリックアプローチでは、ルールをシンボリック推論として明示的に組み込む。ニューラルネットワークが視覚認識を担い、シンボリック推論が論理的な行動計画を立てる。役割分担によって、学習の効率と精度が劇的に向上した。
未知のパズルにも対応
研究チームは、さらに興味深い実験も行っている。
学習データにない新しいバリエーションのパズルを出題したところ、ニューロシンボリックシステムは78%の成功率を記録した。従来のVLAモデルは、完全に失敗した。
これは「汎化能力」の差を如実に示している。ルールを理解しているシステムは、未知の状況にも適応できる。パターンだけを学んだシステムは、学習データの範囲を超えると機能しなくなる。
LLM至上主義への問い直し
この研究は、AI業界の主流パラダイムへの重要な問いかけを含んでいる。
現在のAI開発は、パラメータ数の拡大によるスケーリング則に大きく依存している。GPT-5は推定数兆パラメータ、Gemini 3もそれに匹敵する規模とされる。トレーニングコストは1回あたり数億ドルに達し、その大半がエネルギーコストだ。
Scheutz教授のチームは別の道を示した。すべてをニューラルネットワークで解こうとするのではなく、適材適所で異なるアプローチを組み合わせる。
もちろん、ハノイの塔のような構造化されたタスクと、自然言語の生成や創造的な作業では事情が異なる。ニューロシンボリックアプローチがすべてのAIタスクで有効とは限らない。
しかし少なくとも、ロボティクスのような物理世界のタスクにおいては、「大きなモデルを力ずくで学習させる」以外の選択肢が現実に存在することが証明された。
5月のウィーン国際会議で正式発表
この研究は2026年2月にarXivでプレプリントが公開され(DOI: 2602.19260)、5月にウィーンで開催されるInternational Conference on Robotics and Automation(ICRA)で正式に発表される予定だ。
共著者はTimothy Duggan、Pierrick Lorang、Hong Lu。論文タイトルは「The Price Is Not Right: Neuro-Symbolic Methods Outperform VLAs on Structured Long-Horizon Manipulation Tasks with Significantly Lower Energy Consumption」。
AIの未来が、必ずしも「巨大化」の一本道ではないかもしれない。Tufts大学の研究チームが示したのは、その可能性だ。