NVIDIAの年次AI開発者会議「GTC 2026」が3月16〜19日、サンノゼで開催された。CEOのJensen Huangによる約2時間のキーノートは、ハードウェアからソフトウェア、パートナーシップまで密度の濃い発表が続いた。
Vera Rubin——前世代比10倍の電力効率
最大の目玉は、次世代GPU「Vera Rubin」だ。現行のGrace Blackwellと比較して、ワットあたり性能が10倍に向上するとHuangは述べた。2026年後半に出荷開始の見込みだ。
| 項目 | Grace Blackwell | Vera Rubin |
|---|---|---|
| 電力効率 | 基準 | 10倍 |
| 出荷時期 | 2025年〜 | 2026年後半 |
| 主なユースケース | AIトレーニング | 推論+トレーニング |
| 想定需要 | クラウド各社 | 自動車・ロボティクスも |
Groq LPU——買収から半年で製品化
2025年12月に約200億ドルで資産買収したGroqの推論特化チップ「LPU」も初披露された。「Groq 3 LPX」ラックには256基のLPUが搭載され、大規模言語モデルの推論処理を超低レイテンシで実行する。NVIDIAがGPU以外のチップアーキテクチャを取り込んだ意味は大きい。
Uber × NVIDIA——28都市で自動運転タクシー
パートナーシップの目玉として、Uberとの提携が発表された。NVIDIAの自動運転ソフトウェア「Drive AV」を搭載した車両を、2028年までに4大陸28都市で展開する計画だ。日産、BYD、現代自動車など自動車メーカー各社もNVIDIAの「Drive Hyperion」プログラムでレベル4自動運転車を開発中だ。
AIソフトウェアスタックの垂直統合
GTCでの発表で見落とされがちだが重要なのは、NVIDIAのソフトウェア収益の急成長だ。NVIDIAのソフトウェア・サービス売上は2025年度に約20億ドルに達し、前年比3倍以上の成長率を記録した。NVIDIA AI Enterprise(企業向けAIプラットフォーム)、NeMo(LLMカスタマイズフレームワーク)、Omniverse(デジタルツインプラットフォーム)——これらのソフトウェア製品は、ハードウェアの利益率をさらに高める「レイヤーケーキ」戦略の核だ。
特にOmniverseは、ロボティクスと自動運転のシミュレーション環境として急速に採用が進んでいる。物理法則を正確に再現するデジタルツイン上でAIを訓練し、現実世界に展開する——この「Sim-to-Real」パイプラインがNVIDIAのプラットフォーム価値を不可逆的に高めている。
自動運転プラットフォームへの野望
Uber提携の発表は、NVIDIAが半導体を超えて「AIプラットフォーム企業」への変貌を加速させていることを象徴する。Drive AVは単なるチップセットではなく、知覚(カメラ・LiDARの画像認識)、判断(経路計画・障害物回避)、制御(ステアリング・加減速)のフルスタックを提供するソフトウェアプラットフォームだ。
自動運転市場では、WaymoがGoogleの資金力とデータ蓄積で先行し、米国主要都市でロボタクシーサービスを商用運行している。Teslaは自社のFSD(Full Self-Driving)ソフトウェアで独自路線を進む。NVIDIAのアプローチは、自動車メーカーに「プラットフォーム」を提供し、各社のブランドで自動運転車を市場投入するという「インテル・インサイド」モデルだ。このアプローチが成功すれば、NVIDIAは自動運転市場のインフラレイヤーを支配することになる。
日本市場にとっても、NVIDIAの動きは重大な意味を持つ。トヨタ、ホンダ、日産はいずれもNVIDIAとの提携を発表しており、Drive Hyperionプログラムに参加している。日本の自動車産業がNVIDIAプラットフォームに依存することは、ハードウェアの自律性を維持しつつソフトウェアレイヤーでは海外プラットフォームに乗るという、スマートフォン時代に日本メーカーが経験した構造と類似している。
「受注見通し1兆ドル」の意味
HuangはBlackwellとVera Rubinの合計受注見通しが2027年までに1兆ドルに達するとの見解を示した。半導体1社の受注見通しが1兆ドルという数字は前例がない。AIインフラ投資の規模感がいかに異次元かを物語っている。
競合の反応とAIチップ市場
NVIDIAのGTCでの発表に対し、競合各社は異なるアプローチで対抗を試みている。AMDはMI400シリーズの2026年後半投入を発表し、価格性能比でNVIDIAに挑む戦略を明確にした。Intelは自社GPUのGaudi 3の出荷を開始したものの、AIトレーニング市場でのシェアは依然として数%に留まっている。
より注目すべきは、カスタムAIチップの台頭だ。GoogleのTPU v6(Trillium)、AmazonのTrainium 2、MicrosoftのMaia 100——ハイパースケーラー各社が自社設計チップを本格展開しており、NVIDIAの「唯一のAIチップベンダー」という地位は徐々に浸食されつつある。しかしNVIDIAの真の競争力はハードウェアだけではなく、CUDAを中心としたソフトウェアエコシステムにある。約400万人の開発者がCUDAベースのコードを書いており、この「開発者ロックイン」を他社が打破するのは容易ではない。
Groq買収の戦略的意義はさらに深い。NVIDIAがGPU以外のアーキテクチャを取り込んだことは、「推論」というAIの商用利用段階で、GPUだけでは市場の全てを取れないことをNVIDIA自身が認識していることを示唆する。AIの利用フェーズは「トレーニング中心」から「推論中心」に移行しており、推論のレイテンシとコスト効率が差別化要因になりつつある。LPUの超低レイテンシ特性は、チャットボットやリアルタイム翻訳など、応答速度が重要なユースケースで決定的な優位性を持つ。
エネルギー消費の問題も見過ごせない。Vera Rubinの「ワットあたり性能10倍」という数字は、絶対的な消費電力が下がることを意味するわけではない。より高密度のコンピュートを同じ電力エンベロープで実行できるようになるが、需要がそれ以上に増加すれば総消費電力は増える。IEAの推計では、AIデータセンターの電力消費は2026年に世界の電力需要の3%に達する見込みだ。NVIDIAが電力効率を訴求する背景には、データセンターの電力確保が物理的な制約としてAI産業の成長を制限し始めている現実がある。
投資家の観点では、NVIDIAの時価総額は3兆ドルを超え、世界で最も価値の高い企業の一つとなっている。しかしPER(株価収益率)は依然として50倍を超えており、この評価が持続するためにはAI市場の継続的な拡大が不可欠だ。
NVIDIAはもはや単なる半導体企業ではない。GPU、LPU、自動運転ソフトウェア、AIフレームワークまで垂直統合する「AIプラットフォーム企業」への変貌が加速している。この進化に、競合はどこまでついていけるのだろうか。
出典: CNBC, TechCrunch, Tom's Hardware, Fortune