7チップ・5ラックで構成する次世代AIスーパーコンピュータ
Vera Rubinプラットフォームは7種類のチップを5台のラックスケールコンピュータに統合し、単一のスーパーコンピュータとして動作する設計を持つ。演算性能は3.6エクサフロップスに達し、NVLink全対全帯域幅は毎秒260テラバイト。冷却には45度温水による100%液冷方式を採用する。
前世代「Grace Blackwell」はHopperから2年間で処理性能を50倍に向上させた。これはムーアの法則(2年で1.5倍)の約33倍に相当するペースであり、NVIDIAのチップ進化が加速し続けていることを示す。次期アーキテクチャ「Feynman」の計画も明かされ、新CPUは「Rosa(Rosalind Franklin)」と命名される予定だ。
1兆ドルの受注見通し——NVIDIAの「AIインフラ独占」
Huang氏が示した「2027年末までに1兆ドル」という受注見通しは、AI業界の規模感を根本的に更新する数字だ。この金額は、2025年の世界半導体市場全体の規模(約6,000億ドル)をはるかに超える。
この巨大な需要を支えているのは、AI学習・推論に必要な計算資源の指数関数的な増大だ。GPT-5クラスのモデルを学習するには数万基のGPUを数カ月にわたって稼働させる必要がある。OpenAI、Google、Meta、Anthropicといった大手AI企業は、いずれも年間数十億ドル規模のGPU調達予算を組んでいる。
NVIDIAの競争優位は、ハードウェア性能だけではない。CUDA(並列計算プラットフォーム)のエコシステムが、事実上の業界標準として機能している。AI研究者やエンジニアの大半がCUDA上でコードを書いており、AMD(ROCm)やIntel(oneAPI)への移行コストは極めて高い。このソフトウェアの「壕」が、NVIDIAの市場支配力を維持する最大の要因だ。
Vera Rubinの技術的ブレークスルー
Vera Rubinプラットフォームの技術仕様を前世代と比較すると、進化の度合いが鮮明になる。
| 仕様 | Grace Blackwell | Vera Rubin | 進化率 |
|---|---|---|---|
| 演算性能 | 約1.4エクサフロップス | 3.6エクサフロップス | 約2.6倍 |
| NVLink帯域幅 | 毎秒130TB | 毎秒260TB | 2倍 |
| GPU間通信 | NVLink 5 | NVLink 6 | 次世代 |
| 冷却方式 | 空冷/液冷ハイブリッド | 100%液冷(45度温水) | 完全液冷化 |
100%液冷化への移行は、データセンター設計に根本的な変革をもたらす。従来の空冷方式はサーバーの発熱密度の上昇に限界があったが、液冷により電力効率が大幅に改善される。NVIDIAの試算では、液冷への移行でデータセンター全体のエネルギー消費を最大30%削減できるとしている。
Groqの技術取得と自動車4社の新規参画
Huang氏は基調講演で、NVIDIAがGroqのチームと技術ライセンスを取得したことを正式に認めた。次世代言語処理チップ「LP30」は500MBのオンチップSRAMを搭載し、超低レイテンシのトークン生成を実現する。2026年第3四半期にサムスンの工場で量産を開始する予定だ。
自動車分野では、BYD・現代自動車・日産・吉利(ジーリー)の4社が新たにNVIDIAの自動運転プラットフォームに参画した。既存パートナーと合わせた年間生産台数は1,800万台に達し、NVIDIAが自動車産業のAI基盤としての地位を固めつつある。
BYDの参画は特に注目に値する。BYDは世界最大のEVメーカーであり、2025年には年間販売台数でテスラを上回った。自動運転技術ではテスラのFSD(Full Self-Driving)に後れを取っていたが、NVIDIAとの提携によりその差を一気に詰める可能性がある。日産が参画したことは、日本の自動車メーカーにとっても象徴的な動きだ。自前のAI開発力に限界を感じる日本メーカーが、NVIDIAのプラットフォームに依存する構造が加速する可能性がある。
さらにHuang氏は「NVIDIAは宇宙へ行く」と宣言し、将来の「NVIDIA Space-1 Vera Rubin」システムで軌道上にAIデータセンターを配置する構想を打ち出した。この宇宙構想は一見すると突飛だが、地上のデータセンターが電力と冷却の制約に直面しているなか、宇宙空間の放熱性と太陽光発電のポテンシャルは技術的に合理的な代替案だ。
NVIDIAの課題——独占への警戒と競合の追撃
NVIDIAの市場支配力が強まるにつれ、リスクも顕在化している。最大の懸念は、AI企業自身がNVIDIA依存からの脱却を模索し始めている点だ。
GoogleはTPU(Tensor Processing Unit)の第6世代を開発中であり、Geminiモデルの学習と推論を自社チップで完結させる戦略を進めている。AmazonはTrainium 2チップをAWSの主力AIインフラとして展開し、Microsoft/OpenAIもカスタムAIチップ「Maia」の開発を加速させている。
これらの自社チップ開発が成熟すれば、NVIDIAのGPU需要の一部が代替される可能性がある。ただし、CUDAエコシステムの壕は深く、移行には数年単位の時間がかかるとみられている。Huang氏が1兆ドルという巨大な受注数字を示した背景には、「今のうちに可能な限りのシェアを固める」という戦略的意図が透けて見える。
ソース:
- NVIDIA GTC 2026: Everything Jensen Huang Announced at the Keynote — Techloy(2026年3月16日)
- Nvidia GTC 2026: CEO Jensen Huang sees $1 trillion in orders for Blackwell and Vera Rubin through '27 — CNBC(2026年3月16日)
- NVIDIA GTC 2026 Live Updates — NVIDIA Blog(2026年3月)
テック業界と自分の距離
どの業界のニュースも、直接関わらないように見えて、数年単位でどこかで繋がってくる。
電力、半導体、通信、AI、規制、労働市場。
これらのどれか一つが動くと、自分のキャリアと生活に波及する確率は思いのほか高い。
遠くの出来事だと切り捨てず、自分との距離を測る視点を持ちたい。
よくある質問(FAQ)
Q. Vera Rubinはどのくらい性能が上がったのか?
前世代Grace Blackwellから演算性能が約2.6倍、NVLink帯域幅は2倍の毎秒260TBになった。Hopper世代から見れば2年間で処理性能が50倍に達しており、ムーアの法則の約33倍のペースで進化している。
Q. なぜ「1兆ドル」という受注見通しなのか?
GPT-5クラスの学習には数万基のGPUが必要で、OpenAI・Google・Meta・Anthropicが年間数十億ドル規模で調達している。昨年予測の5,000億ドルから倍増し、2025年の世界半導体市場全体(約6,000億ドル)を単独で超える水準になった。
Q. 冷却方式はどう変わったか?
100%液冷方式に移行し、45度温水を使う設計になった。NVIDIAの試算ではデータセンター全体のエネルギー消費を最大30%削減でき、発熱密度の上昇にも対応しやすくなる。
Q. NVIDIAの競合リスクは何か?
Google TPU第6世代、Amazon Trainium 2、Microsoft/OpenAIのMaiaなど、顧客自身が自社チップ開発を加速させている。ただしCUDAエコシステムへの依存度が高く、移行には数年単位の時間が必要とみられる。

