2026年3月16日、NVIDIAは米カリフォルニア州サンノゼのSAPセンターで開催中のGTC 2026において、Jensen Huang CEOが約2時間の基調講演を実施し、次世代GPU「Vera Rubin」アーキテクチャとエンタープライズ向けAIエージェント基盤「NemoClaw」をはじめとする複数の新技術を発表した。30カ国以上から3万人超の参加者を集めた同イベントは、AIインフラの次フェーズを定義する場となった。
Blackwellを超える「Vera Rubin」——HBM4で288GBのメモリ搭載
Vera Rubinは現行のBlackwellアーキテクチャの後継にあたる次世代GPUだ。1ユニットあたり最大288GBのHBM4メモリを搭載し、Blackwellから大幅な飛躍を実現する。設計思想は「エージェント型AIワークロード」に最適化されており、長いコンテキストウィンドウや多数のツール呼び出しを必要とする推論処理に特化した構造をとる。NVIDIAは推論トークンコストを10分の1に削減できると主張しており、AIの経済的価値創出が「学習」から「デプロイ」フェーズへ本格移行することを示す。Vera Rubinは年内の量産出荷が見込まれており、既にAWSやMicrosoft Azureなどの主要クラウドプロバイダーとの協議が進んでいるとされる。
エンタープライズAIエージェントをハードウェア最適化で展開——「NemoClaw」
NVIDIAはオープンソースのエンタープライズ向けAIエージェント基盤「NemoClaw」も正式発表した。NemoClawは企業が自社のシステム全体にAIエージェントをデプロイするためのオーケストレーション基盤であり、セキュリティ・プライバシー管理ツールを内包する。既存のLangChainやLlamaIndexのようなオーケストレーション層と異なり、NVIDIAのGPUハードウェアに最適化されている点が最大の特徴だ。同社はこれにより、モデル選択からエージェント実行・推論まで一貫したスタックを企業に提供できると説明している。
アジェンティックAI時代のCPU戦略——Groqとの提携も明らかに
Huang氏は講演の中で、エージェント型AIにおけるCPUの重要性にも言及した。エージェントAIはオーケストレーションやツール呼び出し処理をCPUで行うため、「GPU一辺倒」だったNVIDIAのアーキテクチャに変化が生じている。さらに低遅延推論に特化したチップを手がけるGroqとのライセンス契約も明らかにされ、NVIDIAがGPU・CPU・専用推論チップを組み合わせた「レイヤード推論スタック」構築を目指していることが示された。## 競合の追撃——NVIDIA一強の構図に変化の兆し
NVIDIAの支配的地位は盤石に見えるが、複数の方向から挑戦を受けている。GoogleはTPU v6(Trillium)の開発を進め、GeminiモデルのトレーニングをNVIDIA非依存で行う体制を構築中だ。AmazonのTrainium 2はAWSの主力AIチップとして展開され、コスト面でNVIDIA GPUの3分の1を謳っている。
さらに注目すべきは、AMD MI350Xの存在だ。NVIDIAのH100/H200に対抗する価格性能比を実現し、一部のAIスタートアップがAMDへの移行を進めている。ただし、CUDAエコシステムの壕は依然として深く、ソフトウェアの移植コストがAMDへの移行障壁となっている。
NVIDIAの「AIファクトリー」構想
Huang氏はGTC 2026で「AIファクトリー」という概念を前面に押し出した。従来のデータセンターがデータを「保管」する場所であったのに対し、AIファクトリーはデータから「知能」を「製造」する場所だという。この概念転換は、NVIDIAがGPU単体の販売からインフラ全体の提供者へと進化する戦略を端的に表している。Huang氏が「我々は半導体企業ではない。AIインフラ企業だ」と繰り返し強調するのは、投資家に対する評価倍率の再定義を狙う意図もある。半導体企業のP/E比率は通常15〜25倍だが、プラットフォーム企業は30〜50倍の評価を受ける。この評価倍率の違いは、NVIDIAにとって数千億ドルの時価総額の差を意味する。
開発者にとっての実務的インパクト
NemoClawのオープンソース化は、エンタープライズAIエージェントの開発を大衆化する可能性がある。これまでエージェントAIの構築にはLangChainやLlamaIndexなどのフレームワークを自前で統合する必要があったが、NemoClawはセキュリティ、ガバナンス、オーケストレーションを統合パッケージとして提供する。特にNVIDIA GPUに最適化された推論パイプラインは、同等のソフトウェアスタックを自前構築する場合と比較して、推論レイテンシを30〜50%削減できるとNVIDIAは主張している。
Vera Rubinの288GBのHBM4メモリも開発者にとって大きな意味を持つ。現行のBlackwell(H200)が141GBであることを考えると、約2倍のメモリ容量により、1兆パラメータ規模のモデルをより少ないGPU数で実行できる。これはインフラコストの削減に直結する。
NVIDIAの時価総額は2026年初頭に3兆ドルを超え、世界有数の企業となった。しかし、この評価額はAI需要が指数関数的に成長し続けるという前提に基づいている。AI投資のROIが明確になるまでの間、NVIDIAの株価はAI市場全体のセンチメント指標として機能し続けるだろう。
GTC 2026は3月19日まで開催され、セッションやワークショップが続く予定だ。
ソース:

