2026年3月16日、NVIDIAは米カリフォルニア州サンノゼのSAPセンターで開催中のGTC 2026において、Jensen Huang CEOが約2時間の基調講演を実施し、次世代GPU「Vera Rubin」アーキテクチャとエンタープライズ向けAIエージェント基盤「NemoClaw」をはじめとする複数の新技術を発表した。30カ国以上から3万人超の参加者を集めた同イベントは、AIインフラの次フェーズを定義する場となった。
Blackwellを超える「Vera Rubin」——HBM4で288GBのメモリ搭載
Vera Rubinは現行のBlackwellアーキテクチャの後継にあたる次世代GPUだ。1ユニットあたり最大288GBのHBM4メモリを搭載し、Blackwellから大幅な飛躍を実現する。設計思想は「エージェント型AIワークロード」に最適化されており、長いコンテキストウィンドウや多数のツール呼び出しを必要とする推論処理に特化した構造をとる。NVIDIAは推論トークンコストを10分の1に削減できると主張しており、AIの経済的価値創出が「学習」から「デプロイ」フェーズへ本格移行することを示す。Vera Rubinは年内の量産出荷が見込まれており、既にAWSやMicrosoft Azureなどの主要クラウドプロバイダーとの協議が進んでいるとされる。
エンタープライズAIエージェントをハードウェア最適化で展開——「NemoClaw」
NVIDIAはオープンソースのエンタープライズ向けAIエージェント基盤「NemoClaw」も正式発表した。NemoClawは企業が自社のシステム全体にAIエージェントをデプロイするためのオーケストレーション基盤であり、セキュリティ・プライバシー管理ツールを内包する。既存のLangChainやLlamaIndexのようなオーケストレーション層と異なり、NVIDIAのGPUハードウェアに最適化されている点が最大の特徴だ。同社はこれにより、モデル選択からエージェント実行・推論まで一貫したスタックを企業に提供できると説明している。
アジェンティックAI時代のCPU戦略——Groqとの提携も明らかに
Huang氏は講演の中で、エージェント型AIにおけるCPUの重要性にも言及した。エージェントAIはオーケストレーションやツール呼び出し処理をCPUで行うため、「GPU一辺倒」だったNVIDIAのアーキテクチャに変化が生じている。さらに低遅延推論に特化したチップを手がけるGroqとのライセンス契約も明らかにされ、NVIDIAがGPU・CPU・専用推論チップを組み合わせた「レイヤード推論スタック」構築を目指していることが示された。GTC 2026は3月19日まで開催され、セッションやワークショップが続く予定だ。
ソース:



