NVIDIA Vera Rubin がエージェント型 AI の最先端を切り拓く

事前トレーニング、ポスト トレーニング、テストタイム スケーリングからエージェント型推論まで、AI のあらゆるフェーズに最適化され構成可能な AI インフラで世界最大の AI ファクトリーを拡張する 7 つの新チップが量産へ
投稿者: NVIDIA Japan

※本発表資料は米国時間 2026 年 3 月 16 日に発表されたプレスリリースの抄訳です。

ニュース概要:
NVIDIA Vera Rubin プラットフォームは、以下によって AI の新たなフロンティアを切り拓いています:

  • Vera Rubin NVL72 GPU ラック
  • Vera CPU ラック
  • NVIDIA Groq 3 LPX 推論アクセラレーター ラック
  • NVIDIA BlueField-4 STX ストレージ ラック
  • NVIDIA Spectrum-6 SPX イーサネット ラック

【プレス リリース】カリフォルニア州サンノゼ — GTC — 2026 3 16 NVIDIA は本日、NVIDIA Vera Rubin プラットフォームが次世代のエージェント型 AI を切り拓き、世界最大規模の AI ファクトリーを拡張するための 7 つの新しいチップが量産されていることを発表しました。

このプラットフォームには、NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink™ 6 Switch、NVIDIA ConnectX®-9 SuperNIC、NVIDIA BlueField®-4 DPU、NVIDIA Spectrum™-6 Ethernet スイッチに加えて、新たに NVIDIA Groq 3 LPU が統合されています。これらのチップは、1 つの驚異的な AI スーパーコンピューターとして連携するように設計されており、大規模な事前トレーニング、ポスト トレーニング、テストタイム スケーリングからリアルタイムのエージェント型推論まで、AI のあらゆるフェーズを支えます。

NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は次のように述べています。「Vera Rubin は、世代を超えた飛躍です。画期的な 7 つのチップ、5 つのラック、1 つの巨大なスーパーコンピューターが、AI のあらゆる段階を支えるために構築されています。Vera Rubin がけん引する史上最大のインフラ構築を開始したことで、エージェント型 AI の転換期が到来しました」

Anthropic の CEO である Dario Amodei 氏は次のように述べています。「企業や開発者は、ますます複雑なリーズニング、エージェント型のワークフロー、そしてミッションクリティカルな意思決定に Claude を利用しています。それには、その進化のスピードに追従できるインフラが必要です。NVIDIA Vera Rubin プラットフォームは、お客様が信頼を寄せる安全性と信頼性を高めながら、提供し続けるためのコンピューティング、ネットワーキング、システム設計を私たちに与えてくれます」

OpenAI の CEO である Sam Altman 氏は次のように述べています。「NVIDIA インフラは、AI の最先端を継続的に推進するための基盤です。NVIDIA Vera Rubin により、より強力なモデルとエージェントを大規模に実行し、数億人のユーザーのために高速で信頼性の高いシステムを提供できるようになります」

POD スケール システムへの移行

AI インフラは、ディスクリート チップやスタンドアロン サーバーから、完全に統合されたラックスケール システム、POD スケールでの展開、AI ファクトリーやソブリン AI まで、急速に進化しています。これらの進歩は、スタートアップや中小企業、官民機関や企業まで、あらゆる規模の組織や業界でパフォーマンスの劇的な向上をもたらし、コスト効率を向上しています。同時に、AI へのアクセスの普及とエネルギー効率の向上により、世界で最も要求の厳しいワークロードに対応します。

80 社以上の MGX エコシステム パートナーとグローバルのサプライチェーンに支えられ、コンピューティング、ネットワーキング、ストレージにわたる深い協調設計を通じて、NVIDIA Vera Rubin は最も広範な NVIDIA POD スケール プラットフォームを提供します。これは、AI 専用に構築された複数のラックが、1 つの巨大で一貫したシステムとして機能するスーパーコンピューターです。

NVIDIA Vera Rubin NVL72 ラック

NVLink 6 で接続された 72 基の Rubin GPU と 36 基の Vera CPU、さらに ConnectX-9 SuperNIC と BlueField-4 DPU を統合した Vera Rubin NVL72 は、画期的な効率性を実現します。NVIDIA Blackwell プラットフォームと比較して 4 分の 1 の GPU 数で大規模なエキスパート混合モデルをトレーニングし、トークンあたりのコストを 10 分の 1 に削減し、ワットあたり最大 10 倍高い推論スループットを達成します。

世界中のハイパースケール AI ファクトリー向けに設計された NVL72 は、NVIDIA Quantum-X800 InfiniBand および Spectrum-X Ethernet でシームレスに拡張でき、大規模な GPU クラスター全体で高い稼動率を維持しながら、トレーニング時間と総所有コストを削減します。

NVIDIA Vera CPU ラック

強化学習とエージェント型 AI ワークロードは、GPU システムで実行されるモデルによって生成された結果をテストして検証するために、多数の CPU ベース環境に依存しています。

NVIDIA Vera CPU ラックは、NVIDIA MGX 上に構築された高密度の液冷インフラを提供します。これは、最大 256 基の Vera CPU を統合し、世界クラスのシングルスレッド パフォーマンスを備えた拡張性とエネルギー効率に優れた処理能力を提供することで、大規模なエージェント型 AIを実現します。

Spectrum-X Ethernet ネットワーキングと統合された Vera CPU ラックは、AI ファクトリー全体で CPU 環境を緊密に同期します。 GPU コンピューティング ラックと組み合わせることで、大規模なエージェント型 AI と強化学習向けの CPU 基盤を提供し、Vera は従来の CPU よりも 2 倍の効率と 50% の高速化を実現します。

NVIDIA Groq 3 LPX ラック

NVIDIA Groq 3 LPX は、アクセラレーテッド コンピューティングにおけるマイルストーンです。エージェント型システムの低レイテンシかつ大規模コンテキストの要求に合わせて設計された LPX と Vera Rubin は、両プロセッサの究極のパフォーマンスを統合し、1 兆パラメータ モデルにおいてメガワットあたりの推論スループットを最大 35 倍向上させ、収益機会を最大 10 倍に拡大します。

大規模な展開において、LPU フリートは高速で決定論的な推論を実現する単一の巨大なプロセッサとして機能します。256 基の LPU プロセッサを搭載した LPX ラックは、128GB のオンチップ SRAM と 640TB/s のスケールアップ帯域幅を備えています。Vera Rubin NVL72 と共に展開することで、Rubin GPU と LPU は AI モデルのすべての層を共同で計算し、出力トークンごとのデコードを加速します。

1 兆パラメータのモデルと100 万トークンのコンテキストに最適化され、Vera Rubinとペアになって共同設計された LPXアーキテクチャ は、電力、メモリ、コンピューティング全体の効率を最大化します。ワットあたりのスループットとトークン パフォーマンスの向上により、超プレミアムな 1 兆パラメータ、100 万コンテキストの推論という新たな階層が開放され、すべての AI プロバイダーの収益機会を拡大します。完全に液冷式され MGX インフラス上に構築された LPX は、次世代の Vera Rubin AI ファクトリーにシームレスに統合され、今年後半に提供開始予定です。

NVIDIA BlueField-4 STX ストレージ ラック

NVIDIA BlueField-4 STX ラックスケール システムは、POD 全体で GPU メモリをシームレスに拡張する AI ネイティブなストレージ インフラです。BlueField-4 を搭載し、NVIDIA Vera CPU と NVIDIA ConnectX-9 SuperNIC と組み合わせた CMX は、LLM およびエージェント型 AI ワークフローによって生成される大規模な Key-Value (KV) キャッシュ データの保存と取得に最適化された、高帯域幅の共有レイヤーを提供します。

BlueField-4 ストレージ ラックをスーパーチャージする新しい DOCA フレームワークである NVIDIA DOCA Memos™ は、専用の KV キャッシュ ストレージ処理を可能にし、一般的なストレージ アーキテクチャと比較して、推論スループットを最大 5 倍向上させるとともに、電力効率を大幅に改善します。その結果、POD 全体のコンテキストが可能になり、AI エージェントとの高速なマルチターン インタラクション、より拡張性のある AI サービス、全体的なインフラ稼動率の向上を実現します。

Mistral AI の共同創業者/ CTO である Timothée Lacroix 氏は次のように述べています。「NVIDIA BlueField-4 STX ラックスケール コンテキスト メモリ ストレージ システムは、Mistral AI のエージェント型 AI の取り組みを指数関数的に拡大していく上で不可欠な性能向上を実現してくれます。AI エージェントのメモリに特化して設計された新たなストレージ階層を提供することで、STX は、膨大なデータセットを対象に推論を行う際にも、Mistral AI のモデルが一貫性と高速性を維持できるようにする、理想的なソリューションとなります」

NVIDIA Spectrum-6 SPX Ethernet ラック

Spectrum-6 SPX Ethernet は、AI ファクトリー全体の東西トラフィックを高速化するように設計されています。Spectrum-X Ethernet または NVIDIA Quantum-X800 InfiniBand スイッチで構成可能で、低レイテンシで高スループットのラック間接続を大規模に実現します。

コパッケージド オプティクスを搭載する Spectrum-X Ethernet Photonics は、従来のプラガブル トランシーバーと比較して、最大 5 倍の光電力効率と 10 倍のレジリエンスを実現します。

レジリエンスとエネルギー効率の向上

NVIDIA は、200 社以上のデータセンター インフラ パートナーと共に、Vera Rubin プラットフォーム向けの DSX を発表しました。新しい DSX プラットフォームには、AI ファクトリー全体の動的な電力プロビジョニングを可能にする DSX Max-Q が含まれており、これにより、一定の電力供給制限があるデータセンター内でも、AI インフラの展開を 30% 増加させることができます。新しい DSX Flex ソフトウェアは、AI ファクトリーをグリッドに柔軟な資産へと変え、未活用となっていた 100 ギガワットのグリッド電力を開放します。

また、NVIDIA は本日、ワットあたりのトークン数と全体的なグッドプットを最大化し、システムのレジリエンスを高め、初回の本番環境までの時間を短縮するための協調設計 AI インフラのブループリントである Vera Rubin DSX AI Factory リファレンス デザインを公開しました。

このアーキテクチャは、コンピューティング、ネットワーキング、ストレージ、電力、冷却を緊密に統合することで、エネルギー効率を向上させ、AI ファクトリーが継続的な高負荷ワークロードの下で稼働時間を最大化しながら確実に拡張できるようにします。

幅広いエコシステム サポート

Vera Rubin ベースの製品は、今年後半にパートナーから提供開始予定です。これには、主要なクラウド プロバイダーである Amazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure のほか、NVIDIA Cloud Partner である、CoreWeave、Crusoe、 Lambda、Nebius、Nscale および Together AI が含まれます。

グローバル システム メーカーの Cisco、Dell TechnologiesHPE、Lenovo、Supermicro および AivresASUS、Foxconn、GIGABYTE、Inventec、Pegatron、Quanta Cloud Technology (QCT)、Wistron、Wiwynn からも、Vera Rubin 製品をベースにした幅広いサーバーが提供される見込みです。

Anthropic、Meta、Mistral AI や OpenAI などの AI ラボと最先端のモデル開発者は、NVIDIA Vera Rubin プラットフォームを活用して、より大規模でより高性能なモデルをトレーニングし、従来の GPU 世代よりも低レイテンシと低コストで長文コンテキストのマルチモーダル システムを提供することを目指しています。

NVIDIAについて
NVIDIA (NASDAQ: NVDA) はアクセラレーテッド コンピューティングの世界的なリーダーです。

NVIDIAが新世代のAIスーパーコンピューターを毎年リリースするというペースに合わせてRubinがまさに絶好のタイミングで登場すること; 6つの新たなチップが緊密な共同設計であること; Rubin が次世代の AI フロンティアを切り拓いていること、Vera RubinがAIのあらゆる段階を支えるために開発された、世代を超えた飛躍であること; Vera Rubin がけん引する史上最大のインフラ構築が開始したこと;NVIDIA の製品、サービス、テクノロジの利点、影響、性能、提供状況に関する記述、NVIDIA の提携企業やパートナーを含む第三者との取り決めに関する期待、技術開発に対する期待、およびその他の歴史的事実ではない記述、また、これらに限定されない記述に関する利点と影響など、本プレス リリースに記載されている記述の中には、1933年証券法第27A条および1934年証券取引法第21E条(いずれも改正済み)に定める将来予測に関する記述に該当し、当該条項により定められた「セーフハーバー」の適用を受けるものであり、実際の結果が予想と著しく異なる原因となるリスクおよび不確実性に影響を受ける可能性があります。実際の結果が大幅に異なる可能性のある重要な要因には、以下のものが含まれます:世界的な経済状況;NVIDIAの製品を製造、組み立て、梱包、テストする第三者への依存;技術開発と競争の影響;新製品や技術の開発または既存製品、技術の改良;NVIDIAの製品またはパートナーの 製品の市場受け入れ状況;設計、製造またはソフトウェアの欠陥;消費者ニーズや需要の変化;業界標準やインターフェースの変更;NVIDIAの製品または技術がシステムに統合された際の予期せぬパフォーマンスにより生じる損失などを含み、NVIDIAが証券取引委員会(SEC)に提出する最新の報告書(年次報告書Form 10-Kおよび四半期報告書Form 10-Qを含むがこれらに限定されない)において随時開示されるその他の要因です。SECに提出された報告書は、NVIDIAのウェブサイトに掲載されており、NVIDIAから無償で入手可能です。これらの将来予測に関する記述は、将来の業績を保証するものではなく、本資料の発表現在時点での状況に基づくものであり、法律で義務付けられる場合を除き、NVIDIAは、将来の出来事や状況の変化を反映のためにこれらの将来予測に関する記述を更新する義務を負いません。

本リリースに記載されている製品や機能の多くはまだ様々な段階にあり、利用可能になった時点で提供される予定です。記述は、コミットメント、約束、または法的義務として意図されたものではなく、またそう解釈されるべきでもありません。また、NVIDIA製品について説明された特徴や機能の開発、リリース、および時期は変更される可能性があり、NVIDIA単独の裁量に委ねられます。NVIDIAは、ここに記載された製品、特徴または機能の不提供または遅延について、いかなる責任も負いません。

© 2026 NVIDIA Corporation. 無断複写、複製、転載禁止。 NVIDIA、NVIDIA ロゴ、BlueField、CMX、ConnectX、DOCA Memos、MGX、NVIDIA Spectrum、NVIDIA Spectrum-X、NVLink は米国およびその他の国における NVIDIA Corporation の商標または登録商標です。その他の社名と製品名は、それらが関連付けられている企業の商標である可能性があります。機能、価格、販売状況、仕様は、予告なしに変更される場合があります。