NVIDIA、Rubin で次世代 AI を始動 — 6 つの新チップと驚異的な AI スーパーコンピューター

NVIDIA Vera CPU、Rubin GPU、NVLink 6 スイッチ、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 イーサネット スイッチの緊密な協調設計により、トレーニング時間を大幅に短縮し、推論トークン生成コストを大幅に削減
投稿者: NVIDIA Japan

ニュース概要:

  • Rubin プラットフォームは、ハードウェアとソフトウェアにわたる緊密な協調設計により、NVIDIA Blackwell プラットフォームと比較して、推論トークンを 最大10 分の 1 のコストで提供し、MoE モデルのトレーニングに必要な GPU 数を 4 分の 1 に削減します。
  • NVIDIA Spectrum-X Ethernet Photonics スイッチ システムは、電力効率と稼働時間を 5 倍向上
  • NVIDIA BlueField-4 ストレージ プロセッサを搭載した新しい NVIDIA Inference Context Memory Storage プラットフォームが、エージェント型 AI リーズニングを高速化
  • NVIDIA Vera Rubin NVL72 ラックスケール システムを搭載した Microsoft の次世代 Fairwater AI スーパーファクトリーは、数十万の NVIDIA Vera Rubin Superchip まで拡張予定
  • CoreWeave は NVIDIA Rubin の提供を最初に開始する企業の一社であり、CoreWeave Mission Control を介することで、柔軟性とパフォーマンスを実現
  • Red Hat との協業を拡大し、Red Hat Enterprise Linux、Red Hat OpenShift、Red Hat AI を備えた Rubin プラットフォーム向けに最適化された完全な AI スタックを提供

【プレス リリース】ラスベガス — CES — 2026 1 5 NVIDIA は本日、次世代 AI の幕開けとなる、NVIDIA Rubin プラットフォームを発表しました。これは驚異的な AI スーパーコンピューターを実現するために設計された 6 つの新しいチップで構成されます。NVIDIA Rubin は、世界最大規模かつ最先端の AI システムを最小限のコストで構築、展開、セキュリティ保護するための新たな基準を確立し、メインストリームの AI 導入を加速します。

Rubin プラットフォームは、NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink™ 6 スイッチNVIDIA ConnectX®-9 SuperNICNVIDIA BlueField®-4 DPUNVIDIA Spectrum™-6 イーサネット スイッチの 6 つのチップ全体で緊密な協調設計を採用し、トレーニング時間を大幅に短縮し、推論トークンのコストを大幅に削減します。

NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は次のように述べています。「トレーニングと推論の両方における AI コンピューティングの需要が急増している中、Rubin はまさに絶好なタイミングで登場しました。新世代の AI スーパーコンピューターを年次サイクルで提供し、6 つの新しいチップにわたる緊密な協調設計により、Rubin は AI の次のフロンティアに向けて大きな飛躍を遂げます」

人類の宇宙に対する理解を自身の発見により一変させた米国の先駆的な天文学者、Vera Florence Cooper Rubin にちなんで名付けられた Rubin プラットフォームは、NVIDIA Vera Rubin NVL72 ラックスケール ソリューションと NVIDIA HGX Rubin NVL8 システムを特徴としています。

Rubin プラットフォームは、最新世代の NVIDIA NVLink インターコネクト テクノロジ、Transformer Engine、Confidential Computing、RAS Engine に加えて、NVIDIA Vera CPU を含む 5 つの革新的技術を導入しています。これらのブレークスルーにより、エージェント型 AI、高度なリーズニング、大規模な Mixture of Experts (MoE) モデルの推論を、NVIDIA Blackwell プラットフォームのトークンあたりのコストを最大 10 分の 1 で高速化します。NVIDIA Rubin プラットフォームでは、従来比で 4 分の 1 の GPU 数で MoE モデルをトレーニングし、AI 導入を加速します。

幅広いエコシステム サポート

Rubin の採用が予定されている世界の主要な AI 研究所、クラウド サービス プロバイダー、コンピューター メーカー、スタートアップには、Amazon Web Services (AWS)、Anthropic、Black Forest Labs、Cisco、Cohere、CoreWeave、Cursor、Dell Technologies、Google、Harvey、HPE、Lambda、Lenovo、Meta、Microsoft、Mistral AI、Nebius、Nscale、OpenAI、OpenEvidence、Oracle Cloud Infrastructure (OCI)、Perplexity、Runway、Supermicro、Thinking Machines Lab、xAI などが含まれます。

OpenAI CEO である Sam Altman 氏のコメント:「インテリジェンスは計算能力とともに拡大します。計算能力を強化することで、モデルはより有能になり、より困難な問題を解決し、人々に大きな影響をもたらすようになります。NVIDIA Rubin プラットフォームは、高度なインテリジェンスがすべての人々に恩恵をもたらすよう、この進歩を拡大し続けるのを支援します」

Anthropic の共同創業者兼 CEO である Dario Amodei 氏のコメント:「NVIDIA Rubin プラットフォームにおける効率性の向上は、より長い記憶、より優れたリーズニング、より信頼性の高い出力を可能にするインフラの進歩を表しています。NVIDIA との協業が、私たちの安全性研究と最先端モデルを支える原動力となっています」

Meta の創業者兼 CEO である Mark Zuckerberg 氏のコメント:「NVIDIA の Rubin プラットフォームは、数十億の人々に最先端モデルを展開するために必要な性能と効率における飛躍的向上をもたらすことを約束してくれます」

xAI の創業者兼 CEO である Elon Musk 氏のコメント:「💚🎉🚀 🤖  NVIDIA Rubin は AI のロケット エンジンとなるでしょう。フロンティア モデルを大規模にトレーニングして展開したいのであれば、これこそが使うべきインフラです。Rubin は、NVIDIA がゴールド スタンダードであることを世界に再認識させるでしょう。💚🎉🚀 🤖 」

Microsoft の執行会長兼 CEO である Satya Nadella 氏のコメント:「私たちは、場所を選ばず、最大限のパフォーマンスと効率であらゆるワークロードを処理できる、世界で最も強力な AI スーパーファクトリーを構築しています。NVIDIA Vera Rubin GPU の導入により、開発者や組織がまったく新しい方法で創造、リーズニング、拡張することが可能になります」

CoreWeave の共同創業者兼 CEO である Mike Intrator 氏のコメント:「CoreWeave は、進化するワークロードに最適なテクノロジを組み合わせ、専用の AI プラットフォームの比類のない性能を活用して、先駆者たちのイノベーションを加速することを目的に開発されました。NVIDIA Rubin プラットフォームは、リーズニング、エージェント型の大規模推論ワークロード向けの重要な進歩を遂げており、私たちのプラットフォームに追加できることを嬉しく思います。CoreWeave Mission Control を運用基準とすることで、NVIDIA との緊密な連携のもと、新機能を迅速に統合し、本番環境での確実な稼働が実現可能になります」

AWS CEO である Matt Garman のコメント:「AWS と NVIDIA は 15 年以上にわたって共にクラウド AI のイノベーションを推進してきました。AWS 上の NVIDIA Rubin プラットフォームは、お客様に比類のない選択肢と柔軟性を提供する最先端の AI インフラを提供するという、私たちの継続的な取り組みを表しています。NVIDIA の先進的な AI 技術と AWS の実績ある拡張性、セキュリティ、包括的な AI サービスを組み合わせることで、お客様は最も要求の厳しい AI アプリケーションをより迅速かつコスト効率に優れた方法で構築、トレーニング、展開できます。これにより、あらゆる規模での実験から本番環境への移行を加速できます」

Google および Alphabet CEO である Sundar Pichai 氏のコメント:「NVIDIA との深く長年にわたる関係を誇りに思います。NVIDIA GPU に対するお客様の膨大な需要に応えるため、Google Cloud 上で NVIDIA のハードウェアに最適な環境を提供することに重点を置いています。Rubin プラットフォームの優れた機能を顧客に提供し、AI の限界をさらに拡大するために必要なスケールとパフォーマンスを提供することで、今後も協業を継続していきます」

Oracle CEO である Clay Magouyrk 氏のコメント:「Oracle Cloud Infrastructure (OCI) は、最高性能を実現するために構築されたハイパースケール クラウドです。NVIDIA と連携することで、顧客が AI を活用して構築、拡張できる可能性の限界を押し広げています。NVIDIA Vera Rubin アーキテクチャを搭載したギガスケール AI ファクトリーにより、OCI はお客様にモデル トレーニング、推論、実世界への AI の影響の限界を押し広げるために必要なインフラ基盤を提供します」

Dell Technologies の会長兼 CEO である Michael Dell 氏のコメント:「NVIDIA Rubin プラットフォームは、AI インフラにおける大きな飛躍を意味します。Rubin を Dell AI Factory with NVIDIA に統合することで、膨大な量のトークンと多段階リーズニングを処理できるインフラを構築し、企業やネオクラウドが大規模な AI 展開を行うために必要な性能とレジリエンスを提供します」

HPE の社長兼 CEO である Antonio Neri 氏のコメント:「AI はワークロードだけでなく、IT の基盤そのものを変革しつつあり、ネットワークからコンピューティングに至る、インフラのあらゆる層を再考する必要があります。HPE では、NVIDIA Vera Rubin プラットフォームを活用して、次世代の安全な AI ネイティブ インフラを構築し、データをインテリジェンスに変換し、企業が真の AI ファクトリーとなることを可能にします」

Lenovo の会長兼 CEO である Yuanqing Yang 氏のコメント:「Lenovo は、次世代の NVIDIA Rubin プラットフォームを採用し、Neptune 液冷ソリューションに加えて、グローバルなスケール、製造効率、サービス網を活用し、企業が洞察とイノベーションを加速するインテリジェント エンジンとして機能する AI ファクトリーを構築することを支援します。私たちは共に、効率的で安全な AI があらゆる組織の標準となる、AI 主導の未来を構築しています」

インテリジェンスの拡張を実現する設計

エージェント型 AI やリーズニング モデル、最先端のビデオ生成ワークロードが、計算の限界を再定義しています。多段階の問題解決には、長いトークン列を処理、リーズニング、実行するためのモデルが必要です。複雑な AI ワークロードの要求に応えるように設計された Rubin プラットフォームの画期的な 5 つのテクノロジは、以下の通りです。

  • 6 世代 NVIDIA NVLink: 現代の大規模な MoE モデルに必要な、高速かつシームレスな GPU 間通信を実現します。各 GPU は6TB/s の帯域幅を提供し、Vera Rubin NVL72 ラックは 260TB/s の帯域幅を提供します。これはインターネット全体の帯域幅を上回ります。NVIDIA NVLink 6 スイッチは、コレクティブ オペレーションを高速化する In-Network Computing に加えて、保守性とレジリエンスを向上させる新機能を搭載し、大規模な AI トレーニングと推論をより迅速かつ効率的に実現します。
  • NVIDIA Vera CPU: エージェント型リーズニング向けに設計された NVIDIA Vera は、大規模 AI ファクトリー向けで最も電力効率に優れた CPU です。NVIDIA CPU は、88 個の NVIDIA カスタム Olympus コア、2 との完全な互換性、超高速 NVLink-C2C 接続で構築されています。Vera は、卓越したパフォーマンス、帯域幅、業界をリードする効率性を提供し、今日のあらゆるデータセンター ワークロードをサポートします。
  • NVIDIA Rubin GPU: ハードウェア アクセラレーション対応のアダプティブ圧縮機能を備えた第 3 世代 Transformer Engine を搭載した Rubin GPU は、AI 推論向けに 50 ペタフロップスの NVFP4 コンピューティングを提供します。
  • 3 世代 NVIDIA Confidential Computing: Vera Rubin NVL72 は、NVIDIA Confidential Computing を提供する初のラックスケール プラットフォームです。CPU、GPU、NVLink ドメイン全体でデータ セキュリティを維持し、世界最大規模の独自モデル、トレーニング、推論ワークロードを保護します。
  • 2 世代 RAS エンジン: Rubin プラットフォームは、GPU、CPU、NVLink を網羅し、リアルタイムの健全性チェック、耐障害性、予防保守機能を備え、システムの生産性を最大化します。ラックのモジュール式、ケーブル不要のトレイ設計により、Blackwell と比較して最大 18 倍の速度で組み立てと保守作業が可能になります。

AI ネイティブ ストレージと安全なソフトウェア デファインド インフラ

NVIDIA Rubin は、推論コンテキストをギガスケールで拡張するために設計された新世代の AI ネイティブ ストレージ インフラである、NVIDIA Inference Context Memory Storage Platform を導入します。

NVIDIA BlueField-4 を搭載したこのプラットフォームでは、AI インフラ全体で KV キャッシュ データを効率的に共有および再利用できます。これにより、応答性とスループットが向上し、エージェント型 AI の予測可能で電力効率に優れたスケーリングが可能になります。

AI ファクトリーがベアメタルおよびマルチテナントの展開モデルをますます採用するようになるにつれ、インフラの強力な制御と分離を維持することが不可欠となります。

BlueField-4 ではまた、Advanced Secure Trusted Resource Architecture (ASTRA) を導入しています。これはシステムレベルのトラスト アーキテクチャであり、AI インフラ構築者に単一の信頼できる制御ポイントを提供し、パフォーマンスを犠牲にすることなく大規模 AI 環境を安全にプロビジョニング、分離、運用することを可能にします。

AI アプリケーションがマルチターンのエージェント型リーズニングに向けて進化する中、AI ネイティブ組織では、ユーザー、セッション、サービス全体で遥かに大量の推論コンテキストを管理し、共有する必要があります。

ワークロードに応じた多様な形態

NVIDIA Vera Rubin NVL72 は、72 基の NVIDIA Rubin GPU、36 基の NVIDIA Vera CPU、NVIDIA NVLink 6、NVIDIA ConnectX-9 SuperNICNVIDIA BlueField-4 DPU を組み合わせた統合された安全なシステムを提供します。

NVIDIA はまた、x86 ベースの生成 AI プラットフォームをサポートするため、8 基の Rubin GPU を NVLink を介して接続するサーバー ボードである NVIDIA HGX Rubin NVL8 プラットフォームも提供します。HGX Rubin NVL8 プラットフォームは、AI およびハイパフォーマンス コンピューティング ワークロード向けのトレーニング、推論、科学計算を加速します。

NVIDIA DGX SuperPOD™ は、Rubin ベースのシステムを大規模に展開するためのリファレンスとして機能し、NVIDIA DGX Vera Rubin NVL72 または DGX Rubin NVL8 システムと、NVIDIA BlueField-4 DPU、NVIDIA ConnectX-9 SuperNIC、NVIDIA InfiniBand ネットワーキング、NVIDIA Mission Control™ ソフトウェアを統合します。

次世代イーサネット ネットワーキング

高度なイーサネット ネットワーキングとストレージは、データセンターをフル スピードで稼働させ、パフォーマンスと効率を向上させ、コストを削減する上で不可欠な AI インフラの構成要素です。

NVIDIA Spectrum-6 イーサネットは、AI ネットワーキング向けの次世代イーサネットであり、Rubin ベースの AI ファクトリーをより高い効率とレジリエンスで拡張するために構築されています。これは、200G SerDes 通信回路、Co-Packaged Optics、AI 最適化ファブリックによって実現されています。

Spectrum-6 アーキテクチャを基盤に構築された Spectrum-X Ethernet Photonics Co-Packaged Optics スイッチ システムは、AI アプリケーション向けに、従来の方法と比較して 信頼性を 10 倍向上し、稼働時間を 5 倍に向上させます。同時に、5 倍の電力効率を実現し、ワットあたりの性能を最大化します。Spectrum-X イーサネット プラットフォームの一部である Spectrum-XGS Ethernet テクノロジにより、数百キロメートル以上離れた施設を単一の AI 環境として機能させることができます。

これらの革新的技術が一体となり、次世代 NVIDIA Spectrum-X Ethernet プラットフォームを定義します。Rubin 向けに緊密な協調設計で構築された本プラットフォームは、大規模な AI ファクトリーを実現し、将来の 100 万 GPU 環境への道を開きます。

Rubin 対応状況

NVIDIA  Rubin は量産段階にはいっており、Rubinベースの製品は 2026 年後半にパートナーから提供開始予定です。

2026 年に Vera Rubin ベースのインスタンスを最初に展開するクラウド プロバイダーには、AWS、Google Cloud、Microsoft、OCI のほか、NVIDIA クラウド パートナー の CoreWeave、Lambda、Nebius、Nscale が含まれます。

Microsoft は、将来の Fairwater AI スーパーファクトリーを含む次世代 AI データセンターの一環として、NVIDIA Vera Rubin NVL72 ラックスケール システムを展開する予定です。

トレーニングおよび推論ワークロードに前例のない効率とパフォーマンスを実現するように設計された Rubin プラットフォームは、Microsoft の次世代クラウド AI 機能の基盤を提供します。Microsoft Azure は、企業向け、研究機関向け、消費者向けアプリケーションにおいて顧客のイノベーションを加速させる、高度に最適化されたプラットフォームを提供します。

CoreWeave は、2026 年後半から、NVIDIA Rubin ベースのシステムを AI クラウド プラットフォームに統合する予定です。CoreWeave は複数のアーキテクチャが並行して動作するように設計されており、顧客は Rubin を自社の環境に導入することでトレーニング、推論、エージェント型ワークロード全体で最大の効果を発揮できるようになります。

CoreWeave は NVIDIA と共に、AI の先駆者が Rubin のリーズニングおよび MoE モデルにおける進歩を活用できるよう支援すると同時に、CoreWeave Mission Control を通じてライフサイクル全体にわたる本番環境 AI に必要な性能、運用信頼性、拡張性を提供し続けます。

さらに、Cisco、DellHPELenovoSupermicro から、Rubin 製品をベースにした幅広いサーバーが提供される予定です。

Anthropic、Black Forest、Cohere、Cursor、Harvey、Meta、Mistral AI、OpenAI、OpenEvidence、Perplexity、Runway、Thinking Machines Lab、xAI などの AI 研究所では、より大規模で有能なモデルをトレーニングし、従来の GPU 世代よりも低遅延、低コストで長コンテキストのマルチモーダル システムを提供するために、NVIDIA Rubin プラットフォームに期待を寄せています。

インフラ ソフトウェアおよびストレージ パートナーである AIC、Canonical、Cloudian、DDN、Dell、HPE、Hitachi Vantara、IBM、NetApp、Nutanix、Pure Storage、Supermicro、SUSE、VAST Data、WEKA は、NVIDIA と協力し、Rubin インフラ向けの次世代プラットフォームを設計しています。

Rubin プラットフォームは、NVIDIA の第 3 世代ラックスケール アーキテクチャであり、80 社以上の NVIDIA MGX™ エコシステム パートナーが参加しています。

この高密度化を実現するため、Red Hat は本日、NVIDIA との協業を拡大し、NVIDIA Rubin プラットフォーム向けに最適化された完全な AI スタックを、Red Hat Enterprise Linux、Red Hat OpenShift、Red Hat AI などの Red Hat ハイブリッド クラウド ポートフォリオとともに提供することを発表しました。これらのソリューションは、Fortune Global 500 企業の大多数で採用されています。

詳細は、CES における NVIDIA LIVE を視聴するか、技術ブログ「Inside Vera Rubin」をご覧ください。

NVIDIAについて
NVIDIA (NASDAQ: NVDA) はAIとアクセラレーテッド コンピューティングの世界的なリーダーです。

Rubin はまさに絶好なタイミングで登場したこと;新世代AIスーパーコンピューターをNVIDIAの年次サイクルで提供し、6つの新チップにわたる緊密な統合設計により、RubinがAIの次世代フロンティアへ大きく飛躍したこと;NVIDIA の製品、サービス、テクノロジの利点、影響、性能、提供状況に関する記述、NVIDIA の提携企業やパートナーを含む第三者との取り決めに関する期待、技術開発に対する期待、およびその他の歴史的事実ではない記述、また、これらに限定されない記述に関する利点と影響など、本プレス リリースに記載されている記述の中には、1933年証券法第27A条および1934年証券取引法第21E条(いずれも改正済み)に定める将来予測に関する記述に該当し、当該条項により定められた「セーフハーバー」の適用を受けるものであり、実際の結果が予想と著しく異なる原因となるリスクおよび不確実性に影響を受ける可能性があります。実際の結果が大幅に異なる可能性のある重要な要因には、以下のものが含まれます:世界的な経済状況;NVIDIAの製品を製造、組み立て、梱包、テストする第三者への依存;技術開発と競争の影響;新製品や技術の開発または既存製品、技術の改良;NVIDIAの製品またはパートナーの 製品の市場受け入れ状況;設計、製造またはソフトウェアの欠陥;消費者ニーズや需要の変化;業界標準やインターフェースの変更;NVIDIAの製品または技術がシステムに統合された際の予期せぬパフォーマンスにより生じる損失などを含み、NVIDIAが証券取引委員会(SEC)に提出する最新の報告書(年次報告書Form 10-Kおよび四半期報告書Form 10-Qを含むがこれらに限定されない)において随時開示されるその他の要因です。SECに提出された報告書は、NVIDIAのウェブサイトに掲載されており、NVIDIAから無償で入手可能です。これらの将来予測に関する記述は、将来の業績を保証するものではなく、本資料の発表現在時点での状況に基づくものであり、法律で義務付けられる場合を除き、NVIDIAは、将来の出来事や状況の変化を反映のためにこれらの将来予測に関する記述を更新する義務を負いません。

本リリースに記載されている製品や機能の多くはまだ様々な段階にあり、利用可能になった時点で提供される予定です。記述は、コミットメント、約束、または法的義務として意図されたものではなく、またそう解釈されるべきでもありません。また、NVIDIA製品について説明された特徴や機能の開発、リリース、および時期は変更される可能性があり、NVIDIA単独の裁量に委ねられます。NVIDIAは、ここに記載された製品、特徴または機能の不提供または遅延について、いかなる責任も負いません。

© 2026 NVIDIA Corporation. 無断複写、複製、転載禁止。 NVIDIA、NVIDIA ロゴ、BlueField、ConnectX、NVIDIA DGX SuperPOD、NVIDIA MGX、NVIDIA Mission Control、NVIDIA Spectrum、NVIDIA Spectrum-X、NVLink は米国およびその他の国における NVIDIA Corporation の商標または登録商標です。その他の社名と製品名は、それらが関連付けられている企業の商標である可能性があります。機能、価格、販売状況、仕様は、予告なしに変更される場合があります。