NVIDIA とパートナーが Vera Rubin に向けた次世代高効率ギガワット AI ファクトリーを推進

50 社を超える NVIDIA MGX パートナーが NVIDIA Vera Rubin NVL144 に向けた準備を進行中。20 社以上の企業が、将来のギガワット規模の AI ファクトリーの実現に向け、800 VDC データセンターをサポートし、NVIDIA のパートナー エコシステムが拡大
投稿者: Harry Petty

OCP Global Summit にて、NVIDIA はギガワット規模の AI ファクトリーの未来像を紹介します。

NVIDIA は、50 社を超える MGX パートナーが準備を進めている NVIDIA Vera Rubin NVL144 MGX 世代のオープン アーキテクチャ ラックサーバーの仕様を公開します。また、増大する推論需要に対応するために構築された 576 基の Rubin Ultra GPU を接続する NVIDIA Kyber のエコシステム サポートも備えています。

20 社を超える業界パートナーが、NVIDIA Kyber ラック アーキテクチャをサポートする、ギガワット時代の次世代 800 V 直流 (VDC) データセンター向けの新しいシリコン、コンポーネント、電源システム、サポートを展示します。

Foxconn は、800 VDC 向けに建設中の台湾の 40 メガワット データセンター「Kaohsiung-1」の詳細を発表しました。CoreWeave、Lambda、Nebius、Oracle Cloud Infrastructure、Together AI などは、800 V データセンターの設計に取り組む業界のパイオニアです。さらに、Vertiv は、省スペース、コスト効率、エネルギー効率に優れた、包括的な電源および冷却インフラ アーキテクチャである 800 VDC MGX リファレンス アーキテクチャを発表しました。HPE は、NVIDIA Kyber に加え、Spectrum-X イーサーネット プラットフォームの一部である NVIDIA Spectrum-XGS イーサーネット スケールアクロス テクノロジの製品サポートを発表します。

従来の 415 V または 480 V の交流三相システムから 800 VDC インフラへの移行は、データセンターにおけるスケーラビリティの向上、エネルギー効率の改善、材料使用量の削減、そしてパフォーマンス向上を実現します。電気自動車業界や太陽光発電業界では、同様のメリットを得るために既に 800 VDC インフラを採用しています。

Meta が設立した Open Compute Project は、数百のコンピューティングおよびネットワーク プロバイダーからなる業界コンソーシアムであり、コンピューティング インフラへの高まる需要を効率的にサポートするためのハードウェア技術の再設計に重点を置いています。

Vera Rubin NVL144: AI ファクトリー向けに拡張可能な設計

Vera Rubin NVL144 MGX コンピュート トレイは、エネルギー効率に優れた 100% 液冷式のモジュラー設計を採用しています。中央のプリント基板ミッドプレーンは、従来のケーブル接続に代わるもので、組み立てと保守性を向上します。また、NVIDIA ConnectX-9 800GB/s ネットワークと、大規模コンテキスト推論を実現する NVIDIA Rubin CPX 用のモジュラー拡張ベイを備えています。

NVIDIA Vera Rubin NVL144 は、アクセラレーテッド コンピューティング アーキテクチャと AI 性能の飛躍的な向上を実現します。高度なリーズニング エンジンと AI エージェントの要求に応えるよう設計されています。

基本設計は MGX ラック アーキテクチャに基づいており、50 社を超える MGX システムおよびコンポーネント パートナーによってサポートされます。NVIDIA は、アップグレードされたラックとコンピュート トレイの技術革新を、OCP コンソーシアムのオープン スタンダードとして提供する予定です。

コンピュート トレイとラックの標準規格により、パートナーはモジュラー式で製品を自由に組み合わせて、アーキテクチャによって迅速に拡張できます。Vera Rubin NVL144 ラック設計は、エネルギー効率の高い 45°C 液冷、より高いパフォーマンスを実現する新しい液冷バスバー、そして電力を安定的に維持するための 20 倍のエネルギー貯蔵を特徴としています。

MGX によるコンピュート トレイとラック アーキテクチャのアップグレードは、AI ファクトリーの性能を向上させるとともに、組み立てを簡素化し、ギガワット規模の AI インフラへの迅速な立ち上げを可能にします。

NVIDIA は、NVIDIA GB200 NVL72 システムの電気機械設計の主要部分を含む、複数のハードウェア世代にわたる OCP 標準規格の主要貢献者です。同じ MGX ラック フットプリントで GB300 NVL72 をサポートし、Vera Rubin NVL144、Vera Rubin NVL144 CPX、Vera Rubin CPX もサポートすることで、より高いパフォーマンスと迅速な導入を実現します。

NVIDIA Kyber ラック サーバー世代

OCP エコシステムは、800 VDC 電力供給、液冷、機械設計におけるイノベーションを特徴とする NVIDIA Kyber への対応を進めています。

これらのイノベーションは、NVIDIA Oberon の後継となるラック サーバー世代 NVIDIA Kyber への移行を支えるものであり、2027 年までに 576 基の NVIDIA Rubin Ultra GPU を搭載した高密度プラットフォームを実現します。

高電力配電の課題に対処する最も効果的な方法は、電圧を上げることです。従来の 415 VAC または 480 VAC 三相システムから 800 VDC アーキテクチャへの移行には、様々な利点をもたらします。

この移行により、ラック サーバー パートナーは、ラック内コンポーネントを 54 VDC から 800 VDC に移行し、より良い結果を得ることができます。MGX ラック サーバー リファレンス アーキテクチャのオープン スタンダードに準拠する直流インフラ プロバイダー、電源システムおよび冷却パートナー、そしてシリコン メーカーからなるエコシステムが、このイベントに参加しました。

NVIDIA Kyber は、ラックの GPU の密度を高め、ネットワーク規模を拡張し、大規模 AI インフラのパフォーマンスを最大化するように設計されています。本棚の本のようにコンピュート ブレードを垂直に回転させることにより、Kyber はシャーシあたり最大 18 枚のコンピュート ブレードを可能にします。また、専用の NVIDIA NVLink スイッチ ブレードは、ケーブル不要のミッド プレーンを介して背面に統合され、シームレスなスケールアップ ネットワークを実現します。

800 VDC では、同じ銅線で 150% 以上の電力の伝送が可能となり、1 つのラックに電力を供給するために 200 kg の銅バスバーを使用する必要がなくなります。

Kyber は、今後数年間で最先端の生成 AI ワークロードに優れたパフォーマンス、効率性、信頼性をもたらす、ハイパースケール AI データセンターの基盤要素となるでしょう。NVIDIA Kyber ラックは、顧客が使用する銅線の量をトン単位で削減し、数百万ドルのコスト削減につながる手段を提供します。

NVIDIA NVLink Fusion エコシステムが拡大

ハードウェアに加え、NVIDIA NVLink Fusion も勢いを増しています。これにより、企業はセミ カスタムのシリコンを高度に最適化され広く導入されているデータセンター アーキテクチャにシームレスに統合し、複雑さを軽減して市場投入までの時間を短縮できます。

Intel と Samsung Foundry は、カスタム シリコン設計者、CPU および IP パートナーを含む NVLink Fusion エコシステムに参画することにより、AI ファクトリーは迅速にスケールアップし、モデルのトレーニングやエージェント型 AI 推論といった要求の厳しいワークロードに対応できるようになります。

  • 最近発表された NVIDIA と Intel の協業の一環として、Intel は NVLink Fusion を使用して NVIDIA インフラ プラットフォームに統合される x86 CPU を構築します。
  • Samsung Foundry は、カスタム CPU とカスタム XPU の需要の高まりに対応するため、NVIDIA と協力し、カスタム シリコンの設計から製造までの一貫したプロセスを提供します。

オープン エコシステムの必要性:次世代 AI ファクトリーの拡張

20 社を超える NVIDIA パートナーが、オープン スタンダードに準拠したラック サーバーの提供を支援し、将来のギガワット規模の AI ファクトリーの実現に貢献しています。

NVIDIA と Open Compute Project の詳細については、10 月 13 日から 16 日までサンノゼ コンベンション センターで開催される OCP Global Summit にてご確認ください。