【プレス リリース】バンクーバー、ブリティッシュコロンビア州 — SIGGRAPH — 2025 年 8 月 11 日 — NVIDIA は本日、NVIDIA RTX PRO™ 6000 Blackwell Server Edition GPU が世界有数のエンタープライズ サーバーに搭載されると発表しました。これにより、従来の CPU システムからアクセラレーテッド コンピューティング プラットフォームへの移行が加速されます。
これらの新しい 2U メインストリーム サーバーにより、世界中の企業は、最も広範に採用されているラックマウント システムで NVIDIA Blackwell アーキテクチャを活用し、データセンターで画期的なパフォーマンスと効率を達成できるようになります。
Cisco、Dell Technologies、HPE、Lenovo、Supermicro などのグローバル システム パートナーからは、複数の構成で利用可能な 2U NVIDIA RTX PRO サーバー が提供され、エージェント型 AI、コンテンツ作成、データ分析、グラフィックス、科学シミュレーション、産業用AIおよびフィジカル AI に及ぶエンタープライズ ワークロード全体の高速化が実現できるようになります。
NVIDIA の創業者/ CEO である ジェンスン フアン(Jensen Huang )は次のように述べています。「AI は60年ぶりにコンピューティングを再発明しています。クラウドで始まったことが、今やオンプレミスのデータ センターのアーキテクチャを変革しています。世界有数のサーバー プロバイダーと共に、NVIDIA Blackwell RTX PRO サーバーをエンタープライズと産業用 AI の標準プラットフォームとして提供していきます。」
NVIDIA RTX PRO サーバー ファミリーが、データセンターにアクセラレーテッド システムを導入
企業は毎年ビジネス ワークロード向けに、数百万台のサーバーを導入しています。 AI が業務においてますます重要になる中、企業はこれらのシステムを高速化された サーバーで刷新できるようになります。 RTX PRO サーバーによって、データ分析、シミュレーション、ビデオ処理、グラフィックス レンダリングなどの従来の CPU ベースのワークロードに GPU アクセラレーションがもたらされます。パフォーマンスは最大で 45 倍にまで向上し、CPU のみの 2U システムと比較してエネルギー効率は 18 倍に向上し、所有コストを削減することができます。
NVIDIA RTX PRO サーバーは、スペース、電力および冷却の面で制約のあるデータ センターで AI ファクトリーを構築する企業の顧客に、画期的な Blackwell の性能を提供するオンプレミス インフラの新たなクラスです。
これらのシステムは、エンタープライズ エージェント型 AI 向けに最新のストレージ システムを構築できるカスタマイズ可能なリファレンス設計である NVIDIA AI データ プラットフォーム のインフラ基盤になります。 Dell は SIGGRAPH で、NVIDIA AI データ プラットフォーム リファレンス デザインと統合された Dell AI Data Platform の最新情報と、2 つの RTX PRO 6000 GPU、NVIDIA AI Enterprise ソフトウェア、NVIDIA ネットワーキングを搭載した Dell PowerEdge R7725 2U サーバーの最新情報を発表します。
新しい 2U メインストリーム システムは、5 月に COMPUTEX で発表された RTX PRO サーバー ファミリーに加わるものであり、2 基、4 基、8 基の NVIDIA RTX PRO 6000 Blackwell GPU を搭載可能なラックマウント型設計を幅広く提供します。 これらのサーバーは、パフォーマンス、効率、コストの最適化を目指す企業に最適です。
エンタープライズ データ センター向けの画期的な AI パフォーマンス
新しい RTX PRO サーバーは、AI や機械学習、データ分析、3D グラフィックス、科学シミュレーションを含む幅広いアプリケーションに汎用性のある高性能プラットフォームを提供します。 これらのサーバーには、以下の特徴を含む最新の Blackwell アーキテクチャ のイノベーションが組み込まれています。
- 第 5 世代 Tensor コアと第 2 世代 Transformer Engine は、FP4 精度をサポートし、前世代の NVIDIA L40S GPU と比較して最大 6 倍の推論性能を実現します。
- フォトリアルなレンダリングとビジュアライゼーションを可能にする第 4 世代 NVIDIA RTX™ テクノロジを採用し、L40S GPU と比較して最大 4 倍の性能を実現します。
- マルチユーザー AI 展開に適したエンタープライズ グレードの規模に向けて、仮想化と GPU ごとに 4 つの完全に分離されたインスタンスを可能にする NVIDIA マルチインスタンス GPU 技術を採用しています。
- 電力ワットあたりのパフォーマンスを向上させて、持続可能なデータセンター運用を支援します。
フィジカル AI およびロボティクスのワークロードを高速化
NVIDIA Omniverse™ ライブラリとNVIDIA Cosmos™ 世界基盤モデルを搭載した RTX PRO サーバーにより、フィジカルAI 開発者は、工場やロボットのシミュレーション、大規模な合成データ生成などのデジタルツインを含むアプリケーションを構築、導入することができます。
RTX PRO サーバーは、L40S GPU を搭載したシステムに比べ、シミュレーションおよび合成データ生成のワークフローを最大 4 倍高速に実行できます。
また、空間をよりスマートで安全なものにするために、RTX PRO サーバーは、NVIDIA Metropolis プラットフォームの一部であるビデオ検索と要約向けの最新の NVIDIA Blueprint for video search and summarization (VSS) を含む高度なブループリントをサポートし、さらにビジョン言語モデルと合成データ生成拡張をサポートしているため、フィジカル AI 環境全体の生産性を向上させ、安全性を強化します。
エンタープライズ AI およびエージェントのスピードと規模
すべての RTX PRO サーバーは、AI 開発と展開を高速化し、セキュリティを確保するソフトウェア レイヤーである NVIDIA AI Enterprise の認証を取得しています。
RTX PRO サーバーは、AI 推論モデルを活用して複雑なタスクを自動化する AI エージェントの実行にも最適です。 これらのモデルには、本日発表された Llama Nemotron Super が含まれます。単一の NVIDIA RTX PRO 6000 GPU 上で NVFP4 で実行した場合、NVIDIA H100 GPU 上での FP8 と比較して、最大 3 倍のコスト パフォーマンスを発揮します。 これにより、より正確な推論を低コストで実現できます。
Blackwell プラットフォームは、強力な開発ツール、NVIDIA CUDA-X™ ライブラリ、600 万人以上の開発者、6,000 近くのアプリケーションからなる NVIDIA のエコシステムを基盤としており、数千台の GPU にわるパフォーマンスを拡張します。
提供時期
世界的なシステム メーカーである Cisco、Dell、HPE、Lenovo、Supermicro は、幅広い種類の NVIDIA Certified Systemsとして RTX PRO サーバーを提供します。 RTX PRO サーバーを市場に投入しているその他のデータセンター システム パートナーには、Advantech、Aetina、Airves、ASRock Rack、ASUS、Compal、Foxconn、GIGABYTE、Inventec、MiTAC Computing、MSI、PEGATRON、Quanta Cloud Technology (QCT)、Wistron、Wiwynn が含まれます。
顧客は、世界中のこれらのシステム メーカーおよびチャネル パートナーから本日より RTX PRO サーバーの注文が可能です。 8 基の RTX PRO 6000 GPU を搭載した 4U フォーム ファクター構成は、すでに利用可能です。 2U メインストリーム RTX PRO サーバーは、今年後半から提供開始予定です。 RTX PRO サーバーご購入に関する詳細については、こちらをご覧ください。
SIGGRAPH での NVIDIA Research の特別講演をご覧ください。
NVIDIAについて
NVIDIA (NASDAQ: NVDA) はアクセラレーテッド コンピューティングの世界的なリーダーです。
AI は60年ぶりにコンピューティングを再発明し、クラウドで始まったことが今オンプレミス データセンターのアーキテクチャを変革していること、NVIDIA は、世界有数のサーバー プロバイダーと提携して NVIDIA Blackwell RTX PRO サーバーをエンタープライズおよび産業用 AI の標準プラットフォームとして提供こと、 NVIDIA の製品、サービスおよび技術の利点、影響、パフォーマンスおよび可用性、NVIDIA の提携企業やパートナーを含む第三者との取り決めに関する期待、技術開発に対する期待。また、歴史的事実ではないその他の記述は、1933 年証券法第 27A 条 (改正後) および1934 年証券取引法第 21E 条 (改正後) に定義される将来の見通しに関する記述であり、経営陣の信念と仮定、および経営陣が現在入手できる情報に基づいて設定した「セーフハーバー」の対象であり、リスクと不確実性に左右されるため、結果が予想と大きく異なる可能性があります。実際の結果を大きく変化させる可能性がある重要な要因には、世界経済の状況と政治情勢、NVIDIA の製品の製造、組み立て、梱包、テストにおける第三者への依存、技術開発と競争の影響、新製品・技術の開発または NVIDIA の既存製品・技術の改良、NVIDIA 製品または NVIDIA パートナー製品の市場での受け入れられ方、設計、製造またはソフトウェア上の欠陥、消費者の嗜好や需要の変化、業界標準やインターフェースの変更、NVIDIA の製品または技術をシステムに統合した場合の予期しない性能の低下、適用される法規制の変更、NVIDIA が証券取引委員会 (SEC) に提出する年次報告書 (Form 10-K) や四半期報告書 (Form 10-Q) を含むがこれらに限定されない最新の報告書に随時詳述されているその他の要因などがあります。SEC に提出された報告書のコピーは、会社のウェブサイトに掲載され、NVIDIA から無料で入手できます。 これらの将来の見通しに関する記述は、将来の業績を保証するものではなく、本プレス リリースの日付の時点での見解です。また、法律で義務付けられる場合を除き、NVIDIA は、将来の出来事や状況を反映するためにこれらの将来の見通しに関する記述を更新する義務を一切負いません。
本リリースに記載されている製品や機能の多くはまだ様々な段階にあり、利用可能になった時点で提供される予定です。記述は、コミットメント、約束、または法的義務として意図されたものではなく、またそう解釈されるべきでもありません。また、NVIDIA製品について説明された特徴や機能の開発、リリース、および時期は変更される可能性があり、NVIDIA単独の裁量に委ねられます。NVIDIAは、ここに記載された製品、特徴または機能の不提供または遅延について、いかなる責任も負いません。
© 2025 NVIDIA Corporation. All rights reserved. NVIDIA、NVIDIA ロゴ、CUDA-X、NVIDIA Isaac Sim、NVIDIA Omniverse、NVIDIA RTX、NVIDIA RTX PRO は、米国およびその他の国における NVIDIA Corporation の商標および/または登録商標です。 その他の会社名および製品名は、それぞれの会社の商標である場合があります。機能、価格、発売状況、仕様は予告なしに変更される場合があります。