※本発表資料は米国時間 2026 年 3 月 16 日に発表されたプレスリリースの抄訳です。
ニュース概要:
- NVIDIA Vera CPUは、従来の CPU と比較して 2 倍の効率性と 50% の高速化を提供
- Vera CPU の導入に向けて NVIDIA と協力している顧客には、Alibaba、ByteDance、Meta、Oracle Cloud Infrastructure をはじめ、CoreWeave、Lambda、Nebius、Nscale なども名を連ねる
- すでに Vera CPU を採用している製造パートナーには、Dell Technologies、HPE、Lenovo および Supermicro をはじめ、ASUS、Compal、Foxconn、GIGABYTE、Pegatron、Quanta Cloud Technology (QCT)、Wistron、Wiwynn なども名を連ねる
【プレス リリース】カリフォルニア州サンノゼ — GTC — 2026 年 3 月 16 日 — NVIDIA は本日、エージェント型 AI と強化学習の時代に向けて設計された世界初のプロセッサ、NVIDIA Vera CPU を発表しました。従来のラックスケール CPU と比較して 2 倍の効率性と 50% の高速化を実現します。
リーズニングとエージェント型 AI の進歩に伴い、スケール、パフォーマンス、コストは、タスクの計画、ツールの実行、データとのやり取り、コードの実行、結果の検証を担うモデルを支えるインフラによって大きく左右されるようになっています。
NVIDIA Vera CPU は、NVIDIA Grace™ CPU の成功を基盤とし、あらゆる規模、業種の組織が大規模なエージェント型 AI を実現する AI ファクトリーを構築できるようにします。最高のシングルスレッド性能とコアあたりの帯域幅を備えた Vera は、コーディング アシスタントや消費者向けおよびエンタープライズ向けエージェントなどの大規模な AI サービスにおいて、より高い AI スループット、応答性、効率性を提供する新しいクラスの CPU です。
Vera の導入に向けて NVIDIA と連携している主要なハイパースケーラーには、Alibaba、CoreWeave、Meta、Oracle Cloud Infrastructure が含まれ、Dell Technologies や HPE、Lenovo、Supermicro をはじめとするグローバル システム メーカーも本テクノロジを活用したサーバー設計を進めています。この広範な採用により、Vera は開発者、スタートアップ、官民機関、企業にとって最も重要な AI ワークロード向けの新たな CPU 標準となり、AI へのアクセスの民主化とイノベーションの加速を推進します。
NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は次のように述べています。「Vera は、AI の転換点に登場しました。インテリジェンスがエージェント型になり、リーズニングし、行動できるようになるにつれて、その作業を調整するシステムの重要性が高まっています。CPU はもはやモデルをサポートするだけでなく、モデルを推進する役割を果たしています。画期的なパフォーマンスとエネルギー効率により、Vera はより迅速に思考し、さらなる拡張を実現する AI システムを実現します」
あらゆるデータセンターに合わせて設定可能
NVIDIA は、256 基の液冷式の Vera CPU を統合した、新しい Vera CPU ラックを発表しました。これにより、22,500 以上の同時 CPU 環境を維持し、各環境が独立してフルパフォーマンスで動作することが可能になります。AI ファクトリーは、単一のラック内で数万もの同時インスタンスやエージェント型ツールを迅速に展開、拡張できます。
新しい Vera ラックは、NVIDIA MGX ™ モジュラー リファレンス アーキテクチャを採用して構築されており、世界中の 80 社のエコシステム パートナーによってサポートされています。
NVIDIA Vera Rubin NVL72 プラットフォームの一部として、Vera CPU は NVIDIA NVLink™-C2C インターコネクト テクノロジを介して NVIDIA GPU とペアリングされています。1.8 TB/s のコヒーレント帯域幅 (PCIe Gen 6 の 7 倍) により、CPU と GPU 間の高速データ共有を実現します。さらに、NVIDIA は、NVIDIA HGX™ Rubin NVL8 システム向けに、Vera をホスト CPU として採用した新しいリファレンス デザインを発表しました。これにより、GPU アクセラレーテッド ワークロードにおいて、データの移動とシステム制御を連携させます。
Vera のシステム パートナーは、デュアル ソケット CPU サーバー構成とシングル ソケット CPU サーバー構成の両方で提供します。強化学習、エージェント型推論、データ処理、オーケストレーション、ストレージ管理、クラウド アプリケーション、ハイパフォーマンス コンピューティングなどのワークロードに最適です。
すべての構成において、Vera は、NVIDIA ConnectX® SuperNIC カードおよび NVIDIA BlueField®-4 プロセッサと統合され、エージェント型 AI に不可欠な高速化されたネットワーキング、ストレージ、セキュリティを実現します。これにより、顧客はプラットフォーム全体で統一されたソフトウェア スタックを維持しながら、特定のワークロードに最適化できます。
エージェント型スケーリング向けの設計
高性能でエネルギー効率に優れた CPU コア、高帯域幅のメモリ サブシステム、第 2 世代の NVIDIA Scalable Coherency Fabric を組み合わせることで、Vera はエージェント型 AI と強化学習に共通する極限の使用状況下で、より高速なエージェント型応答を可能にします。
Vera は、NVIDIA 独自設計による 88 基のカスタム Olympus コアを搭載し、コンパイラ、ランタイム エンジン、分析パイプライン、オーケストレーション サービスに卓越したパフォーマンスを提供します。各コアは NVIDIA Spatial Multithreading により 2 つのタスクを同時実行でき、一貫した予測可能なパフォーマンスを提供します。これは、多数のジョブを同時実行するマルチテナント AI ファクトリーに最適です。
エネルギー効率をさらに向上させるため、Vera は LPDDR5X メモリをベースとした第 2 世代の NVIDIA の低消費電力メモリ サブシステムを搭載し、最大 1.2 TB/s の帯域幅を実現しています。これは汎用 CPU と比較して 2 倍の帯域幅である一方、消費電力は半分です。
幅広いエコシステムによるサポート
ストリーミング データ プラットフォーム大手の Redpanda は、Vera を活用してパフォーマンスを劇的に向上させています。
Redpanda の CEO / 創業者である Alex Gallego 氏は次のように述べています。「Redpanda は最近、Apache Kafka 互換ワークロードを実行して NVIDIA Vera をテストしたところ、ベンチマークした他のシステムよりも大幅に優れたパフォーマンスを達成し、レイテンシを最大 5.5 倍低減しました。Vera は、コアあたりのメモリ増加とオーバーヘッドの削減という CPU アーキテクチャの新たな方向性を表し、お客様がリアルタイム ストリーミング ワークロードをこれまで以上に拡張し、新たな AI およびエージェント型アプリケーションを切り拓くことを可能にします」
Vera CPU の導入を計画している国立研究機関には、ライプニッツ スーパーコンピューティング センター、ロスアラモス国立研究所、ローレンス バークレー国立研究所の国立エネルギー研究科学計算センター、そしてテキサス先端計算センター (TACC) が含まれます。
TACC のハイパフォーマンス コンピューティング ディレクター、John Cazes 氏は次のように述べています。「TACC では先頃、今後導入予定の Horizon システムに向けた準備として NVIDIA の Vera CPU プラットフォームをテストし、6 つの科学アプリケーションを実行して、優れた初期結果を確認しました。Vera のコアあたりのパフォーマンスとメモリ帯域幅は、科学計算にとって飛躍的な進歩です。今年後半に Horizon の CPU ユーザーへ Vera ベースのノードを提供できることを楽しみにしています」
Vera CPU の導入を計画している主要なクラウド サービス プロバイダーには、Alibaba、ByteDance、Cloudflare、CoreWeave、Crusoe、Lambda、Nebius、Nscale、Oracle Cloud Infrastructure、Together.AI、Vultr などが挙げられます。
Vera CPU を採用している主要なインフラ プロバイダーには、Aivres、ASRock Rack、ASUS、Compal、Cisco、Dell、Foxconn、GIGABYTE、HPE、Hyve、Inventec、Lenovo、MiTAC、MSI、Pegatron、Quanta Cloud Technology (QCT)、Supermicro、Wistron、Wiwynn などがあります。
提供予定
NVIDIA Vera は現在量産中であり、今年後半にパートナーから提供される予定です。
フアン の GTC 基調講演のリプレイ、およびセッションもご覧ください。
NVIDIAについて
NVIDIA (NASDAQ: NVDA) はAIとアクセラレーテッド コンピューティングの世界的なリーダーです。
CPUがモデルを推進していること; NVIDIA の製品、サービス、テクノロジの利点、影響、性能、提供状況に関する記述、NVIDIA の提携企業やパートナーを含む第三者との取り決めに関する期待、技術開発に対する期待、およびその他の歴史的事実ではない記述、また、これらに限定されない記述に関する利点と影響など、本プレス リリースに記載されている記述の中には、1933年証券法第27A条および1934年証券取引法第21E条(いずれも改正済み)に定める将来予測に関する記述に該当し、当該条項により定められた「セーフハーバー」の適用を受けるものであり、実際の結果が予想と著しく異なる原因となるリスクおよび不確実性に影響を受ける可能性があります。実際の結果が大幅に異なる可能性のある重要な要因には、以下のものが含まれます:世界的な経済状況;NVIDIAの製品を製造、組み立て、梱包、テストする第三者への依存;技術開発と競争の影響;新製品や技術の開発または既存製品、技術の改良;NVIDIAの製品またはパートナーの 製品の市場受け入れ状況;設計、製造またはソフトウェアの欠陥;消費者ニーズや需要の変化;業界標準やインターフェースの変更;NVIDIAの製品または技術がシステムに統合された際の予期せぬパフォーマンスにより生じる損失などを含み、NVIDIAが証券取引委員会(SEC)に提出する最新の報告書(年次報告書Form 10-Kおよび四半期報告書Form 10-Qを含むがこれらに限定されない)において随時開示されるその他の要因です。SECに提出された報告書は、NVIDIAのウェブサイトに掲載されており、NVIDIAから無償で入手可能です。これらの将来予測に関する記述は、将来の業績を保証するものではなく、本資料の発表現在時点での状況に基づくものであり、法律で義務付けられる場合を除き、NVIDIAは、将来の出来事や状況の変化を反映のためにこれらの将来予測に関する記述を更新する義務を負いません。
© NVIDIA NVIDIA Corporation. All rights reserved. NVIDIA、NVIDIA ロゴ、BlueField、ConnectX、NVIDIA Grace、NVIDIA HGX、NVIDIA MGX、および NVLinkare は米国およびその他の国における NVIDIA Corporation の商標または登録商標です。その他の社名と製品名は、それらが関連付けられている企業の商標である可能性があります。機能、価格、販売状況、仕様は、予告なしに変更される場合があります。
