NVIDIA 、業界で幅広く採用されている BlueField-4 STX ストレージ アーキテクチャを発表

投稿者: NVIDIA Japan

※本発表資料は米国時間 2026 年 3 月 16 日に発表されたプレスリリースの抄訳です。

ニュース概要:

  • 新しい NVIDIA STX リファレンス アーキテクチャは、最大 5 倍のトークンスループットと最大 4 倍のエネルギー効率の向上を実現し、データ取り込みを2 倍高速化
  • コンテキスト メモリ ストレージとして STX を早期に採用した企業には、CoreWeave、Crusoe、IREN、Lambda、Mistral AI、Nebius、Oracle Cloud Infrastructure (OCI)、Vultr などが含まれる
  • AIC、Cloudian、DDN、Dell Technologies、Everpure、Hitachi Vantara、IBM、MinIO、NetApp、Nutanix、Supermicro、Quanta Cloud Technology (QCT)、VAST Data、WEKA などのストレージ プロバイダーと製造パートナーは、エージェント型 AI を推進するために、NVIDIA のモジュール式リファレンスデザインを活用したインフラを構築

【プレス リリース】カリフォルニア州 サンノゼ — GTC — 2026   3 16 NVIDIA は本日、エンタープライズ、クラウド、AI プロバイダーが、エージェント型 AI に必要とされる長文コンテキスト推論 リーズニングを実現する高速化ストレージインフラ容易に展開できるモジュール式リファレンス アーキテクチャである NVIDIA BlueField-4® STX を発表しました。

従来のデータセンターは、大容量の汎用的なストレージを提供しますが、多くのステップ、ツール、セッションで動作する AI エージェントとシームレスに相互作用するために必要な応答性には欠けています。 エージェント型 AI は、対話やタスクを高速かつ一貫性のあるものに保つために、データへのリアルタイム アクセスとコンテキストを保持するワーキングメモリを必要とします。 コンテキストの拡大をすると、従来のストレージとデータ パスでは AI 推論が遅くなり、GPU 使用率が低下する可能性があります。

NVIDIA STX により、ストレージ プロバイダーはデータを近くに保持し、大規模環境でもアクセスを可能にするインフラを構築できるため、エージェント型 AI ファクトリーは、推論、トレーニング、分析にわたって高いスループットと応答性を実現できます。

最初のラックスケール実装には、新しい NVIDIA CMX™ コンテキスト メモリ ストレージ プラットフォームが含まれています。これは、スケーラブルな推論システムとエージェント型 システム向けの高性能なコンテキスト レイヤーによって GPU メモリを拡張し、従来のストレージと比較して 最大5倍のトークン/秒のトークンを提供します。

NVIDIA の創業者/ CEO である ジェンスン フアン (Jensen Huang)  は次のように述べています。「エージェント型 AI はソフトウェアのあり方を根本から変えつつあります。これに伴い、その基盤となるコンピューティング インフラも作り直す必要があります。大規模なコンテキストで推論し、継続的に学習する AI システムには、新たな種類のストレージが求められます。 NVIDIA STX は、ストレージ スタックを再構築し、AI ネイティブ インフラ向けのモジュール型基盤を提供することで、AI ファクトリーをピークパフォーマンスで稼働させ続けることを可能にします。」

STX は、NVIDIA Vera Rubin プラットフォームで高速化されており、ストレージ向けに最適化された新しいNVIDIA BlueField-4プロセッサを活用しています。このプロセッサは、NVIDIA Vera CPUNVIDIA ConnectX®-9 SuperNICを組み合わせNVIDIA Spectrum-X™  Ethernet ネットワーキング、NVIDIA DOCA™ 、およびNVIDIA AI Enterpriseソフトウェアとともに構成されます。

また、STX アーキテクチャは、高性能ストレージ向けの従来の CPU アーキテクチャと比較して 4 倍の高いエネルギー効率を実現し、エンタープライズ AI データに対して 1 秒あたり 2 倍多くのページを取り込むことができます。

NVIDIA STX を基盤とした次世代 AI インフラを共同設計するストレージ プロバイダーの パートナーには、CloudianDDNDell TechnologiesEverpure、Hitachi Vantara、HPE、IBM、MinIONetAppNutanixVAST Data、WEKA などが含まれます。

STX 基盤のシステムを構築している製造パートナーには、AIC、Supermicro、Quanta Cloud Technology (QCT) が含まれます。

コンテキスト メモリ ストレージに STX の採用を計画している主要な AI ラボやクラウド サービス プロバイダーには、CoreWeave、Crusoe、IREN、Lambda、Mistral AI、Nebius、Vultr などが含まれます。

STX ベースのプラットフォームは、今年後半にパートナー各社から提供される予定です。

ジェンスン  フアン の GTC 基調講演およびセッションをご覧ください。

NVIDIAについて
NVIDIA (NASDAQ: NVDA) はAIとアクセラレーテッド コンピューティングの世界的なリーダーです。

ソフトウェアができることを再定義するエージェント型 AI – 膨大なコンテキストにわたってリーズニングを行い、企業の知見を継続的に築くシステムを提供すること;NVIDIAの製品、サービス、技術の利点、影響、性能、可用性;協力企業やパートナーを含む第三者との契約に関する期待;技術開発に関する期待;その他、歴史的事実ではない声明NVIDIA の製品、サービス、テクノロジの利点、影響、性能、提供状況に関する記述、NVIDIA の提携企業やパートナーを含む第三者との取り決めに関する期待、技術開発に対する期待、およびその他の歴史的事実ではない記述、また、これらに限定されない記述に関する利点と影響など、本プレス リリースに記載されている記述の中には、1933年証券法第27A条および1934年証券取引法第21E条(いずれも改正済み)に定める将来予測に関する記述に該当し、当該条項により定められた「セーフハーバー」の適用を受けるものであり、実際の結果が予想と著しく異なる原因となるリスクおよび不確実性に影響を受ける可能性があります。実際の結果が大幅に異なる可能性のある重要な要因には、以下のものが含まれます:世界的な経済状況;NVIDIAの製品を製造、組み立て、梱包、テストする第三者への依存;技術開発と競争の影響;新製品や技術の開発または既存製品、技術の改良;NVIDIAの製品またはパートナーの 製品の市場受け入れ状況;設計、製造またはソフトウェアの欠陥;消費者ニーズや需要の変化;業界標準やインターフェースの変更;NVIDIAの製品または技術がシステムに統合された際の予期せぬパフォーマンスにより生じる損失などを含み、NVIDIAが証券取引委員会(SEC)に提出する最新の報告書(年次報告書Form 10-Kおよび四半期報告書Form 10-Qを含むがこれらに限定されない)において随時開示されるその他の要因です。SECに提出された報告書は、NVIDIAのウェブサイトに掲載されており、NVIDIAから無償で入手可能です。これらの将来予測に関する記述は、将来の業績を保証するものではなく、本資料の発表現在時点での状況に基づくものであり、法律で義務付けられる場合を除き、NVIDIAは、将来の出来事や状況の変化を反映のためにこれらの将来予測に関する記述を更新する義務を負いません。

本リリースに記載されている製品や機能の多くはまだ様々な段階にあり、利用可能になった時点で提供される予定です。記述は、コミットメント、約束、または法的義務として意図されたものではなく、またそう解釈されるべきでもありません。また、NVIDIA製品について説明された特徴や機能の開発、リリース、および時期は変更される可能性があり、NVIDIA単独の裁量に委ねられます。NVIDIAは、ここに記載された製品、特徴または機能の不提供または遅延について、いかなる責任も負いません。

© 2026 NVIDIA Corporation. All rights reserved. NVIDIA、NVIDIA ロゴ、BlueField、ConnectX、NVIDIA CMX、NVIDIA DOCA、NVIDIA Spectrum-Xは米国およびその他の国における NVIDIA Corporation の商標または登録商標です。その他の社名と製品名は、それらが関連付けられている企業の商標である可能性があります。機能、価格、販売状況、仕様は、予告なしに変更される場合があります。