NVIDIA と AWS がフルスタックのパートナーシップを拡大し、将来のイノベーションに不可欠な、セキュアかつ高性能なコンピューティング プラットフォームを提供

AWS は、次世代 Trainium4 チップ、Graviton、AWS Nitro System などのカスタム シリコンに NVIDIA NVLink Fusion を統合します。
投稿者: Ian Buck

AWS re:Invent において、NVIDIA と Amazon Web Services (AWS) は、インターコネクト技術、クラウド インフラ、オープン モデル、フィジカル AI にわたる新たな技術統合を通じて、戦略的コラボレーションを拡大したことを発表しました。

この拡大の一環として、AWS はカスタム AI インフラ向けプラットフォームである NVIDIA NVLink Fusion をサポートし、推論およびエージェント型 AI モデルのトレーニング向けの次世代 Trainium4 チップ、幅広いワークロードに対応する Graviton CPU、Nitro System 仮想化インフラなど、同社のカスタム設計シリコンの展開に活用します。

NVIDIA NVLink Fusion の使用により、AWS は NVIDIA NVLink のスケールアップ インターコネクトと NVIDIA MGX ラック アーキテクチャを自社のカスタム シリコンと組み合わせ、次世代のクラウドスケール AI 機能のパフォーマンスを向上させ、市場投入までの時間を短縮します。

AWS は、NVLink および NVIDIA MGX と統合する Trainium4 の設計を進めており、これは NVLink Fusion における NVIDIA と AWS の複数世代にわたる協業の第 1 弾となります。

AWS はすでに NVIDIA GPU を搭載した MGX ラックを大規模に展開しています。NVLink Fusion を統合することで、AWS はプラットフォーム全体にわたる展開とシステム管理をさらに簡素化することができます。

また、AWS はラックやシャーシから電力供給や冷却システムに至るまで、ラックスケールの展開に必要なすべてのコンポーネントを提供する NVLink Fusion サプライヤー エコシステムも活用できるようになります。

AWS 上の NVIDIA Vera Rubin アーキテクチャは、AWS の Elastic Fabric Adapter と Nitro System をサポートすることで、AWS のクラウド インフラとの完全な互換性を維持しながら、堅牢なネットワークの選択肢を顧客に提供し、新しい AI サービスの展開を加速させます。

NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は次のように述べています。「GPU コンピューティングの需要は急増しています。コンピューティング能力が高まれば AI がより賢くなり、AI がより賢くなれば AI の利用が広がり、AI の利用が広がればコンピューティングへの需要が一段と高まります。こうした AI の好循環が現実のものになったのです。NVIDIA NVLink Fusion が AWS Trainium4 に導入されることで、NVIDIA のスケールアップ アーキテクチャと AWS のカスタム シリコンが統合され、新世代のアクセラレーテッド プラットフォームが構築されます。NVIDIA と AWS は共に、AI 産業革命に向けたコンピューティング ファブリックを創り出します。これにより、あらゆる国のあらゆる企業に高度な AI がもたらされ、世界のインテリジェンス化が加速します」

AWS の CEO である Matt Garman 氏は次のように述べています。「AWS と NVIDIA は 15 年以上にわたって緊密に連携してきましたが、本日はその歩みにおける新たな節目となります。AWS は NVIDIA と共に、大規模 AI インフラを進化させ、お客様に最高のパフォーマンス、効率性、そしてスケーラビリティを提供します。AWS Trainium4、Graviton、Nitro System が今後 NVIDIA NVLink Fusion をサポートすることで、お客様に新たな機能をもたらし、これまで以上のスピードでイノベーションを実現することができます」

スケールとソブリンの融合

AWS は、NVIDIA HGX B300 GPU や NVIDIA GB300 NVL72 GPU を含む NVIDIA Blackwell アーキテクチャを採用し、アクセラレーテッド コンピューティング ポートフォリオを拡充しました。これにより、ユーザーはトレーニングと推論で業界最先端の GPU をすぐに利用できます。ビジュアル アプリケーション向けに設計された NVIDIA RTX PRO 6000 Blackwell Server Edition GPU は、今後数週間以内に AWS で提供開始予定です。

これらの GPU は、AWS AI Factories を支える AWS インフラの基幹部分を構成しています。AWS AI Factories は、AWS が運営する自社データセンターで高度な AI サービスと機能を活用するための専用インフラを世界中の顧客に提供しつつ、顧客が自社データの管理を維持し、現地の規制にも遵守できるようにする新しい AI クラウド サービスです。

NVIDIA と AWS は、ソブリン AI クラウドをグローバルに展開し、AI イノベーションの最良の成果を世界に届けることにコミットしています。AWS AI Factories の提供開始により、両社はセキュアなソブリン AI インフラを提供し、厳しさを増すソブリン AI の要件を満たしながら、世界中の組織に前例のないコンピューティング能力をもたらします。

公共セクターの組織にとって、AWS AI Factories は連邦政府レベルのスーパーコンピューティングや AI の環境を大きく変革する存在となるでしょう。AWS AI Factories の利用者は、信頼性、セキュリティ、スケーラビリティで知られる AWS の業界をリードするクラウド インフラとサービスを、NVIDIA Blackwell GPU や、NVIDIA Spectrum-X イーサネット スイッチを含むフルスタックの NVIDIA アクセラレーテッド コンピューティング プラットフォームとシームレスに統合できます。

この統合アーキテクチャにより、高度な AI サービスや機能にアクセスし、大規模なモデルをトレーニングおよび展開できるだけでなく、専有データを完全に管理し、現地規制の枠組みにも完全に準拠できるようになります。

NVIDIA Nemotron と Amazon Bedrock の統合でソフトウェアの最適化が拡大

今回の提携では、ハードウェアだけでなく、NVIDIA のソフトウェア スタックを AWS の AI エコシステムと統合する取り組みも強化されています。NVIDIA Nemotron のオープン モデルが Amazon Bedrock に統合されたことで、本番環境規模で生成 AI アプリケーションとエージェントを構築できるようになりました。開発者は Nemotron Nano 2 と Nemotron Nano 2 VL を利用し、テキスト、コード、画像、ビデオを高効率かつ高精度に処理する、特化されたエージェント型 AI アプリケーションを構築できます。

この統合により、高性能でオープンな NVIDIA モデルに Amazon Bedrock のサーバーレス プラットフォーム経由で即座にアクセスできるようになり、実証済みのスケーラビリティを活用し、インフラ管理の負担をなくすことができます。業界リーダーである CrowdStrikeBridgeWise は、本サービスを利用して特化型 AI エージェントを展開した最初の企業です。

AWS 上の NVIDIA ソフトウェアが開発者体験を簡素化

NVIDIA と AWS は、あらゆる企業のデータ基盤を高速化するため、ソフトウェア層でも共同開発を進めています。Amazon OpenSearch Service では、GPU によるベクトル検索とデータ クラスタリングを可能にするオープンソース ライブラリ NVIDIA cuVS を活用し、ベクトル インデックス構築のためのサーバーレス GPU アクセラレーションの提供を始めました。これは、非構造化データ処理に GPU を活用する方向への大きな転換点であり、早期導入企業はコストを 4 分の 1 に抑えつつ、ベクトル インデックス作成を最大 10 倍高速化しています。

こうした劇的な向上により、必要なときに適正な GPU 性能を提供することで、検索遅延の低減、書き込みの高速化、そして検索拡張生成などの動的 AI 技術における生産性向上が実現します。AWS は、主要なクラウド プロバイダーとして初めて、NVIDIA GPU を活用したサーバーレス ベクトル インデックス作成を提供しています。

本番環境対応の AI エージェントには、パフォーマンスの可視化、最適化、スケーラブルなインフラが不可欠です。エージェントの開発とオーケストレーション向けの Strands Agents、詳細なプロファイリングとパフォーマンス チューニング向けの NVIDIA NeMo Agent Toolkit、セキュアかつスケーラブルなエージェント インフラ向けの Amazon Bedrock AgentCore を組み合わせることで、プロトタイプから本番環境までの一貫した予測可能な開発プロセスを実現できます。

今回の拡張サポートは、NVIDIA NIM マイクロサービスや、NVIDIA RivaNVIDIA BioNeMo などのフレームワーク、さらに Amazon SageMaker や Amazon Bedrock と統合されたモデル開発ツールなど、AWS がすでに持つ NVIDIA テクノロジとの統合を基盤としており、組織はエージェント型 AI、音声 AI、科学アプリケーションをこれまで以上に迅速に展開できるようになります。

AWS でフィジカル AI が加速

フィジカル AI の開発には、ロボット モデルのトレーニングに用いる高品質で多様なデータセットに加え、実世界への展開前にシミュレーションでテストと検証を行うためのフレームワークが必要です。

NVIDIA Cosmos 世界基盤モデル (WFM) が Amazon EKS 上の NVIDIA NIM マイクロサービスとして利用可能になり、シームレスな信頼性とクラウドネイティブな効率性を備えた、リアルタイムのロボティクス制御やシミュレーション ワークロードを実行できるようになりました。また、バッチベースのタスクや、大規模な合成データ生成などのオフライン ワークロードでは、Cosmos WFM を AWS Batch 上のコンテナとして利用することもできます。

NVIDIA Cosmos で生成されたワールド ステートは、NVIDIA Isaac SimIsaac Lab といったオープンソースのシミュレーションおよび学習フレームワークを用いて、ロボットのトレーニングと検証に使用できます。

Agility Robotics、Agile Robots、ANYbotics、Diligent Robotics、Dyna Robotics、Field AI、Haply Robotics、Lightwheel、RIVR、Skild AI などの主要ロボティクス企業は、AWS 上の NVIDIA Isaac プラットフォームを、ロボット生成データの収集、保存、処理から、ロボティクス開発スケール拡大のためのトレーニングやシミュレーションに至るまで、幅広い用途で活用しています。

持続的な協業

長年にわたる両社のコラボレーションを裏付けるように、NVIDIA は AWS Global GenAI Infrastructure and Data Partner of the Year を受賞しました。この賞は、複数の種類およびフォーマットにわたるベクトル埋め込み、データの保存と管理、合成データ生成をサポートする、生成 AI コンピテンシーを備えたトップクラスのテクノロジ パートナーを表彰するものです。