クラウドにおける開発者と企業の可能性を広げるため、NVIDIA と Amazon Web Services は今週ラスベガスで開催される AWS re:Invent に集結し、AI とロボティクスのブレイクスルーを加速し、量子コンピューティング開発の研究を簡素化するように設計された新しいソリューションを紹介します。
AWS re:Invent は、基調講演と 2,000 を超える技術セッションを擁する、グローバル クラウド コンピューティング コミュニティ向けのカンファレンスです。
発表のハイライトには、NVIDIA DGX Cloud の提供開始と、強化された AI、量子コンピューティング、ロボティクス ツールが含まれます。
大規模な AI のための AWS 上の NVIDIA DGX Cloud
企業が AI モデルをトレーニングおよびカスタマイズするための高性能なフルマネージド ソリューションを提供する、NVIDIA DGX Cloud AI コンピューティング プラットフォームが、AWS Marketplace プライベート オファーを通じて利用可能になりました。
DGX Cloud は、柔軟な条件、フルマネージドで最適化されたプラットフォーム、および NVIDIA の専門家への直接アクセスを提供し、企業が AI 機能を迅速に拡張できるようにします。
Canva ファミリーの Leonardo.ai は早期導入の一例で、すでに AWS 上の DGX Cloud を使用して高度な設計ツールを開発しています。
NVIDIA Blackwell を用いた AWS 液冷データセンター
最新の AI サーバーは、液冷方式により高密度コンピューティング チップをより効率的に冷却してパフォーマンスとエネルギー効率を向上させています。AWS は、データセンター全体でチップ向け液冷方式を構成可能なソリューションを開発しました。
本日発表された冷却ソリューションは、NVIDIA GB200 NVL72 などの最も強力なラックスケール AI スーパーコンピューティング システム、および AWS のネットワークスイッチやストレージ サーバー向けに、空冷と液冷の機能をシームレスに統合します。
この柔軟でマルチモーダルな冷却設計は、AI モデルを実行するための最大のパフォーマンスと効率を提供し、次世代の NVIDIA Blackwell プラットフォームに使用されます。
Blackwell は、Amazon EC2 P6 インスタンス、DGX Cloud on AWS、Project Ceiba の基盤となります。
NVIDIA が AWS 上でのアクセラレーテッド ロボティクス シミュレーションで物理 AI を推進
NVIDIA は、NVIDIA Isaac Sim によって AWS 上での NVIDIA Omniverse の範囲も拡大しています。NVIDIA Isaac Sim は現在、NVIDIA L40S GPU により高速化された高性能な Amazon EC2 G6e インスタンスで実行されています。
現在利用可能なこの NVIDIA Omniverse 上に構築されたリファレンス アプリケーションにより、開発者は物理ベースの仮想環境で AI 駆動のロボットをシミュレーションおよびテストを行うことができます。
Isaac Sim によって実現される多くのワークフローの 1 つが、合成データ生成です。このパイプラインは、シーン作成からデータ拡張まで、OpenUSD NIM マイクロサービスの導入によってさらに高速化されています。
Aescape、Cohesive Robotics、Cobot、Field AI、Standard Bots、Swiss Mile、Vention などのロボティクス企業は、ロボットの展開前にパフォーマンスをシミュレーションし、検証するために Isaac Sim を使用しています。
さらに、Rendered.ai、SoftServe、Tata Consultancy Services は、Omniverse Replicator と Isaac Sim の合成データ生成機能を使用して、様々なロボティクス アプリケーションを動かす認識 AI モデルをブートストラップしています。
高度な AI ベースの創薬用に AWS 上の NVIDIA BioNeMo
創薬を促進するために開発された NVIDIA BioNeMo NIM マイクロサービスと AI Blueprint は、現在、臨床診断と創薬における科学的ブレイクスルーを加速するように設計された、フルマネージドの生物学的データ コンピューティングおよびストレージ サービスである AWS HealthOmics に統合されています。
このコラボレーションにより、研究者は、創薬ワークフローに合わせた AI モデルとスケーラブルなクラウド インフラにアクセスできるようになります。いくつかのバイオテクノロジ企業はすでに、AWS で NVIDIA BioNeMo を使用して研究開発パイプラインを推進しています。
たとえば、シアトルに拠点を置くバイオテクノロジ企業の A-Alpha Bio は最近、NVIDIA および AWS と共同で AlphaBind と呼ばれる抗体 AI モデルを開発および展開する取り組みについての研究成果を biorxiv に発表しました。
NVIDIA H100 Tensor コア GPU を搭載した Amazon EC2 P5 インスタンスで BioNeMo フレームワークを介し AlphaBind を使用することで、A-Alpha Bio は推論速度を 12 倍に向上させ、2 か月間で 1 億 800 万回を超える推論呼び出しを処理しました。
さらに、SoftServe は本日、NVIDIA Blueprint で構築された生成 AI ソリューションである Drug Discovery をリリースしました。このソリューションは、コンピューター支援による創薬と効率的な医薬品開発を可能にします。このソリューションは、ワークフローの高速化を実現するもので、まもなく AWS Marketplace で利用可能となります。
リアルタイム AI Blueprint: ビデオ、サイバーセキュリティなど向けにすぐに展開可能なオプション
NVIDIA の最新の AI Blueprint は、AWS ですぐに展開でき、コンテナ セキュリティの脆弱性分析やビデオ検索および要約エージェントなどのリアルタイム アプリケーションにすぐにアクセスできます。
開発者は、これらの Blueprint を既存のワークフローに簡単に統合して、展開を迅速化することができます。
開発者や企業は、ビデオ検索と要約のための NVIDIA AI Blueprint を使用して、リアルタイムまたはアーカイブされたビデオを分析しながらユーザーの質問に答え、要約を生成し、特定のシナリオでアラートを有効にするビジュアル AI エージェントを構築できます。
AWS は NVIDIA と連携して、脆弱性分析のための NVIDIA AI Blueprint を適用したリファレンス アーキテクチャを提供し、AWS クラウドネイティブ サービスの継続的インテグレーション パイプラインにおける早期のセキュリティパッチ適用を強化しました。
Amazon Braket 上の NVIDIA CUDA-Q: 量子コンピューティングを実用化
NVIDIA CUDA-Q が Amazon Braket と統合され、量子コンピューティング開発が効率化されました。CUDA-Q ユーザーは Amazon Braket の量子プロセッサを使用でき、Braket ユーザーは CUDA-Q の GPU アクセラレーション ワークフローを活用して開発とシミュレーションを行うことが可能です。
CUDA-Q プラットフォームを使用すると、開発者はハイブリッド量子古典アプリケーションを構築し、シミュレーションおよび物理的な様々なタイプの量子プロセッサで実行できます。
現在 Amazon Braket にプリインストールされている CUDA-Q は、ハイブリッド量子古典アプリケーション用のシームレスな開発プラットフォームを提供し、量子研究の新たな可能性を解き放ちます。
エンタープライズ プラットフォーム プロバイダーとコンサルティング リーダーが AWS 上の NVIDIA を使用して AI を推進
大手ソフトウェア プラットフォームとグローバル システム インテグレーターは、企業が AWS 上の NVIDIA AI を使用して構築された生成 AI アプリケーションを迅速に拡張し、業界全体でイノベーションを推進できるよう支援しています。
Cloudera は、AWS 上の NVIDIA AI を使用して新しい AI 推論ソリューションを強化し、Mercy Corps の支援配布テクノロジの精度と有効性の向上をサポートしています。
Cohesity は、生成 AI を搭載した対話型検索アシスタント Cohesity Gaia に NVIDIA NeMo Retriever マイクロサービスを統合し、検索拡張生成 (RAG) のリコール パフォーマンスを向上させました。AWS で実行している Cohesity の顧客は、Gaia 内での NeMo Retriever 統合を利用できます。
DataStax は、Wikimedia Deutschland が DataStax AI プラットフォームを適用して、Wikidata を組み込みベクトル化データベースとして開発者に提供することを発表しました。Datastax AI プラットフォームは、NVIDIA NeMo Retriever と NIM マイクロサービスで構築されており、AWS で利用可能です。
Deloitte の C-Suite AI は、財務諸表分析、シナリオ モデリング、市場分析など、CFO 固有のユース ケース向けの NVIDIA NIM マイクロサービスと NVIDIA NeMo を含む NVIDIA AI Enterprise ソフトウェアをサポートするようになりました。
RAPIDS Quick Start Notebooks が Amazon EMR で利用可能に
NVIDIA と AWS は、RAPIDS Accelerator for Apache Spark を使用してデータサイエンスとデータ分析のワークロードも高速化しています。これにより、コードを変更することなく分析と機械学習のワークロードが高速化され、データ処理コストが最大 80% 削減されます。
RAPIDS Accelerator for Apache Spark の Quick Start Notebooks が、Amazon EMR、Amazon EC2、および Amazon EMR on EKS で利用可能になりました。これらを使用すると、AWS EMR 内で、GPU 上の RAPIDS のパフォーマンスを最大化するように調整された Spark ジョブを簡単に評価できます。
NVIDIA と AWS が次世代の産業用エッジ システムを強化
NVIDIA IGX Orin および Jetson Orin プラットフォームが AWS IoT Greengrass とシームレスに統合され、エッジでの AI モデルの展開と実行が効率化され、大規模な接続デバイスのフリートを効率的に管理できるようになりました。この組み合わせにより、拡張性が向上し、産業用アプリケーションとロボティクス アプリケーションの展開プロセスが簡素化されます。
開発者は、AWS の専用 IoT サービスを使用して NVIDIA の高度なエッジ コンピューティング パワーを活用し、自律型マシンやスマート センサー向けの安全でスケーラブルな環境を構築できるようになりました。AWS が作成した入門ガイドが、これらの機能を活用する開発者をサポートするために公開されました。
この統合は、エンタープライズ対応の産業用エッジ システムを進化させ、実際のアプリケーションで迅速かつインテリジェントな操作を可能にする NVIDIA の取り組みを強調するものです。
ライブデモ、テクニカル セッション、ハンズオン ラボを通じて、AWS: re:Invent 2024 における NVIDIA の取り組みをさらにご覧ください。
ソフトウェアの利用規約については、こちらをご覧ください。