AWS 上の NVIDIA NIM が AI 推論を強化

最適化された NIM マイクロサービスがAmazon Bedrock Marketplace、SageMaker JumpStart、AWS Marketplace で NVIDIA およびエコシステムの幅広いモデル カタログ向けに利用可能へ
投稿者: Anne Hecht

生成 AI は業界を急速に変革しており、ますます複雑化するモデルを効率的かつコスト効率よく拡張するための安全で高性能な推論ソリューションの需要が高まっています。

Amazon Web Services (AWS) は、NVIDIA とのコラボレーションを拡大し、年次カンファレンスである AWS re:Invent で、主要な AWS AI サービス全体に NVIDIA NIM マイクロサービスを拡張し、生成 AI アプリケーションの AI 推論の高速化とレイテンシの低減をサポートしたことを発表しました。

NVIDIA NIM マイクロサービスは現在 AWS Marketplace のみならず、Amazon Bedrock Marketplace や Amazon SageMaker JumpStart からも直接利用可能となり、開発者は、一般的に使用されるモデル向けに NVIDIA が最適化した推論を大規模に展開することがさらに簡単になりました。

AWS Marketplace で入手可能な NVIDIA AI Enterprise ソフトウェア プラットフォームの一部である NVIDIA NIM は、クラウド、データセンター、ワークステーション全体で高性能なエンタープライズ グレードの AI モデル推論を安全かつ確実に展開できるように設計された、使いやすいマイクロサービスのセットを開発者に提供します。

これらの事前構築されたコンテナは、NVIDIA Triton Inference Server、NVIDIA TensorRT、NVIDIA TensorRT-LLM、PyTorch などの堅牢な推論エンジン上に構築されており、オープンソース コミュニティモデルから NVIDIA AI Foundation モデルやカスタム モデルまで、幅広い AI モデルをサポートしています。

NIM マイクロサービスは、Amazon Elastic Compute Cloud (EC2)、Amazon Elastic Kubernetes Service (EKS)、Amazon SageMaker など、様々な AWS サービスに展開できます。

開発者は、Meta の Llama 3、Mistral AI の Mistral と Mixtral、NVIDIA の Nemotron、Stability AI の SDXL など、よく使用されるモデルとモデル ファミリーから構築された 100 を超える NIM マイクロサービスを NVIDIA API カタログでプレビューできます。最もよく使用されるマイクロサービスは、AWS サービスに展開するためのセルフホスティングが可能で、AWS 上の NVIDIA アクセラレーテッド コンピューティング インスタンスで実行できるように最適化されています。

AWS から直接利用できる NIM マイクロサービスには、以下のものが含まれます。

  • NVIDIA Nemotron-4 は、Amazon Bedrock Marketplace、Amazon SageMaker Jumpstart、AWS Marketplace で利用可能です。この最先端の LLM は、現実世界のデータを厳密に模倣した多様な合成データを生成するように設計されており、様々なドメインにわたるカスタム LLM のパフォーマンスと堅牢性を強化します。
  • Llama 3.1 8B-Instruct は、AWS Marketplace で利用可能です。この 80 億パラメータの多言語大規模言語モデルは、言語理解、推論、テキスト生成のユースケース向けに事前トレーニングおよび指示チューニングがされています。
  • Llama 3.1 70B-Instruct は、AWS Marketplace で利用可能です。この 700 億パラメータの事前トレーニング済み、指示チューニング済みモデルは、多言語ダイアログ向けに最適化されています。
  • Mixtral 8x7B Instruct v0.1 は、AWS Marketplace で利用可能です。このオープン ウェイトを備えた高品質のスパース Mixture of Experts モデルは、指示に従い、リクエストを完了し、クリエイティブなテキスト形式を生成できます。

誰でも使える AWS 上の NIM

様々な業界の顧客やパートナーが、AWS 上の NIM を活用して市場投入までの時間を短縮し、生成 AI アプリケーションとデータのセキュリティと制御を維持し、コストを削減しています。

IT コンサルティングおよびデジタル サービス プロバイダーの SoftServe は、AWS 上に完全に展開し、NVIDIA NIM と AWS サービスによって高速化された 6 つの生成 AI ソリューションを開発しました。AWS Marketplace で入手できるソリューションには、SoftServe Gen AI Drug Discovery、SoftServe Gen AI Industrial Assistant、Digital Concierge、Multimodal RAG System、Content Creator、および Speech Recognition Platform が含まれます。

これらはすべて、AI アプリケーションの開発と展開を高速化する包括的なリファレンス ワークフローである NVIDIA AI Blueprint に基づいており、AI エージェント、デジタル ツインなどのための NVIDIA アクセラレーテッド ライブラリ、ソフトウェア開発キット、および NIM マイクロサービスを備えています。

AWS で今すぐ NIM を使用開始

開発者は、独自のニーズと要件に応じて、AWS に NVIDIA NIM マイクロサービスを展開できます。これにより、開発者と企業は、様々な AWS サービスで NVIDIA に最適化された推論コンテナを使用して、高性能 AI を実現できます。

NVIDIA API カタログにアクセスして、100 種類を超える NIM に最適化されたモデルを試し、開発者ライセンスまたは 90 日間の NVIDIA AI Enterprise トライアル ライセンスをリクエストして、AWS サービスへのマイクロサービスの展開を開始ください。開発者は、AWS Marketplace、Amazon Bedrock Marketplace、または Amazon SageMaker JumpStart で NIM マイクロサービスを探索することもできます。

ソフトウェアに利用規約ついては、こちらを参照ください。