NVIDIA AI Enterprise 5.0 に推論および他のサービスのためのクラウド API を実装し、AI を活用したアプリケーションの導入を後押し
NVIDIA AI プラットフォームは、進歩的なあらゆる企業で利用されており、これまで以上に使いやすくなっています。
先日発表された NVIDIA AI Enterprise 5.0 には、生成 AI アプリケーションとアクセラレーテッド コンピューティングを展開するためのダウンロード可能なソフトウェアである、NVIDIA マイクロサービスが実装されています。NVIDIA AI Enterprise 5.0 は主要なクラウド サービス プロバイダーやシステム ビルダー、ソフトウェア ベンダーなどを通じて提供されており、Uber のようなお客様にも使用されています。
Uber のプラットフォーム エンジニアリング担当バイス プレジデントである Albert Greenberg 氏は、次のように話しています。「NVIDIA AI Enterprise 推論ソフトウェアの導入は、高い性能に対するユーザーの期待に応える上で、重要な意味を持っています。Uber は、最新かつ最も先進的な AI イノベーションを導入および使用してカスタマー サービス プラットフォームを構築しており、業界の標準となるような、効果的かつ優秀なサービスを提供しています」
マイクロサービスがアプリ開発を加速
開発者は、現代的なエンタープライズ アプリケーションをグローバル規模で展開するための効率的な方法として、マイクロサービスに注目しています。開発者はブラウザから作業し、クラウド API (アプリケーション プログラミング インタフェース) を使ってアプリを構築し、システム上で稼働させ、世界中のユーザーに届けています。
現在、NVIDIA AI Enterprise 5.0 には、実稼働環境で AI モデルを展開するための NVIDIA NIM、ならびに NVIDIA cuOpt を含むマイクロサービスのコレクションである NVIDIA CUDA-X といった、多様なマイクロサービスが含まれています。
NIM マイクロサービスは、NVIDIA およびパートナー エコシステムの数十の人気がある AI モデル向けに推論を最適化しています。
Triton Inference Server、TensorRT および TensorRT-LLM を含む、NVIDIA の推論ソフトウェアにて、NIM は展開時間を数週間から数分へと短縮します。NVIDIA の推論ソフトウェアは、業界標準に基づくセキュリティと管理性を備えており、エンタープライズグレードの管理ツールとの互換性があります。
NVIDIA cuOpt は、ルート最適化の世界記録を樹立した GPU アクセラレーテッド AI マイクロサービスであり、動的な意思決定を実現することによって、費用、時間およびカーボン フットプリントの削減を可能にします。NVIDIA cuOpt は、さまざまな業界で AI の実稼働を可能にする、CUDA-X マイクロサービスの 1 つです。
さらに多くの機能が登場予定です。たとえば、現在早期アクセスが始まっており、こちらに詳細が記されている NVIDIA RAG LLM オペレーターにより、パイロットから実稼働までコードを書き換えることなく、Retrieval-Augmented Generation を活用したコパイロットや他の生成 AI を実行することができます。
NVIDIA マイクロサービスは、CrowdStrike、SAP および ServiceNow といった、アプリケーションおよびサイバーセキュリティ プラットフォームの主要プロバイダーに採用されています。
より多くのツールと機能が登場
バージョン 5.0 には、注目すべきアップデートが他にも 3 つあります。
現在、このプラットフォームには、生成 AI プロジェクトをすばやくダウンロード、カスタマイズおよび実行するための開発者向けツールキットである NVIDIA AI Workbench が含まれています。このソフトウェアは現在、一般利用が可能になっており、NVIDIA AI Enterprise ライセンスの対象となっています。
バージョン 5.0 は、プライベートおよびパブリックのクラウド サービスを構築する目的でほとんどの Fortune 500 企業が使用している、Red Hat OpenStack Platform にも対応しています。Red Hat がメンテナンスしている、このプラットフォームは、仮想コンピューティング環境を構築するための、使いやすい選択肢を開発者に提供しています。IBM Consulting は、顧客がこれらの新機能を展開するのを支援する予定です。
さらに、バージョン 5.0 は、最新のさまざまな NVIDIA GPU、ネットワーキング ハードウェアおよび仮想化ソフトウェアにも対応しています。
あらゆる場所で実行可能
機能が拡張された NVIDIA AI が、これまで以上に使いやすくなっています。
マイクロサービスの NIM と CUDA-X、などのすべての 5.0 の機能がまもなく、AWS、Google Cloud、Microsoft Azure および Oracle Cloud のマーケットプレイスで利用できるようになります。
自社のデータセンターでコードを実行する場合には、VMware Private AI Foundation with NVIDIA がこれらのソフトウェアに対応し、Broadcom のお客様の仮想データセンターに展開することができます。
企業には Red Hat OpenShift で NVIDIA AI Enterprise を実行する選択肢もあり、ベアメタルまたは仮想環境に展開が可能です。Canonical の Charmed Kubernetes ならびに Ubuntu にも対応しています。
さらに、この AI プラットフォームは、Hewlett Packard Enterprise (HPE) のHPE ProLiant サーバーで利用できるソフトウェアの一部として利用可能になります。HPE の生成 AI 向けエンタープライズ コンピューティング ソリューションは、NVIDIA AI Enterprise を使って、推論とモデルのファインチューニングに対応します。
Anyscale、Dataiku および DataRobot といった、機械学習オペレーション管理ソフトウェアの 3 つの主要プロバイダーも、それぞれのプラットフォームで NIM に対応します。これらのプロバイダーは、Microsoft Azure Machine Learning、Dataloop AI、Domino Data Lab および Weights & Biases といった、数百の MLOps パートナーで構成されている NVIDIA のエコシステムに加わります。
アクセス方法にかかわらず、NVIDIA AI Enterprise 5.0 のユーザーは、安全で、簡単に実稼働可能で、性能が最適化されているソフトウェアを活用できます。NVIDIA AI Enterprise 5.0 は、データセンター、クラウド、ワークステーション、またはネットワークのエッジでのアプリケーション向けに柔軟に展開することができます。
NVIDIA AI Enterprise は、Cisco、Dell Technologies、HP、HPE、Lenovo および Supermicro といった、主要なシステム プロバイダーを通じて入手できます。
GTC で成功例を紹介
3 月 18 日から 21 日までサンノゼ コンベンションセンターで開催されたグローバルな AI カンファレンスである NVIDIA GTC では、このソフトウェアの使用体験がユーザーから伝えられました。
たとえば、ServiceNow の最高デジタル情報責任者である Chris Bedi 氏がパネル ディスカッションにおいて、生成 AI の潜在能力を活用する方法について講演しました。別の講演では、ServiceNow の AI 製品バイスプレジデントの Jeremy Barnes 氏が、開発者の生産性を最大化するための NVIDIA AI Enterprise 活用について紹介しました。
BlackRock、Medtronic、SAP および Uber の幹部たちが、金融、医療、エンタープライズ ソフトウェアおよびビジネス オペレーションでの NVIDIA AI プラットフォームの活用法について議論しました。
また、ドイツにある、自動車保険企業向けアプリケーションの世界的なプロバイダーである ControlExpert の幹部が、NVIDIA AI Enterprise ソフトウェアを試用して、AI 搭載の保険金請求管理ソリューションを開発した経緯を紹介しました。
これらの企業は、NVIDIA が社内外の何百もの生成 AI プロジェクトを評価することで利益を得ている成長中の企業です。プロジェクトはすべて、安定性とセキュリティがテストされた単一のパッケージに統合されています。
NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) の GTC 基調講演にて、全体像を把握することができます。
ソフトウェア製品の情報については、お知らせをご覧ください。