NVIDIA RTX AI PC とワークステーションがクラウドをどのように活用し、生成 AI の原動力となっているかを読み解く

投稿者: Jesse Clayton

NVIDIA AI を搭載したツールとテクノロジにより、ハイブリッド AI ワークフローを支援

本ブログは、AI をもっと身近なものにすることでこのテクノロジの謎を解明し、GeForce RTX PC および RTX ワークステーションのユーザー向けの新しいハードウェア、ソフトウェア、ツール、アクセラレーションを紹介する『AI Decoded シリーズ』の最新号です。

生成 AI は、Windows のアプリケーションやゲームで新しい機能を実現します。決まった台本のない動的な NPC を実現し、クリエイターが斬新な芸術作品を生むことを可能にし、ゲーマーがフレームレートを最大 4 倍にするのに役立っています。しかし、これはほんの始まりに過ぎません。

生成 AI の機能とユース ケースが拡大し続けるにつれ、それらをサポートする演算への需要も高まっています。

ハイブリッド AI は、NVIDIA RTX のオンボードの AI アクセラレーションと拡張可能なクラウドベースの GPU を組み合わせることで、AI ワークロードに関する需要を効果的かつ効率的に満たします。

ラブ ストーリーとしてのハイブリッド AI

AI の導入が進む中、アプリ開発者はどのような展開オプションがあるかを模索しています。RTX GPU 上でローカルに実行される AI は、高パフォーマンスと低遅延を実現します。しかも、インターネット接続がなくても常に利用可能です。他方、クラウドで稼働する AI は、より大きなモデルを実行でき、多数の GPU にまたがって拡張可能であり、複数のクライアントに同時にサービスを提供することができます。多くの場合、これらの両方のアプローチが単一のアプリケーションで使われます。

ハイブリッド AI は、ローカルの PC およびワークステーションの演算とクラウドの拡張性との間に調和をもたらす一種の「仲人」です。高い柔軟性を提供することで、特定のユース ケース、コスト、パフォーマンスに基づく AI ワークロードを最適化します。開発者は、それぞれのアプリケーションにとって最も理にかなった場所で AI タスクを確実に実行できるようになります。

AI がローカルとクラウドのどちらで実行されている場合でも、NVIDIA GPU と TensorRT や TensorRT-LLM を含む NVIDIA の AI スタックによって高速化を実現できます。つまり、ビジー カーソルとにらめっこする時間を減らすと同時に、最先端の AI 機能をユーザーに提供する機会を増やすことができるのです。

NVIDIA の幅広いツールとテクノロジが、クリエイター、ゲーマー、開発者のためのハイブリッド AI ワークフローをサポートします。

クラウドで夢を見て、RTX で命を吹き込む

生成 AI には、アーティストのアイデア出し、プロトタイプ作成、新作品のブレインストーミングなどを支援する高い能力があることが実証されています。そうしたソリューションの 1 つであるクラウドベースの iStock の生成 AI (NVIDIA Edify を利用) は、アーティストのために、またアーティストと共に構築された画像生成サービスであり、ライセンスされたコンテンツのみをトレーニングに使用しており、貢献したアーティストには報酬が支払われます。

iStock の生成 AI は、画像生成のみにとどまらず、さまざまなスタイルやバリエーションを探求したり、画像を部分的に修正したり、キャンバスを拡大したりするための幅広いツールもアーティストに提供しています。これらのツールにより、アーティストは何度でもアイデア出しを繰り返せるだけでなく、アイデアを素早く一定の形にまとめることもできます。

クリエイティブなコンセプトが整ったら、アーティストはそれを自分のローカル システムに持ち帰ることができます。次に、RTX を搭載した PC とワークステーションが、125 種以上の人気のクリエイティブ アプリを通じて AI アクセラレーションを提供し、アーティストの完全なビジョンを実現します。例えば、Photoshop とローカルの AI ツールを使って美しいアートワークを作成する場合や、DaVinci Resolve で視差効果を利用したアニメーション映像を作る場合、Blender でレイ トレーシング アクセラレーションとリファレンス画像を使って 3D シーンを構築する場合、Optix で AI ノイズ除去を行う場合など、あらゆるケースに対応できます。

NPC に命を吹き込むハイブリッド ACE

ハイブリッド AI はまた、NVIDIA ACE によるインタラクティブな PC ゲーミングの新領域を生み出し、ゲーム開発者やデジタル クリエイターが最先端の生成 AI モデルを RTX AI PC 上のデジタル アバターに統合できるようにします。

開発者やデザイナーは、AI ニューラル ネットワークを活用した NVIDIA ACE により、人間のプレイヤーのテキストや音声を理解し、それらに反応できるノンプレイアブル キャラクター (NPC) を作成することができます。AI モデル (声に出して話された自然言語を処理する Speech-to-Text モデルなどを含む) を用いることで、NPC の応答をリアルタイムで生成できます。

どこでも使えるハイブリッド開発者ツール

ハイブリッドは、開発者が新しい AI モデルを構築し、調整する際にも役立ちます。NVIDIA AI Workbench は、開発者が事前トレーニング済みの生成 AI モデルと LLM を RTX GPU 上で素早く作成し、テストし、カスタマイズできるように支援します。また Hugging Face、GitHub、NVIDIA NGC のような主要リポジトリへの効率的なアクセスを提供するほか、データ サイエンティストや開発者がプロジェクトの再現、コラボレーション、移行を簡単に行えるようにするためのシンプルなユーザー インターフェイスも備えています。

データセンター、パブリック クラウド、NVIDIA DGX Cloud のいずれの場合でも、追加のパフォーマンスが必要になったら、プロジェクトを簡単に拡張できます。また、その後に PC 上やワークステーション上のローカル RTX システムにプロジェクトを持ち帰り、推論や軽いカスタマイズを行うこともできます。データ サイエンティストや開発者は、事前構築済みの Workbench プロジェクトを活用することで、RAG (Retrieval-Augmented Generation) を使ってドキュメントとチャットしたり、ファインチューニングを使って LLM をカスタマイズしたり、CPU から GPU へのシームレスな移行によってデータ サイエンス ワークロードを高速化したりすることができます。

Hybrid RAG Workbench プロジェクトは、開発者自身が実行して調整できるカスタマイズ可能な RAG アプリケーションを提供します。開発者は、ドキュメントをローカルに埋め込み、ローカルの RTX システムまたは NVIDIA の API カタログでホストされたクラウド エンドポイント、あるいは NVIDIA NIM マイクロサービスを利用して、推論を実行することができます。このプロジェクトは、さまざまなモデル、エンドポイント、コンテナを使用するように調整できるほか、モデルを量子化する機能を提供し、開発者が選んだ GPU 上で実行することもできます。

NVIDIA GPU は、ローカルの NVIDIA GeForce RTX PC および RTX ワークステーション上で、そしてクラウド内で、卓越した AI ソリューションを提供します。クリエイター、ゲーマー、開発者は、成長し続けるハイブリッド AI ワークフローによって、両方の世界の優れた点を得ることができます。

生成 AI は、ゲーミングやビデオ会議だけでなく、あらゆる種類のインタラクティブな体験に変革を起こしています。AI Decoded ニュースレターにご登録すれば、最新情報や今後の注目テクノロジなどをご覧いただけます。