この 1 年間で、生成 AI によって人々の暮らし方、働き方、遊び方が変化し、執筆やコンテンツ制作からゲーム、学習、生産性に至るまでのすべてが向上しました。そして、PC の愛好家や開発者が先頭に立って、この画期的なテクノロジの境界を押し広げています。
これまで幾度となく、業界を一変させる技術的革新が生み出された場所があります。ガレージです。今回から新たに始まった RTX AI Garage シリーズでは、NVIDIA NIM マイクロサービスや AI Blueprint について、また AI PC 上での AI エージェント、クリエイティブ ワークフロー、デジタル ヒューマン、生産性アプリなどの構築方法について学ぼうとしている開発者や愛好家向けの定期的なコンテンツを提供します。RTX AI Garage へようこそ。
初回の RTX AI Garage では、CES で行われた発表にスポットを当てます。その中には、デジタル ヒューマン、コンテンツ制作、生産性、および開発を次のレベルに引き上げる、NVIDIA RTX AI PC で利用可能な新しい AI 基盤モデルが含まれます。
NVIDIA NIM マイクロサービスとして提供されるこれらのモデルは、新しい GeForce RTX 50 シリーズ GPU によって強化されます。NVIDIA Blackwell アーキテクチャをベースに構築された RTX 50 シリーズ GPU は、毎秒最大 3,352 兆回の AI 演算を実行するパフォーマンス、32 GB の VRAM、FP4 演算機能を特徴としています。これにより、AI 推論パフォーマンスが 2 倍に向上するとともに、生成 AI をより小さなメモリ フットプリントでローカルに稼働させることが可能になります。
また NVIDIA は、NVIDIA AI Blueprint も発表しました。これは、デジタル ヒューマンやコンテンツ制作のようなアプリケーション向けに NIM マイクロサービスを基盤に構築された、すぐに使用できる事前構成済みのワークフローです。
NIM マイクロサービスおよび AI Blueprint により、愛好家や開発者は、AI を活用したユーザー体験の構築、反復、および PC への組み込みをかつてないほど迅速に行えるようになり、その結果、PC ユーザーにとって魅力的かつ実用的な機能が次々に生まれるようになります。
NVIDIA NIM による迅速な AI
AI の最新技術を PC に取り入れるにあたって 2 つの主要な課題があります。1 つは、AI 研究のペースが恐ろしいほど速いことです。Hugging Face のようなプラットフォームでは、すでに 100 万を超えるモデルが公開されており、新たなモデルが日々登場しています。そのため、画期的な技術も瞬く間に時代遅れになります。
もう 1 つは、それらのモデルを PC 用に適応させる作業が、複雑で多大なリソースを要するプロセスであるということです。それらを PC ハードウェア向けに最適化し、AI ソフトウェアと統合し、アプリケーションと連携させるには、莫大な技術的労力が必要となります。
NVIDIA NIM は、PC 向けに最適化された最先端のプレパッケージ型 AI モデルを提供することで、これらの課題への取り組みを手助けします。これらの NIM マイクロサービスは、さまざまなモデル領域を網羅し、シングル クリックでインストールでき、容易な統合を可能にするアプリケーション プログラミング インターフェース (API) を搭載しています。また、NVIDIA AI ソフトウェアおよび RTX GPU を利用し、パフォーマンスの高速化を実現します。
CES において、NVIDIA は RTX AI PC 向けの NIM マイクロサービスのパイプラインを発表しました。このパイプラインは、大規模言語モデル (LLM)、視覚言語モデル、画像生成、音声、Retrieval-Augmented Generation (RAG)、PDF 抽出、およびコンピューター ビジョンにわたる幅広いユース ケースをサポートします。
新しいオープン モデルの Llama Nemotron ファミリは、幅広いエージェント型タスクで高い精度を実現します。RTX AI PC およびワークステーション向けの NIM マイクロサービスとして提供される Llama Nemotron Nano モデルは、指示の実行、関数呼び出し、チャット、コーディング、数学のようなエージェント型 AI タスクに優れています。
まもなく開発者は、Windows Subsystem for Linux (WSL) を利用して、Windows 11 PC でこれらのマイクロサービスをすばやくダウンロードして実行できるようになります。
愛好家や開発者が AI エージェントや AI アシスタントを構築するために NIM をどのように利用できるかを示すために、NVIDIA は Project R2X のプレビューを行いました。これは視覚機能を備えた PC アバターで、ユーザーに瞬時に情報を提供したり、デスクトップ アプリやビデオ会議通話を支援したり、文書を読んだり要約したり、他にもさまざまなことが行えます。サインアップすると、Project R2X の最新情報を入手できます。
NIM マイクロサービスを利用することにより、AI 愛好家はモデルのキュレーション、最適化、およびバックエンド統合という複雑なプロセスを省略して、最先端の AI モデルを使った創作やイノベーションに集中できます。
API の仕組み
API は、アプリケーションがソフトウェア ライブラリとやりとりするための手段です。API は、アプリケーションがライブラリに対して実行できる一連の「呼び出し」と、その結果として返される内容を定義します。従来の AI API は数々のセットアップと構成が必要なため、AI 機能の活用が難しくなり、イノベーションの妨げとなっていました。
NIM マイクロサービスは、アプリケーションが単純に要求を送って応答を受け取ることのできる、使いやすい直観的な API を提供します。さらに、それらはそれぞれのモデル タイプに合わせた入出力媒体を基に設計されています。例えば、LLM は入力データとしてテキストを受け取り、出力データとしてテキストを生成し、画像生成モデルはテキストを画像に変換し、音声認識モデルは音声をテキストに変換します。
マイクロサービスは、AI Toolkit for VSCode、AnythingLLM、ComfyUI、Flowise AI、LangChain、Langflow、LM Studio といった、主要な AI 開発およびエージェント フレームワークとシームレスに統合されるように設計されています。開発者は、build.nvidia.com からそれらを簡単にダウンロードして展開できます。
これらの API を RTX に導入することで、NVIDIA NIM は PC 上での AI イノベーションを加速させます。
愛好家は、まもなくリリースされる NVIDIA ChatRTX 技術デモを利用して、さまざまな NIM マイクロサービスを体験できます。
イノベーションのための Blueprint
最先端のモデルを使用し、PC 向けにパッケージ化と最適化をすることで、開発者や愛好家は AI を活用したプロジェクトをすばやく作成できます。また、それをさらに一歩先に進めて、さまざまな AI モデルやその他の機能を組み合わせることで、デジタル ヒューマン、ポッドキャスト ジェネレーター、アプリケーション アシスタントのような複雑なアプリケーションを構築することもできます。
NIM マイクロサービスを基盤にして構築された NVIDIA AI Blueprint は、複雑な AI ワークフローのためのリファレンス実装です。それらを利用することで、開発者はライブラリ、ソフトウェア開発キット、AI モデルといったさまざまなコンポーネントを単一のアプリケーション内で連携させることが可能です。
AI Blueprint には、開発者がリファレンス ワークフローの構築、実行、カスタマイズ、および拡張を行うために必要なものがすべて含まれています。それには、リファレンス アプリケーションとソース コード、サンプル データ、そして各種コンポーネントのカスタマイズやオーケストレーションに関するドキュメントが含まれます。
CES において、NVIDIA は 2 つの RTX 向け AI Blueprint を発表しました。1 つは PDF をポッドキャストに変換するためのもので、どのような PDF からでもポッドキャストを生成できます。もう 1 つは 3D ガイド付き生成 AI 向けのもので、FLUX.1 [dev] を基盤にしており、NIM マイクロサービスとして提供される予定です。これにより、アーティストはテキストベースの画像生成に対するより高度なコントロールが可能になります。
AI Blueprint を活用することで、開発者は RTX PC およびワークステーションで、AI の実験から AI の開発へと速やかに移行し、最先端のワークフローを実現できます。
生成 AI 向けの構築
新しい GeForce RTX 50 シリーズ GPU は、生成 AI の複雑な課題に取り組むことを目的として構築されており、FP4 をサポートする第 5 世代の Tensor コア、より高速な G7 メモリ、および AI とクリエイティブ ワークフロー間の効率的なマルチタスクを実現する AI 管理プロセッサを搭載しています。
GeForce RTX 50 シリーズは、PC のパフォーマンスを高め、より多くのモデルを導入できるようにするために、FP4 をサポートしています。FP4 は、モデルのサイズを縮小する、ファイル圧縮とよく似た低量子化手法のことです。ほとんどのモデルで採用されている標準的な手法の FP16 と比較して、FP4 はメモリ使用量を半分未満に抑え、50 シリーズ GPU は前世代と比較して 2 倍を超えるパフォーマンスを実現します。これらは、NVIDIA TensorRT Model Optimizer によって提供される高度な量子化手法により、実質的に品質を損なうことなく実現されます。
例えば、FP16 における Black Forest Labs の FLUX.1 [dev] モデルでは、23 GB を超える VRAM が必要なため、それをサポートできるのは GeForce RTX 4090 とプロフェッショナル GPU しかありません。しかし FP4 を利用すると、FLUX.1 [dev] で必要な容量が 10 GB 未満に抑えられるため、より多くの GeForce RTX GPU 上でローカルに稼働させることができます。
FP16 を使用した GeForce RTX 4090 では、FLUX.1 [dev] モデルで 30 のステップを通じて画像を生成するのに 15 秒かかります。一方 FP4 を使用した GeForce RTX 5090 では、わずか 5 秒余りで画像を生成できます。
新しい PC 向け AI API を使ってみよう
NVIDIA NIM マイクロサービスと AI Blueprint は、来月から利用可能になる予定であり、最初は GeForce RTX 50 シリーズ、GeForce RTX 4090 および 4080、NVIDIA RTX 6000 および 5000 プロフェッショナル GPU に対するハードウェア サポートが提供されます。将来的には、さらに多くの GPU がサポートされる予定です。
NIM 対応の RTX AI PC は、Acer、ASUS、Dell、GIGABYTE、HP、Lenovo、MSI、Razer、Samsung、および地域システム ビルダーの Corsair、Falcon Northwest、LDLC、Maingear、Mifcon、Origin PC、PCS、Scan から発売される予定です。
GeForce RTX 50 シリーズ GPU およびノート PC は、革新的なパフォーマンスを実現し、革新的な AI 体験を支え、クリエイターが記録的な速さでワークフローを完了することを可能にします。NVIDIA の創業者/CEO である Jensen Huang (ジェンスン フアン) の基調講演を再視聴して、CES で発表された NVIDIA の AI ニュースについてさらに理解を深めてください。
ソフトウェア製品に関する情報については、こちらをご覧ください。