生成 AI はコンピューティングを再定義し、PC やワークステーション上で AI モデルを構築、トレーニング、最適化する新たな方法を生み出しています。コンテンツ制作、大規模言語モデルおよび小規模言語モデルからソフトウェア開発まで、AI 搭載の PC とワークステーションはワークフローを変革し、生産性を向上させています。
3 月 17 日から 21 日までサンノゼ コンベンション センターで開催される GTC 2025 では、AI エコシステムに属するあらゆる分野のエキスパートが、AI のローカル展開、モデルの最適化、最先端のハードウェアおよびソフトウェアの活用によって AI ワークロードを強化する方法についての洞察を共有します。中でも注目されるのは、RTX AI PC とワークステーションの主な進歩についてです。
RTX での開発と展開
RTX GPU は、最新かつ最も要求の厳しい AI モデルを実行するために必要なコンピューティング パフォーマンスを提供する、Tensor コアと呼ばれる専用の AI ハードウェアで構築されています。これらの高性能 GPU は、デジタル ヒューマン、チャットボット、AI 生成ポッドキャストなどを構築するのに役立ちます。
GeForce RTX GPU および NVIDIA RTX™ GPU は今や 1 億人を超えるユーザーがいるため、開発者は AI の新しいアプリや新機能を展開する際に、非常に多くのオーディエンスをターゲットにすることができます。「Build Digital Humans, Chatbots, and AI-Generated Podcasts for RTX PCs and Workstations (RTX 搭載の PC およびワークステーション用のデジタル ヒューマン、チャットボット、AI 生成ポッドキャストの構築)」のセッションでは、開発者が開発効率を向上させ、驚くほど高速な AI 対応アプリケーションを展開するために使用できるエンドツーエンドのツールのスイートを、NVIDIA のシニア プロダクト マネージャーであるアナマライ チョッカリンガム (Annamalai Chockalingam) が紹介します。
モデルの動作
大規模言語モデル (LLM) は多様なユース ケースに使用できるほか、コード作成や日本語からギリシャ語への翻訳まで、複雑なタスクに対応できる規模にまで拡張できます。しかし、一般的には幅広いアプリケーション向けに広範囲の知識でトレーニングされるため、たとえばビデオ ゲームでの NPC のダイアログ生成といった特定のタスクには適さない場合があります。一方で小規模言語モデルは、ニーズに釣り合うようにサイズを縮小させることで、精度を維持しながらより多くのデバイスでローカルで実行できます。
「Watch Your Language: Create Small Language Models That Run On-Device (言語に注目: オンデバイスで実行する小規模言語モデルを作成)」のセッションでは、NVIDIA のシニア エンジニアリング マネージャーであるオルワトビ オラビイ (Oluwatobi Olabiyi) が、開発者や愛好家がデータセットを生成、キュレート、蒸留するために使用できるツールとテクニックを紹介し、そのデータセット用に設計されたタスクを実行できる小規模言語モデルのトレーニングについて解説します。
Windows ワークステーションでの AI パフォーマンスの最大化
Windows ベースのワークステーションでの AI 推論やモデルの実行では、ハードウェア構成やソフトウェア環境が多岐にわたるため、最適化するにはソフトウェアとハードウェアの戦略的な調整が必要です。「Optimizing AI Workloads on Windows Workstations: Strategies and Best Practices (Windows ワークステーションでの AI ワークロードの最適化: 戦略とベスト プラクティス)」のセッションでは、モデルの量子化、推論パイプラインの強化、ハードウェアを意識した調整など、AI 最適化のベスト プラクティスについて説明します。
NVIDIA ソフトウェア エンジニアのチームによる、ONNX Runtime、NVIDIA TensorRT、llama.cpp におけるハードウェアを意識した最適化についての解説セッションも予定しており、開発者が GPU、CPU、NPU 全体で AI の効率を最大化できるよう支援します。
ローカル AI 開発の推進
ローカルのインフラ上で AI モデルを構築、テスト、展開することで、クラウドベースのサービスに接続していなくてもセキュリティとパフォーマンスを確保できます。NVIDIA RTX GPU で高速化された Dell Pro Max AI と Z by HP の AI ソリューションは、データと IP の制御を維持しながらオンプレミスで AI を開発するために必要なツールを提供します。
以下のセッションに参加して、各ソリューションの詳細をご確認ください。
- Dell Pro Max and NVIDIA: Unleashing the Future of AI Development (Dell Pro Max と NVIDIA: AI 開発の未来を解き放つ)
このセッションでは、NVIDIA RTX GPU を搭載したプロフェッショナル向けの高性能ノート PC およびデスクトップである Dell Pro Max PC を紹介します。この強力なタッグが AI イニシアチブを飛躍させ、AI 開発者、データ サイエンティスト、クリエイター、パワー ユーザーがイノベーションを起こす方法に変革をもたらしている現状をご覧ください。 - Develop and Observe Gen AI On-Prem With Z by HP GenAI Lab and AI Studio (Z by HP GenAI Lab と AI Studio を使用したオンプレミスの 生成 AI の開発と観察)
このセッションでは、Z by HP ソリューションがローカル モデルのトレーニングと展開を簡素化し、NVIDIA NGC カタログのモデルと Galileo の評価テクノロジを活用して生成 AI プロジェクトを安全かつ効率的に改良する方法を紹介します。 - SuperchargeSupercharge Gen AI Development With Z by HP GenAI Lab and AI Studio (Z by HP GenAI Lab と AI Studio を使用した 生成 AI 開発の強化)
このセッションでは、Z by HP の GenAI Lab と AI Studio がデータ セキュリティと制御を完全に維持しながらオンプレミスの LLM 開発を可能にする方法について説明します。これらのツールが検証から展開に至るまでの AI ライフサイクル全体を合理化する様子や、NVIDIA NGC カタログで利用可能なモデルを統合してコラボレーションとワークフローの効率性を高める方法を学びます。
開発者や愛好家は、NVIDIA NIM マイクロサービスを使用して、RTX AI 搭載の PC やワークステーションで AI の開発に着手できます。初回リリースには、Llama 3.1 LLM、自動音声認識 (ASR) のための NVIDIA Riva Parakeet、コンピューター ビジョンのための YOLOX が含まれています。
NIM マイクロサービスは、生成 AI 向けに最適化およびパッケージ化されたモデルです。PC 開発に重要なさまざまなモダリティを網羅しており、業界標準のアプリケーション プログラミング インターフェイスを介してダウンロードや接続が簡単にできます。
GTC 2025 にご参加ください
NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) による基調講演で幕を開ける GTC では AI とそのすべてのメリットにスポットライトを当て、1,000 を超える示唆に富むセッション、300 を超える展示、実践的なテクニカル トレーニングのほか、他にはない数多くのネットワーキング イベントまで、多数のイベントを予定しています。
Facebook、Instagram、TikTok、X で NVIDIA AI PC をフォローしてください。また、RTX AI PC ニュースレターにご登録いただいた方には、最新情報をお届けします。