NVIDIA CEO が GTC 基調講演でアクセラレーテッド コンピューティング、データセンター アーキテクチャ、AI、ロボティクス、Omniverse Avatar、デジタル ツインのビジョンについて語る

投稿者: Brian Caulfield

フアンは数兆ドル規模の産業を変革する可能性を秘めた新たなテクノロジを発表


NVIDIA CEO のジェンスン フアン (Jensen Huang) は今週、自動運転車からアバター、ロボティクス、さらには地球の気候モデリングに至るまでのあらゆる分野で現実と仮想の世界のシミュレーションが実現可能となる、数兆ドル規模の産業を変革するテクノロジを発表しました。

フアンは、今週開催されているバーチャル GTC で基調講演を行い、その中で NVIDIA Omniverse AvatarNVIDIA Omniverse Replicator をはじめとする数々の発表、デモ、広範な取り組みの紹介をしました。

また、NVIDIA の仮想世界シミュレーションおよび3D ワークフローのためのコラボレーション プラットフォームである「NVIDIA Omniverse」が、NVIDIA のテクノロジをどのように統合するかを説明しました。

さらに、Omniverse Avatar を使った顧客サポートのためのProject Tokkioと、ビデオ会議のためのProject Maxine のデモを披露しました。

NVIDIA CEOのジェンスン フアンは、Project Maxine for Omniverse Avatarが、コンピューター ビジョン、Riva 音声 AI、アバター アニメーションとグラフィックスを接続して、リアルタイムの対話型AIロボット「Toy Jensen Omniverse Avatar」を実現する様子を紹介しました。

フアンは次のように述べました。「これから紹介するのは、Omniverse が倉庫、プラント、工場、物理システム、生物システム、5G エッジ、ロボット、自動運転車、さらにはアバターのデジタル ツインのシミュレーションのためにどのように活用されるかという共通のテーマです」

そして、基調講演の最後に、気候変動をシミュレーションおよび予測するために、Earth Two (E-2) と呼ばれるデジタル ツインを構築する計画であることを発表しました。

「フル スタック、データセンター スケール、そしてオープン プラットフォーム」

アクセラレーテッド コンピューティングは現代の AI を立ち上げ、その波が科学や世界中の産業に押し寄せているとフアンは述べました。

そして、その始まりは GPUCPUDPU という 3 つのチップと、DGXHGXEGXRTXAGX という、クラウドからエッジまでにわたるシステムであると説明しました。

NVIDIA は 300 万人の開発者のために、グラフィックスから AI、科学、ロボティクスまでの 150 のアクセラレーション ライブラリを作成してきました。

さらに、NVIDIAはGTCで、65の新規および更新されたSDKを紹介しています。

「NVIDIA のアクセラレーテッド コンピューティングは、フル スタックでデータセンター スケールのオープン プラットフォームです」とフアンは語りました。

そして、「史上最も先進的なネットワーキング プラットフォーム」である NVIDIA Quantum-2 を発表し、Bluefield-3 DPU とともに、クラウドネイティブのスーパーコンピューティングを迎え入れました。

「Quantum-2 は、クラウド コンピューティング プロバイダやスーパーコンピューター センターが必要とする究極のパフォーマンス、幅広いアクセス性、強固なセキュリティを提供します」とフアンは述べました。

サイバーセキュリティは、企業や国家にとって最重要課題です。フアンは、その課題に対処するための 3 つの柱からなるゼロトラスト フレームワークを発表しました。

Bluefield DPU は、アプリケーションをインフラストラクチャから分離します。最新の BlueField SDK である NVIDIA DOCA 1.2 は、次世代の分散型ファイアウォールを実現します。NVIDIA Morpheus は、侵入者がすでに内部にいると想定して、「アクセラレーテッド コンピューティングとディープラーニングの強力な力で侵入者の活動を検知します」とフアンは説明しました。

NVIDIA Omniverse Avatar と Omniverse Replicator

Omniverse によって、「私たちは、新しい 3D の世界を創造したり、あるいは現実世界をモデリングしたりするためのテクノロジを手にしました」とフアンは述べました。

見たり、話したり、さまざまなテーマについて語ったり、自然な言葉の意図を理解したりできるインタラクティブなキャラクターを Omniverse で開発できるように、NVIDIA は Omniverse Avatar を発表しました。

フアンは、Project Maxine for Omniverse Avatar がどのようにしてコンピューター ビジョン、RIVA 音声 AI、アバターのアニメーションやグラフィックスを接続して、リアルタイム対話型 AI ロボット「Toy Jensen」を構築するのかを説明しました。

また、2 人の顧客を認識して会話し、話を理解することができるレストランのキオスク用の顧客サービス アバター Project Tokkio のデモも披露しました。

さらに、Project Maxine が仮想コラボレーションやコンテンツ制作アプリケーションに最先端の映像と音声の機能を追加できることも示しました。

デモでは、騒がしいカフェの中で、英語でビデオ通話を行っている女性が、周囲の雑音なしに明瞭に声を届けることができる様子が紹介されました。彼女が話すと、リアルタイムで話の内容が文字に起こされ、フランス語、ドイツ語、スペイン語に翻訳されます。そして、Omniverse のおかげで、彼女と同じ声とイントネーションで会話できるアバターが話しています。

AI のトレーニングに必要な膨大なデータの作成を支援するために、NVIDIA はディープニューラルネットワークのトレーニング用の合成データ生成エンジンである Omniverse Replicator を発表しました。

NVIDIA は 2 つのレプリケーターを開発しました。1 つはロボティクス全般向けの Omniverse Replicator for Isaac Sim、もう 1 つは自律走行車向けの Omniverse Replicator for DRIVE Sim です。

Omniverse は、昨年後半の提供開始以来、500 社のデザイナーによって 7 万回ダウンロードされています。

現在、Omniverse Enterprise が年額 9,000 ドルから利用可能です。

AI モデルとシステム

フアンは、大規模言語モデルをトレーニングするための Nemo Megatron を発表し、こうした大規模言語モデルは「これまでで最大のメインストリーム HPC アプリケーションになるでしょう」と述べました。

新しい Python パッケージである Deep Graph Library (DGL) によって、最新のデータ サイエンスにおける主要なデータ構造であるグラフをディープニューラルネットワーク フレームワークに投影できるようになりました。

今週発表された NVIDIA Modulus は、物理法則を学習し、それに従うことができる物理学に基づく機械学習モデルを構築し、トレーニングします。

あらゆるワークロードに対応する推論サーバーである Triton のアップグレードにより、フォレスト モデルの推論に対応したほか、大規模言語モデルの推論をマルチ GPU、マルチ ノードで実行できるようになりました。

また、フアンは 3 つの新しいライブラリを発表しました。

  • ReOpt – 10 兆ドル規模の流通業界向けライブラリ
  • cuQuantum – 量子コンピューティングの研究を加速
  • cuNumeric – Python コミュニティの科学者、データ サイエンティスト、機械学習や AI の研究者向けに NumPy を高速化

さらに、NVIDIA の AI テクノロジをベースにしたサービスをエッジに提供するために、NVIDIA Launchpad を発表しました。

NVIDIA は、データセンター大手の Equinix と提携して、世界中のデータセンターに NVIDIA AI をプリインストールし統合を進めています。

ロボティクス

現在、NVIDIA Isaac のエコシステムは 700 社を超える企業やパートナーで構成されており、その数はこの 4 年間で 5 倍に成長しています。

フアンは、NVIDIA Isaac ロボティクス プラットフォームが、ロボット アプリケーションで広く利用されているソフトウェア ライブラリおよびツール セットである Robot Operating System (ROS) に容易に統合できるようになったことを発表しました。

Omniverse 上に構築された Isaac Sim は、これまでに作られた中で最もリアルなロボティクス シミュレーターであるとフアンは説明しました。

「目標は、ロボットがシミュレーションの中にいるのか、現実世界にいるのかを分からないようにすることです」とフアンは語りました。

このプロセスを支援するために、Isaac Sim Replicator はロボットをトレーニングするための合成データを生成することができます。

Replicator は、センサーをシミュレーションし、自動的にラベル付けされたデータを生成し、ドメイン ランダム化エンジンにより、多様なトレーニング データセットを大量に作成することができるとフアンは説明しました。

自動運転車

フアンは、動くものはすべて完全に自律的になるか、大部分が自律化に動くようになるとした上で、「2024年までに、新たに発売される EV の大半にかなり高度な自動運転機能が搭載されるようになるでしょう」と付け加えました。

NVIDIA DRIVE は、NVIDIA の自動運転車向けのフルスタック オープン プラットフォームです。Hyperion 8 は、NVIDIA の最新の完全なハードウェアおよびソフトウェアのアーキテクチャです。

そのセンサー群は、12 台のカメラ、9 台のレーダー、12 台の超音波センサー、1 台のフロント LiDARセンサーで構成され、これらはすべて、2 基の NVIDIA Orin SoC によって処理されます。

フアンは、Omniverse をベースに構築された自動運転車向けの合成データ生成プログラムである Omniverse Replicator for DRIVE Sim など、Hyperion に組み込まれているさまざまな最新テクノロジについて詳しく説明しました。

現在、NVIDIA は Hyperion 8 センサー、4D認識、ディープラーニング ベースのマルチセンサー フュージョン、特徴追跡、および新しい計画エンジンを実行しています。

また、車内も革新的に変化するでしょう。NVIDIA Maxine テクノロジは、ドライバとクルマの接し方を変えるものです。

「Maxine により、自動車はコンシェルジュになるでしょう」とフアンは語りました。

Earth Two

フアンは、基調講演の締めくくりとして、気候変動のシミュレーションと予測を目的とした Earth Two (E-2) を構築することを発表しました。

「Earth Two を実現するには、NVIDIA がこれまでに発明したすべてのテクノロジが必要です」とフアンは述べています。