NVIDIA CEO が、「我らの時代のダ ヴィンチ」のためのソフトウェア、シリコン、スーパーコンピューターを発表

投稿者: Brian Caulfield

NVIDIA GTCが開幕し、NVIDIA CEO のジェンスン フアンが、AI、自動車、ロボティクス、5G、リアルタイム グラフィックス、コラボレーションおよびデータセンターの最新の発展状況を織り交ぜながら、輝かしい未来のビジョンを紹介

NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) が、シリコンからスーパーコンピューター、AI ソフトウェアまでを網羅し、自律動作マシン、スーパーインテリジェント AI、ならびに拡大を続ける仮想世界についての話題を詰め込んだプレゼンテーションを行い、その非凡なビジョンを明らかにしました。

NVIDIA の GPU Technology Conference (GTC) 、キッチン カウンターから行った講演で、フアンは次のように述べました。「NVIDIA はコンピューティング プラットフォーム企業であり、我らの時代のダ ヴィンチが言語理解、創薬または量子コンピューティングといった分野で仕事を遂行するのを支援しています。NVIDIA は、生涯をかけた仕事を遂行するための手段です」

製品発表、パートナーシップ、デモなど、最新のテクノロジ スタックを駆使したプレゼンテーションの中で、フアンは、CPU、DPU および GPU に NVIDIA が重点投資している理由について話し、そのなかで研究者およびエンタープライズ向けの、新しいデータセンタースケールのコンピューティング ソリューションに言及しました。

フアンは、NVIDIA はソフトウェア企業だと語り、NVIDIA AI を活用したたくさんのソフトウェアとともに、自律動作マシンのシミュレーション、コラボレーションおよびトレーニングに使用される NVIDIA Omniverse を紹介しました。

最後に、フアンは、NVIDIA が新しい SoC である NVIDIA Atlan と新たなシミュレーション機能によって、車載コンピューティングを発展させている現状について語りました。

CPU、DPU および GPU

フアンは、NVIDIA 初のデータセンター CPU である Grace を発表しました。Grace という名称は、米国海軍の准将にしてコンピューター プログラミングのパイオニアであった、グレース ホッパー (Grace Hopper) 氏にちなんでいます。

Grace は、1 兆個以上のパラメータを持つ、次世代の自然言語処理モデルのトレーニングのような、データ集約的かつ大規模な HPC および AI のアプリケーションを想定した、高度なプロセッサです。

NVIDIA GPU と密接に組み合わせることで、Grace を搭載したシステムは、x86 CPU で動作する現在最先端の NVIDIA DGX ベース システムに比べて、10 倍高速な性能を実現します。

大多数のデータセンターは既存の CPU を利用し続けると予想されますが、Grace はコンピューティングのニッチ セグメントで利用されるようになるでしょう。「Grace は Arm の美を集大成したもの」とフアンは言います。

フアンはさらに、スイス国立スーパーコンピューティング センターがスーパーコンピューターを構築するという発表を行いました。このスーパーコンピューターは、Alps という名称で、Grace と NVIDIA の次世代 GPU が搭載されます。米国エネルギー省ロスアラモス国立研究所も 2023 年にGrace を搭載したスーパーコンピューターを稼働させる、と NVIDIA は発表しました。

BlueField-3 でデータセンターを加速

ハイパースケールのデータセンターやワークステーション、スーパーコンピューターの基盤となっているインフラストラクチャをさらに加速させるものとして、フアンは NVIDIA BlueField-3 DPU を発表しました。

この次世代のデータ処理ユニットは、最もパワフルな、ソフトウェア デファインドのネットワーキング、ストレージおよびサイバーセキュリティのアクセラレーション機能を実現します。

BlueField-2 が CPU コア 30 基分のオフロードを行っていたのに対して、BlueField-3 は、300 基分の CPU コア、400 Gbps のネットワーク トラフィックのセキュリティ、オフロード、アクセラレーションを行うことができ、性能が 10 倍向上するとフアンは説明しています。

「3 つのチップ」

Grace と BlueField は、CPU、GPU および DPU という 3 つのチップで構成された、データセンター ロードマップのなかの主要な要素となっている、とフアンは言います。それぞれのチップのアーキテクチャは 2 年間の期間を想定したものとなっており、その期間内に飛躍的な進歩が現れるものと予想されています。1 年目は x86 プラットフォームに焦点が当てられ、次の年には Arm プラットフォームに焦点が当てられます。

「毎年、NVIDIA から魅力的な新製品が登場するというわけです」とフアンは言います。「3 つのチップは、ワン アーキテクチャ(1つのアーキテクチャ)で、毎年性能が飛躍的に向上します」

Arm をクラウドに活用

Arm は、世界で最も人気のある CPU になっている、とフアンは言います。「それも当然で、エネルギー効率が抜群に優れており、そのオープン ライセンシングのモデルは、世界中のイノベーターに影響を与えています」

クラウドやエンタープライズ、エッジ データセンター、スーパーコンピューターおよび PC といった他のマーケットについては、Arm はスタートしたばかりです。フアンは Arm 関連の主要な提携についての発表を行いました。この発表では、クラウド コンピューティングで Amazon Web Services、サイエンティフィック コンピューティングとクラウド コンピューティングで Ampere Computing、ハイパーコンバージド エッジ サーバーで Marvel、および Chrome OS と Linux PC の SDK ならびにリファレンス システムの作成で MediaTek と提携すると発表されました。

DGX – AI のためのコンピューター

フアンは、NVIDIA のシリコンとソフトウェアの話題を織り込みながら、ワークグループ向けの「手軽に構築できる AI データセンター」である NVIDIA の DGX Station のアップグレードならびに集中的な AI の研究および開発を想定した、NVIDIA の製品版の AI データセンターである NVIDIA DGX SuperPod についての発表を行いました。

新しい DGX Station 320GB には、4 基の NVIDIA A100 GPU に接続された 320 GB の超高速 HBM2e が実装され、毎秒 8 TB のメモリ帯域幅を実現しています。しかも、標準的なコンセントに接続可能で、1500 ワットしか電力を消費しない、とフアンは話しています。

DGX SuperPOD では、新しい 80GB のNVIDIA A100 が使用されており、90 TB の HBM2e メモリが搭載されています。アップグレードによって NVIDIA BlueField-2 に対応し、DGX の管理およびオーケストレーションのためのツールである NVIDIA Base Commandとともに DGX SuperPOD を提供しています。

エンタープライズ向け NVIDIA EGX

AI の民主化をさらに推し進めるために、フアンは、新しいクラスの NVIDIA-Certified Systemsとして大手メーカーから販売されるエンタープライズ サーバーを紹介しました。これらは、NVIDIA AI Enterprise ソフトウェア スイートの動作認証されているほか、世界で最も普及しているコンピューティング仮想化プラットフォームである VMware vSphere 7 にて唯一認証されています。

拡大を続けている NVIDIA-Certified Systemsは、メインストリームの AI とデータ分析用の NVIDIA A30 GPU、および AI 対応のグラフィックス、仮想ワークステーションおよび演算とグラフィックスが混合したワークロードのための NVIDIA A10 GPU を搭載したシステムの新たな波となっています。

AI-on-5G

フアンは、NVIDIA の AI-on-5G コンピューティング プラットフォームについても語りました。このプラットフォームは、エッジ向けに設計されたNVIDIA Aerial ソフトウェア開発キットと NVIDIA BlueField-2 A100 を搭載した新しいタイプのコンピューティング プラットフォームであり、5G と AI を組み合わせます。NVIDIA BlueField-2 A100 は、GPU と DPU を実装した「これまでで最も先進的な PCIE カード」です。

パートナーの富士通、Google Cloud、Mavenir、Radisys および Wind River はそれぞれ、NVIDIA の AI-on-5G プラットフォーム向けのソリューションを開発しています。

NVIDIA AI と NVIDIA Omniverse

人々と AI およびロボットが住む、バーチャルでリアルタイムな 3D 世界は、もはや SF 世界のものではありません。

NVIDIA Omniverse は、クラウドネイティブで、複数の GPU に拡張し、物理的に正確で、RTX リアルタイム パストレーシングと DLSS を活用し、NVIDIA MDL によるマテリアル シミュレーションおよび NVIDIA PhysX による物理シミュレーションを行い、NVIDIA AI を完全に統合する、とフアンは説明しています。

「Omniverse は、バーチャル 3D ワールドを共有するために作られました。まるで、1990 年代の初めにニール スティーヴンスンが SF 小説『スノウ・クラッシュ』で発表した、メタバースのような世界です」

フアンは、今夏より Omniverse のエンタープライズ向けライセンス提供が開始されると発表しました。オープンベータのリリース以来、建築の Foster and Partners、エンターテインメントの ILM、ゲーミングの Activision、および大手広告代理店の WPP といったパートナーが、Omniverse を業務に利用しています。

未来の工場

Omniverse の可能性を示すために、フアンは BMW AG の経営委員会委員であるミラン ネデリコビッチ (Milan Nedeljković) 氏とともに、フォトリアリスティックな、リアルタイムのデジタル モデルによって、BMW の高度に自動化された工場の 1 つの「デジタル ツイン」を作り、現代の製造業を加速させる方法を示しました。

「これらの新しいイノベーションは、計画時間を短縮し、柔軟性と正確さを高めるので、最終的には効率性が 30% 向上した計画を生み出せるでしょう」とネデリコビッチ氏は言います。

たくさんの AI ソフトウェア

フアンは、自然言語処理でのブレイクスルーをもたらしている Transformer のトレーニング用フレームワークである、NVIDIA Megatron を発表しました。Transformer は、文書の要約作成、電子メール中のフレーズ作成、テストの採点、スポーツ実況とともに、コードの生成も可能にします。

フアンは、計算創薬のための NVIDIA のアクセラレーション ライブラリである Clara Discovery の新モデル、ならびに創薬と物質科学で使用される、主要な物理ベースの機械学習による計算プラットフォームである Schrodinger との提携を発表しました。

0 か 1、あるいはその両方である量子ビットに依る、量子コンピューティングの研究を加速するために、フアンは、量子回路シミュレーターを加速して、研究者がより優れた量子コンピューターを設計できるようにする、cuQuantum を発表しました。

現代のデータセンターの安全性を高めるために、フアンは、NVIDIA AI、NVIDIA BlueField、Net-Q ネットワーク テレメトリー ソフトウェア、および EGX で構築された、リアルタイムでの全パケット検査を可能にする、データセンター セキュリティ プラットフォームの NVIDIA Morpheus を発表しました。

対話型 AI を加速するために、フアンは、音声認識、言語理解、翻訳および音声による感情表現を可能にする、最先端のディープラーニング AI である NVIDIA Jarvis が利用可能になったと発表しました。

検索、広告、オンライン ショッピング、音楽、書籍、映画、ユーザー生成コンテンツおよびニュースのためのエンジンである、レコメンダー システムを加速するために、フアンは、NVIDIA のディープラーニング フレームワーク コンテナのカタログである NGC で NVIDIA Merlin が利用可能になったという発表を行いました。

さらに、お客様が自身の専門知識を AI で活用できるようにするために、フアンは、データの機密性を保護しながら、お客様およびパートナーのデータを使って NVIDIA の事前トレーニングされたモデルをファインチューニングおよび適応できる、NVIDIA TAO を発表しました。

「アプリケーションの領域、環境および専門性には、無限の多様性があります」とフアンは言います。「すべてのデータを手にする人はいません。稀少なデータであることもあれば、企業秘密である場合もあります。

最後の要素は、推論サーバーの NVIDIA Triton であり、お客様の EGX サーバーまたはクラウド インスタンスに継続的に流れ込んでくるデータから得られる洞察を探り出すということになります」とフアンは言っています。

「cuDNN で実行される AI モデルは、基本的にあらゆる AI モデルなのです。つまり、TensorFlow、Pytorch、ONNX、OpenVINO、TensorRT またはカスタムの C++/python のバックエンドといった、あらゆるフレームワークで処理される、あらゆる AI モデルということになります」

NVIDIA DRIVE で自動車業界を推進

自律走行車は、機械学習とロボティクスの最も過酷な課題の 1 つで、最も困難ですが、大きなインパクトを生み出すこともできます」とフアンは言います。

NVIDIA は、10 兆ドル規模の輸送業のために、モジュラー式のエンドツーエンド ソリューションを構築しており、パートナーはそのなかで必要な部分を利用することができます。

NVIDIA の AV コンピューティング システム オン チップであり、2022 年に生産が始まる NVIDIA DRIVE Orin は、自動車の中央コンピューターを想定して設計されたものである、とフアンは言います。

Volvo Cars は、2016 年より NVIDIA DRIVE の高性能で、エネルギー効率に優れた演算能力を活用し、NVIDIA DRIVE Xavier上で内製のソフトウェアおよび同社の自律走行用ソフトウェア開発会社である Zenseact が開発したソフトウェアを使用して、新モデルで採用する AI 支援運転機能を開発しています。

GTC 基調講演において、Volvo Cars は、自社の次世代自動車の自律走行コンピューターに NVIDIA DRIVE Orin を採用すると発表しました。

この決定により、来年デビューする予定の次世代 XC90 を皮切りに、ソフトウェア デファインドの車両のラインアップを拡大するという両社の取り組みはさらに深まります。

その一方で、NVIDIA の次世代自動車向けシステムオンチップであり、真の車載データセンターである NVIDIA DRIVE Atlan が、「さらなる大きな飛躍になる」とフアンは発表しています。

Atlan は、1 秒間に 1,000 兆回の計算能力 (TOPS) を提供し、2025 年のモデルをターゲットとしています。

「Atlan は技術上の驚異であり、AI、自動車、ロボティクス、安全性、BlueField によるセキュアなデータセンターといった NVIDIA のあらゆるテクノロジが融合されます」とフアンは言います。

フアンは、NVIDIA の第 8 世代の Hyperion 自動車用プラットフォームについての発表も行いました。このプラットフォームには、リファレンス センサー、AV と中央コンピューター、3D グラウンドトゥルース データ レコーダー、ネットワーキング、ならびに重要なソフトウェアのすべてが含まれています。

さらにフアンは、今夏より DRIVE Sim が当該コミュニティで利用可能になると発表しました。

Omniverse で自動車を生産する工場のデジタル ツインを構築できるのと同じように、DRIVE Sim を使えば、AV 開発の期間を通じて使用できる、自律走行車のデジタル ツインを作成することができます。

「Omniverse での DRIVE のデジタル ツインは、あらゆるエンジニアと関連のあらゆる車が結び合わされる仮想空間となります」とフアンは言っています。

「生涯をかけた仕事を遂行するための手段」

フアンは、基調講演を以下の 4 つのポイントに要約しました。

NVIDIA は現在、GPU、CPU および DPU という、3 種のチップを提供する会社です。

NVIDIA は、ソフトウェア プラットフォームの会社であり、NVIDIA AI と NVIDIA Omniverse に多大な投資を行っています。

NVIDIA は、Megatron、Jarvis、Merlin、Maxine、Isaac、Metropolis、Clara および DRIVE、そしてTAO によってカスタマイズ可能な事前トレーニングされたモデルを提供する AI 企業です。

NVIDIA は、研究者向けの DGX、クラウド用の HGX、エンタープライズおよび 5G エッジ用の EGX、およびロボティクス用の AGX によって、AI を普及させています。

「結局のところは」とフアンは言いました。「NVIDIA は、あなたが生涯をかけた仕事を遂行するための手段なのです」

※NVIDIA Jarvis の名称は 2021 年 7 月に NVIDIA Riva に変更されました。