DPU の内部の詳細が明らかに: データ センター ネットワークの基盤となるエンジンについて語る

投稿者: John Kim

各種クラウド サービス、スーパーコンピューター、ネットワーク機器で活用が進む NVIDIA BlueField DPU アーキテクチャの詳細が、初めて明らかに

今週、NVIDIA BlueField データ プロセッシング ユニット(DPU)の内部が、テクノロジ業界に初めて明らかにされます。昨年「DPU」という新たなカテゴリを生み出した同チップは、各種クラウド サービス、スーパーコンピューター、数多くの OEM とソフトウェア プロバイダーへの採用が続々と進んでいます。

世界最高峰のマイクロプロセッサ設計者が一堂に会する年次カンファレンス「Hot Chips」にて、NVIDIAのイスラエル拠点でBlueField 設計チームを統率するプリンシパル アーキテクトのイダン バースタイン (Idan Burstein) が、DPU のアーキテクチャについて講演を行う予定です。

この講演では、ハードウェア アクセラレータと汎用 Arm コアのアレイによってネットワーク、セキュリティ、ストレージの各ジョブを高速化し、最先端データ センターの処理を加速するシリコン エンジンの姿が明らかになります。

これらのジョブには、データ センター ハードウェアの仮想化に加え、ネットワーク トラフィック フローのセキュリティ保護や円滑化などがあります。これは、データ センター稼働に欠かせない次のような専門的タスクを、ハードウェア内部で高速化します。

  • セキュリティ: IPsec、TLS、AES-GCM、RegEx、公開鍵アクセラレーション
  • ストレージ: NVMe-oF、RAID、GPUDirect Storage
  • ネットワーク: RDMA、RoCE、SR-IOV、VXLAN、VirtIO、GPUDirect RDMA
  • 動画ストリーミングや低遅延が要求される通信のオフロード

これらのワークロードはムーアの法則を上回るペースで増加しており、現在、既にサーバーの CPU サイクルの 3分の1 がこれらのワークロードに消費されています。DPU では、内部に組み込まれた専用ハードウェアによってこれらのジョブをより効率的に実行することで、より多くの CPU コアをデータ センター アプリケーションに割り当てられるようにします。

DPU は、ベアメタル パフォーマンスを損なうことなく仮想化や高度なセキュリティを実現し、その用途は、クラウド コンピューティング、メディア ストリーミング、ストレージ、エッジ プロセッシング、ハイ パフォーマンス コンピューティングなど多岐にわたります。

NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は DPU について次のように述べています。「DPUはこれからのコンピューティングの 3 つの大きな柱の 1 つを担う存在です。汎用コンピューティングを CPU が、アクセラレーテッド コンピューティングを GPU が担います。そしてDPU はデータ センター内でデータ移動を担い、データ処理を行います」

充実したプラグアンドプレイのスタック

Hot Chips でプロセッサー設計者の興味が集中するような、シリコンに関する詳しい知識はユーザーに必要ありません。DPU の性能を活用するのに必要な操作は、上位レベルの使い慣れたソフトウェア インターフェースに既存ソフトウェアを接続することだけです。

これらの API は、NVIDIA DOCA と呼ばれる DPU のソフトウェア スタックにバンドルされています。さらに DOCA は、データ センター全体で数千にも及ぶ DPU でのサービスのプロビジョニング、展開、オーケストレーションに必要なドライバ、ライブラリ、ツール、ドキュメント、サンプル アプリケーション、ランタイム環境も提供します。
現在既に、DOCA 早期アクセス プログラムの要望を、世界のリーディング企業含む数百の組織から受けています。

DOCA が提供するソフトウェア プラットフォームを活用することで、DPU を基盤とするネットワーク、ストレージ、セキュリティの各アプリケーションを短期間で開発が可能

DPU がデータ センターとクラウドの基盤に

Hot Chips で紹介されるアーキテクチャは、世界最大級の複数のクラウドへの採用、TOP500 のスーパーコンピューターへの採用、さらに次世代ファイアウォールとの統合が既に進められています。近日中には、十数社を超えるパートナーが提供するソフトウェアに対応した大手 OEM 数社のシステムが利用できるようになります。

現在、世界中の複数のクラウド サービス プロバイダーが BlueField DPU を活用してコンピューティング インスタンスを安全にプロビジョニングし、その準備を進めています。

BlueField がスーパーコンピューター、ファイアウォールを強化

ケンブリッジ大学は、DPU の高い効率性を活用した、英国の学術機関で最高速度を誇るシステムを6月に発表しました。このスーパーコンピューターは、世界で最もエネルギー効率の高いシステムを選出する「Green500」でも 3 位にランクインしています。

これは、研究者がプライバシー、セキュリティ、パフォーマンスのいずれも犠牲にすることなく仮想リソースを共有できる、世界初のクラウドネイティブのスーパーコンピューターです。

また、Palo Alto Networks の VM-Series 次世代ファイアウォールでは、すべてのデータ センターが DPU のセキュリティ機能を利用できるようになります。VM-Series NGFW の BlueField-2 によるアクセラレーションが可能になったことで、以前は追跡が不可能あるいは非現実的だったネットワーク フローを調査できるようになりました。

DPU は、ASUSAtosDell Technologies、富士通、GIGABYTE、H3C、Inspur、Quanta/QCT、Supermicro 各社のシステムで近日中に利用できるようになる予定です。このうち数社については、5 月に開催された「Computex」にて既に計画が発表されています。

NVIDIA BlueField DPU をサポートするソフトウェア パートナーは、以下を含む十数社以上に及びます。

  • VMware: 「Project Monterey」により、スピード、耐障害性、セキュリティの面で、既にVmwareを利用している 30万以上の組織に DPU を展開。
  • Red Hat: Fortune 500 企業の 95% が活用する Red Hat Enterprise Linux と Red Hat OpenShift の開発者キットを近日公開予定。
  • Canonical: パブリック クラウドで最も多く利用されているオペレーティング システム Ubuntu Linux を提供。
  • Check Point Software Technologies: 全世界 10万 を超える組織で活用されているサイバー攻撃を防ぐ製品を提供。

その他にも、Cloudflare、DDN、Excelero、F5、Fortinet、Guardicore、Juniper Networks、NetApp、Vast Data、WekaIO などのパートナーが BlueField DPU に対応します。

これほど幅広いサポートが得られたのは、それだけビジネス チャンスが大きいということを意味します。

NVIDIA の CFO コレット クレス (Colette Kress) は 5 月に実施された決算報告会で、将来はすべてのサーバーが DPU を搭載するようになると予測し、次のように述べました。「世界中のネットワーク チップは、ひとつ残らずスマート ネットワーク チップに変わるでしょう。それが 『データセンター オン チップ』 を実現する DPU の力です。」

DPU 搭載のネットワークの実現

Dell’Oro Group の市場動向予測では、スマート ネットワーク ポートの出荷数は 2020 年の 440 万ポートから 2025 年には 740 万ポートへと、ほぼ倍増すると見込まれています。

NVIDIA は、この成長をさらに加速させるDPU の今後 の2 世代のロードマップを GTC で発表しました。

まず、x86 コア 300 基分相当の性能を持ち、最大 400 Gbit/秒でネットワークを駆動する BlueField-3 は、来年のサンプル出荷が予定されています。さらに BlueField-4 では、NVIDIA の AI コンピューティング テクノロジが追加され、飛躍的なパフォーマンス向上が実現されます。

今回紹介した市場の盛り上がり、そしてHot Chips での発表から明らかに見えてくるのは、AI 分野と同様に、NVIDIA がネットワークの高速化のペースを握っているということです。