Gemma、NIM と出会う: NVIDIA と Google DeepMind がタッグを組んで大規模言語モデルのイノベーションを推進

投稿者: Dave Salvator

Google の最新オープン モデル PaliGemma は NVIDIA NIM 推論マイクロサービスをサポートしています。

生成 AI にパワーを与えている大規模言語モデルには激しい技術革新が起きており、テキスト、画像、音声などの複数の種類のデータを処理するモデルがますます一般的になってきています。

しかし、これらのモデルの構築と展開には依然として容易ではありません。開発者が必要としているのは、モデルをすぐに体験、評価してユース ケースに最適なモデルを判断し、費用対効果が高いだけでなく最高のパフォーマンスを発揮できるような形でモデルのパフォーマンスを最適化する方法です。

開発者が世界クラスのパフォーマンスを備えた AI 搭載アプリケーションを簡単に作成できるように、NVIDIA と Google は、Google I/O ’24 において新たに 3 つの協業を発表しました。

Gemma + NIM

NVIDIA は、TensorRT-LLM の使用によって Google と連携し、イベントで発表された 2 つの新しいモデル、Gemma 2 と PaliGemma の最適化が実現しました。どちらのモデルも、Gemini モデルの作成に使用されたのと同じ研究技術に基づいて構築されており、それぞれが特定の分野に焦点を当てています。

  • Gemma 2 は、幅広いユース ケースに対応する次世代の Gemma モデルであり、画期的なパフォーマンスと効率性を実現するために設計された、まったく新しいアーキテクチャを特徴としています。
  • PaliGemma は、PaLI-3 をヒントに開発されたオープンなビジョン言語モデル (VLM) です。SigLIP ビジョン モデルや Gemma 言語モデルといったオープンなコンポーネント上に構築された PaliGemma は、画像やショート動画への字幕付け、視覚的な質疑応答、画像内のテキストの理解、物体検出、オブジェクト セグメンテーションなどのビジョン言語タスク向けに設計されています。PaliGemma は、さまざまなビジョン言語タスクでクラス最高のファインチューニング性能を実現するように設計されており、NVIDIA JAX-Toolbox によってサポートされています。

Gemma 2 と PaliGemma は、大規模な AI モデルの展開を簡素化する NVIDIA AI Enterprise ソフトウェア プラットフォームの 1 つである NVIDIA NIM 推論マイクロサービスとともに提供されます。新しい 2 つのモデルに対する NIM サポートは API カタログから利用可能であり、まず PaliGemma のサポートが始まっています。近日中に NVIDIA NGC および GitHub でコンテナとしてリリースされます。

Colab に高速化されたデータ分析を導入

Google はまた、Google Colab が、オープンソースの GPU データフレーム ライブラリである RAPIDS cuDF の標準サポートを開始することを発表しました。Google Colab はデータ サイエンティストに最も人気のある開発者プラットフォームの 1 つで、月間ユーザーは 1,000 万人にのぼります。Google Colab のユーザーは、NVIDIA L4 Tensor コア GPU を使用して、コードを変更することなく、わずか数秒で pandas ベースの Python ワークフローを最大 50 倍高速化できるようになります。

RAPIDS cuDF によって、Google Colab を使用する開発者は探索的解析や本番用データ パイプラインを高速化できます。pandas はその直観的な API によって世界で最も人気を集めるデータ処理ツールの 1 つですが、データ サイズが増大するにつれて適用が困難になることも多くあります。5 ~ 10 GB のデータであっても、多数の単純操作が完了するまでに CPU 上で数分かかることもあり、探索的解析や本番用データ パイプラインの速度が低下します。

RAPIDS cuDF は、適用可能であれば GPU で pandas のコードをシームレスに高速化し、適用できない場合は CPU の pandas にフォールバックすることで、この問題を解決するように設計されています。RAPIDS cuDF が Colab で標準で利用可能になることで、すべての開発者が場所を問わずに高速化されたデータ解析を活用できます。

AI を携えて

Google と NVIDIA は、NVIDIA RTX グラフィックスを使用した AI PC を活用することで、アプリ開発者が Gemma モデルの新シリーズなどの生成 AI モデルを Web アプリケーションやモバイル アプリケーションに簡単に統合し、カスタム コンテンツの提供、セマンティック検索、質問応答を可能にする Firebase Genkit の協業も発表しました。開発者はローカルの RTX GPU を使用して作業を開始し、その後に作業を Google Cloud インフラにシームレスに移行することができます。

また、開発者は Genkit でアプリを構築する際、モバイル開発者がアプリ構築に一般的に使用しているプログラミング言語である JavaScript を使用できるため、開発者の作業はさらに簡単になります。

イノベーションは続く

NVIDIA と Google Cloud は、AI を前進させるために複数の領域で協業しています。今後登場する Grace Blackwell 搭載の DGX Cloud プラットフォームや JAX フレームワークをサポートするほか、NVIDIA NeMo フレームワークの Google Kubernetes Engine への導入が予定されており、こうした両社のフルスタックのパートナーシップによって、NVIDIA のテクノロジを Google Cloud で活用することで AI の可能性が広がっていきます。