AI ワークロードを加速する新しい NVIDIA H100、H200 Tensor コア GPU インスタンスが Microsoft Azure に登場
コンフィデンシャル コンピューティングと 2 つの新しい NVIDIA 搭載インスタンスは、Azure の顧客のための生成 AI の可能性を広げます。
コンフィデンシャル コンピューティングと 2 つの新しい NVIDIA 搭載インスタンスは、Azure の顧客のための生成 AI の可能性を広げます。
Amdocsは、Microsoft Azure 上の NVIDIA AI ファウンドリ サービスを使用して、1 兆 7000 億ドルの世界的な通信業界向けにカスタム LLM を構築する計画です。
Microsoft Ignite で発表された新しいツールとリソースには、OpenAI Chat API 用 のTensorRT-LLM ラッパー、Llama 2 向けの DirectML に対する RTX を利用したパフォーマンス向上、その他の一般的な LLM が含まれます
開発者は、新しい NVIDIA AI Foundation モデルをブラウザから直接試すことができ、NVIDIA AI Foundation Endpoints を使ってアプリケーションでテストした後、独自のビジネス データを使ってカスタマイズできます。
Retrieval-Augmented Generation は、外部ソースから取得した情報を用いて、生成 AI モデルの精度と信頼性を向上させるテクノロジです。
NVIDIA H100 Tensor コア GPU は、前例のないスケーリングとソフトウェアの進歩により、最新の業界標準テストで新記録を樹立