Mistral AI は、オープンソースの多言語 マルチモーダル モデルである Mistral 3 ファミリーを発表しました。Mistral 3 は NVIDIA のスーパーコンピューティングおよびエッジ プラットフォーム向けに最適化されています。
Mistral Large 3 は Mixture-of-Experts (MoE) モデルであり、すべてのトークンに対してすべてのニューロンを活性化するのではなく、モデル内で最も影響力のある部分のみを活性化します。そのため高効率で、無駄のないスケールと妥協のない精度を実現します。エンタープライズ AI が可能になるばかりか、実用的なものになります。
Mistral AI の新しいモデルは、業界をリードする精度と効率性をエンタープライズ AI にもたらします。クラウドからデータセンター、エッジまで、あらゆる環境で利用可能なこのモデルは、12 月 2 日 (火) に提供を開始しました。
410 億のアクティブ パラメーター、6,750 億の総パラメーター、25 万 6,000 の大規模なコンテキスト ウィンドウを備えた Mistral Large 3 は、エンタープライズ AI ワークロードにスケーラビリティ、効率性、適応性をもたらします。
NVIDIA GB200 NVL72 システムと Mistral AI の MoE アーキテクチャを組み合わせることで、企業は高度な並列処理とハードウェア最適化のメリットを活用しながら、大規模な AI モデルを効率的に展開、拡張することができます。
この組み合わせにより、今回の発表は、Mistral AI が「分散型インテリジェンス」と呼ぶ時代へ向けた一歩となり、画期的な研究成果と実世界のアプリケーションの間にあるギャップを埋めるものとなります。
本モデルの MoE アーキテクチャは粒度が高く、NVIDIA NVLink のコヒーレント メモリ領域を活用し、広範なエキスパート並列化の最適化を用いることで、大規模なエキスパート並列化のパフォーマンス メリットを最大限に引き出します。
これらのメリットは、精度を維持しながら低精度処理を可能にする NVFP4 や、NVIDIA Dynamo による分離型推論最適化と組み合わせることで、大規模なトレーニングと推論において最高のパフォーマンスを実現します。
GB200 NVL72 上で、Mistral Large 3 は、前世代の NVIDIA H200 と比較して 10 倍のパフォーマンス向上を達成しました。この世代間のパフォーマンス向上は、ユーザー体験の向上、トークンあたりのコスト削減、そしてエネルギー効率の向上につながります。
Mistral AI は最先端の大規模言語モデルの開発を牽引するだけでなく、開発者があらゆる場所で AI を実行できるようにする 9 つの小規模言語モデルもリリースしています。
コンパクトな Ministral 3 スイートは、NVIDIA Spark、RTX 搭載 PC およびノート PC、NVIDIA Jetson デバイスなど、NVIDIA のエッジ プラットフォーム全体で動作するように最適化されています。
最高のパフォーマンスを実現するため、NVIDIA は Llama.cpp や Ollama などの主要な AI フレームワークと連携し、エッジ向けの NVIDIA GPU 全体で最適な性能を発揮できるよう取り組んでいます。
現在、開発者や愛好家は、Llama.cpp や Ollama 通じて Ministral 3 スイートを試すことができ、エッジで高速かつ効率的な AI を活用できます。
Mistral 3 モデル ファミリーはオープンに公開されており、世界中の研究者や開発者は自由に実験やカスタマイズを行い、AI イノベーションを加速できます。また、最先端技術へのアクセスの民主化にも貢献しています。
Mistral AI のモデルを AI エージェントのライフサイクル開発向けに提供されているオープンソースの NVIDIA NeMo ツール (Data Designer、Customizer、Guardrails、NeMo Agent Toolkit) と連携させることで、企業は自社のユース ケースに合わせてこれらのモデルをさらにカスタマイズでき、プロトタイプから本番環境への移行を迅速化できます。
また、クラウドからエッジまで一貫した効率性を実現するため、NVIDIA は Mistral 3 モデル ファミリー向けに、NVIDIA TensorRT-LLM、SGLang、vLLM などの推論フレームワークを最適化しました。
Mistral 3 は、主要なオープンソース プラットフォームやクラウド サービス プロバイダーで利用可能であり、NVIDIA NIM マイクロサービスとしての展開もまもなく可能になります。
これらのモデルは、AI が必要なあらゆる場所ですぐに利用できます。
ソフトウェア製品情報に関する利用規約はこちらをご覧ください。
