NVIDIAは本日、開発者向けに開催されたイベント、NVIDIA AI Day Tokyo において、AI スタートアップのストックマークがゼロから開発した1000 億パラメーターの日本語大規模言語モデル (LLM)、「Stockmark-2-100B-Instruct (以下Stockmark-2)」を NVIDIA NIM マイクロサービスとして提供を開始したことを発表しました。
LLMを実務で活用する難しさと、それを解決するNVIDIA NIM
LLM は研究段階で高い性能を示しますが、企業が実務で活用しようとすると、さまざまな困難が立ちはだかります。1000 億パラメーター クラスのモデルでは、推論やリーズ二ング、ファインチューンに高性能なGPU環境が必要となるため導入コストがかかり、ユーザー数が増えるとレスポンスの遅延やシステム負荷の問題も発生します。さらに、モデルの環境構築や最適化、API化には高度な専門知識が必要であり、企業や自治体での業務利用ではデータの機密性や安定稼働を確保することも不可欠です。このように、性能は十分であっても、実務で安全かつ効率的に活用するハードルが高いことが、ビジネスでの本番導入における障壁となっていました。
このような課題を解決するためにNVIDIAが提供するのが、NVIDIA NIM マイクロサービスです。NVIDIA NIM は、AI モデルの本番環境への展開と、AIを搭載したエンタープライズ アプリケーションの開発を効率化する、最適化されたクラウド ネイティブなマイクロサービス群を提供します。クラウド、データ センター、GPU 対応ワークステーションなど、場所を問わず生成 AI モデルのデプロイをシンプルに行えるように設計され、市場投入までの時間を短縮します。また、最適化されたモデルと推論技術を業界標準のAPI、およびセキュアなクラウド ネイティブ ランタイムと統合することで、企業がプライベートAIモデルを展開する際の複雑さを抽象化します。
コミュニティ モデル、NVIDIA AI Foundation モデル、NVIDIA のパートナーが提供するカスタム AI モデルなど、多くの AI モデルをサポートする NIM は、複数のドメインにわたる AI のユース ケースをサポートします。これにはLLM や視覚言語モデル (VLM) のほか、音声、画像、動画、3D、創薬、医用画像処理などに対応する数々のモデルが含まれます。
日本語特化型のフルスクラッチモデルへの挑戦
今回新たにNIMとして提供されるカスタム AI モデルは、NVIDIAのスタートアップ支援プログラム、NVIDIA Inception のメンバーであるストックマークが開発した日本語LLM、 Stockmark-2です。自然言語処理に特化したストックマークはこれまで、製造業向け AI エージェント「Aconnect」や業務 AI 実装支援プラットフォーム「SAT」を展開し、トヨタ自動車、パナソニック、日清食品、サントリーなど多くの企業で導入実績を積み上げてきました。産業技術総合研究所や東北大学、理化学研究所などとの産学連携による、自然言語処理基盤の技術開発も推進しています。また、日本語特化型LLMの開発で国内トップクラスの実績を持ち、複数の高性能モデルを国内外に公開しています。
Stockmark-2は、ストックマークがゼロから開発したフルスクラッチモデルです。LLMの開発には、コストや時間の削減の観点から、オープンソースの既存LLMをベースに開発することが一般的です。しかし、ビジネス特有の複雑な文脈や専門用語の理解において、精度と独自性の面で課題を抱えていました。この課題を解決するため、ストックマークは、あえてフルスクラッチでの開発を選択しました。
このプロジェクトでは、膨大な日本語のビジネス文書や会話文をトレーニング データとして活用し、NVIDIAのコンピューティング プラットフォームとNVIDIA NeMo Frameworkを駆使することで、モデル開発における計算処理を効率的に実行しました。さらにNVIDIA TensorRT-LLMを用いて学習データの生成の効率化を行うなどの工夫がされています。独自の開発アプローチにより、ストックマークは、単なる言語モデルではなく、厳密性と専門性が求められるビジネスドメインで高精度な性能を発揮し、ビジネスの意思決定を支援する独自のAI基盤モデルを構築することに成功しました。この取り組みは、技術的な挑戦であると同時に、日本のビジネス環境に最適化されたAIソリューションを提供するというストックマークの強いコミットメントを象徴しています。

国内最大規模の1,000億パラメータを誇るStockmark-2は、日本語特有の文脈に対する優れた理解によって、ビジネス文書や会話文の高精度な要約や解析を可能にします。また、ハルシネーションを抑えた設計により、業務利用における安定性も確保されています。このような高い性能が評価され、NIMによる効率的な運用と親和性が高いことから今回NVIDIA NIMとしての提供につながりました。
NIMを通じて、国産の高度なLLMの活用がより身近に
開発者が GPU 環境にコンテナを展開するだけで、数行のコードでAPIを通じて呼び出せるため、1000億パラメータクラスの大規模モデルを手軽に利用することができるようになります。また、NIMはエンタープライズ グレードのセキュリティ、サポート、安定性を提供する NVIDIA AI Enterprise 環境で動作することから、ビジネス ユースに耐えうる信頼性が備わっています。そのため、機密性が求められる自治体、医療、製造分野などでも、国産LLMを活用する現実的な選択肢が広がります。
ストックマーク株式会社 CTOの有馬幸介氏は次のように述べています。「NIMを通じた提供により、Stockmark-2は GPU 環境上で効率的に動作することが可能になり、従来比で推論速度が最大 2.5 倍向上し※、リソース消費も最適化されました。これまでこうした大規模なモデルを使うには、専用の運用環境や高い運用スキルが求められていましたが、NIMとして提供されることで、国内クラウドやオンプレミスといった多様なインフラ上で安全かつ柔軟に運用できるようになるでしょう。日本語 LLMを活用したアプリケーション開発が格段に身近になることを大変嬉しく思います」
国産の高度なLLMと、セキュリティと信頼性が備わった実装基盤の両方が揃ったことで、ソブリンAIを支える開発環境が、より実用的なものとして開かれつつあります。スタートアップの技術と開発者の手元が、着実につながっていると言えます。
今すぐ活用可能
開発者は、NVIDIA API カタログから NVIDIA のマネージド クラウドの API を使用して、本モデルを試すことができます。また、NIM をダウンロードしてモデルをセルフホストしたり、Kubernetes を使って主要なクラウド プロバイダーや本番向けのオンプレミスの環境に迅速にデプロイすることもできます。
Stockmark-2に関するさらなる詳細、およびモデル性能や推論速度に関するベンチマーク結果は、NVIDIAの技術ブログをご覧ください。
ストックマークをご紹介した NVIDIAのカスタマー ストーリーもご覧ください。
※ 2x NVIDIA B200 Tensor コア GPU上で、一般的に使用されるオープンソースLLM推論ソフトウェアとのスループット(時間あたりトークン生成数)を比較