ニューヨーク大学と NVIDIA、患者の再入院を予測する大規模言語モデルを共同開発

投稿者: Anthony Costa

NYU Langone Health が『Nature』で紹介された AI モデル、NYUTron を導入

退院は患者にとって大きな節目ですが、回復への道のりがこれで終わりではないこともあります。米国では、入院患者の 15% 近くが退院後 30 日以内に再入院しており、この再入院は、患者と病院の双方にとって、より悪い転帰と高いコストにつながることが多いです。

ニューヨーク大学の学術医療センターである NYU Langone Health の研究者は、NVIDIA の専門家と共同で、患者の 30 日再入院のリスクやその他の臨床転帰を予測する大規模言語モデル (LLM) を開発しました。

医療システムの 6 つの入院施設に導入された NYUTron モデルは、科学雑誌『Nature』で紹介され、再入院の可能性を減らすために臨床介入が必要な患者を医師が特定するのに役立つ AI 主導の洞察を提供しています。

NYU グロスマン医学部の放射線学と神経外科の助教授であり、NYUTron のプロジェクトを主導する Eric Oermann 博士は次のように述べています。「再入院をする可能性がある場合は本来、患者を退院させずに、もう少し長く入院させるべきです。AI モデルの分析を活用することで、我々は患者を再入院の高いリスクにさらす状況を迅速に予防、改善し、臨床医へ寄与できます。」

このモデルは、これまでに NYU の医療システムで退院した 5 万人以上の患者に適用され、電子メールによる通知で医師と再入院リスクの予測を共有しています。Oermann 博士のチームは次に、NYUTron の分析に基づく介入が再入院率を下げるかどうかを検証する臨床試験を計画しています。

再入院のリスクを減らすための取り組み

米国政府は、病院が提供する医療の質を示す指標として、30 日再入院率を追跡しています。再入院率が高い医療機関には罰金が課され、病院が退院プロセスを改善する動機付けとなっています。

感染症、抗生物質の過剰処方、ドレーンの早期抜去など、退院したばかりの患者が再入院を余儀なくされる理由はさまざまです。これらの危険因子を早期に発見できれば、医師は治療計画を調整したり、入院中の患者をより長く観察したりできます。

Oermann 博士は次のように述べています。「1980 年代から患者の再入院を予測する計算モデルはありましたが、我々はこれを医療システム規模の臨床テキストのコーパスを必要とする自然言語処理タスクとして扱っています。これまで人々が考えもしなかった洞察を得るために、電子カルテの非構造化データに基づいて LLM をトレーニングしました。」

NYUTron は、NYU Langone Health の 10 年分の健康記録 (約 40 万人の患者を表す 40 億ワード分以上の臨床記録) を用いて事前トレーニングされています。これにより、このモデルは、再入院を予測する最先端の機械学習モデルに対して 10% 以上の精度向上を達成しました。

チームは、LLM を、30 日後の再入院という最初のユースケースに対してトレーニングを行った後、1 週間程度で他の 4 種の予測アルゴリズムを作り上げることができました。その中には、患者の入院期間、院内死亡の可能性、患者の保険請求が却下される可能性の予測も含まれています。

「病院の経営はある意味、ホテルの経営と同じです。病院の効率的な運営を支援する知見は、より多くの病床数と多くの患者へのより良いケアを意味します。」と Oermann 博士は言います。

LLM のトレーニングから展開まで

NYUTron は、NVIDIA A100 Tensor コア GPU の大規模クラスタ上で NVIDIA NeMo Megatronフレームワークを用いて学習させた、数億個のパラメータを持つ LLM です。

Oermann 博士は次のように述べています。「言語モデルに関する話題の多くは、何百、何千もの GPU を用いて雑多なデータセットでトレーニングされた、何十億ものパラメータを持つ巨大な汎用モデルに関するものです。その代わりに、高度に洗練されたデータでトレーニングされた中規模のモデルを使用して、ヘルスケアに特化したタスクを達成しようとしています。」

実世界の病院で活用可能な推論にモデルを最適化するため、研究チームは NVIDIA TensorRT ソフトウェア開発キットを用いて、AI モデルの展開を効率化するためのオープンソース ソフトウェアである NVIDIA Triton の更新版を開発しました。

Oermann 博士は次のように述べています。「このようなモデルを臨床現場に導入するには、効率的に実行する必要があります。Triton は推論フレームワークに必要な要素をすべて備えており、これにより我々のモデルは非常に高速に動作できるのです。」

Oermann 博士の研究チームは、LLM を事前にトレーニングした後、特定の病院のデータを使って現場でファインチューニングすることで、精度が大幅に向上することを発見しました。この特性は、他の医療機関が同様のモデルを導入する際に役立つと考えられます。

「すべての病院が院内で大規模言語モデルをゼロからトレーニングするリソースを持っているわけではありませんが、NYUTron のような事前にトレーニングされたモデルを採用し、クラウド上の GPU を活用すればローカル データの小さなサンプルでファインチューニングすることができます。これは、医療に従事するほぼすべての人の手が届くところにあります。」

NYUTron の詳細については、『Nature』掲載の論文をご覧ください。また、NVIDIA と NYU の GTC のセッションもオンデマンドでご視聴いただけます。