不確実性を考慮した大規模言語モデルによる説明可能な疾患診断
カテゴリ:手術支援
公開日:2025年11月19日
タイトル:Uncertainty-aware large language models for explainable disease diagnosis
雑誌名:NPJ Digit Med. 2025 Nov 18; 8(1): 690. doi: 10.1038/s41746-025-02071-6. Epub 2025 Nov 18.
概 要:
本研究は、患者情報(症状など)と計算モデルを活用して、可能性のある診断とその理由を生成する説明可能な疾患診断の重要性を強調しています。臨床ノートに決定的な症状が欠如している場合、診断の不確実性が生じ、誤診のリスクが高まります。この問題に対処するため、診断基準でファインチューニングされた不確実性を考慮した大規模言語モデル「ConfiDx」を提案しました。診断の不確実性を明示的に特定し説明するタスクを定義し、診断の曖昧さを反映した豊富に注釈されたデータセットを作成しました。実世界のデータセットでの評価により、ConfiDxは診断の不確実性を特定する能力に優れ、診断性能を向上させ、診断と不確実性に対する信頼できる説明を生成することが示されました。
方 法:
本研究では、診断基準でファインチューニングされた不確実性を考慮した大規模言語モデル「ConfiDx」を使用しました。診断の不確実性を特定するタスクを形式化し、診断の曖昧さを反映した注釈付きデータセットを作成しました。実世界のデータセットを用いて評価を行い、診断性能と不確実性の認識・説明能力を測定しました。
結 果:
ConfiDxは、診断の不確実性を特定する能力において優れた性能を示し、診断性能を向上させました。専門家による評価では、ConfiDxを使用した場合、単独の専門家に比べて不確実性の認識が10.7%、不確実性の説明が26%向上しました。
結 論:
ConfiDxは、診断の不確実性を高精度で特定し、臨床意思決定を改善する可能性を示しました。このモデルは、説明可能な疾患診断において重要な役割を果たすことが期待されます。