大規模言語モデルによる医療意思決定における社会人口統計的バイアス
カテゴリ:高齢者医療・介護
公開日:2026年2月19日
タイトル:Sociodemographic biases in medical decision making by large language models
雑誌名:Nat Med. 2025 Jun; 31(6): 1873-1881.
概 要:
本研究は、大規模言語モデル(LLMs)が医療において有望である一方で、患者の社会人口統計的特性が影響を与えた医療的に正当化されない臨床ケアの推奨を生み出す可能性があることを懸念しています。1,000件の救急科ケース(実際の500件と合成の500件)から生成された170万以上のモデル出力を分析し、32のバリエーション(31の社会人口統計グループとコントロール)で提示しました。特に、黒人や無家者、LGBTQIA+と識別されるケースは、緊急ケアや侵襲的介入、精神的健康評価に向けられることが多かったことが示されました。
方 法:
本研究では、9つの大規模言語モデルを評価し、1,000件の救急科ケースから生成された1.7百万の出力を分析しました。各ケースは、臨床詳細を一定に保ちながら、32のバリエーションで提示されました。医師由来のベースラインおよび各モデルの社会人口統計識別子なしのコントロールケースと比較しました。
結 果:
LGBTQIA+とラベル付けされたケースは、臨床的に必要とされる約6〜7倍の頻度で精神的健康評価を推奨されました。また、高所得のケースは、CTやMRIなどの高度な画像検査を有意に多く推奨され(P < 0.001)、低・中所得のケースは基本的な検査またはさらなる検査が制限される傾向がありました。これらの違いは、臨床的な理由やガイドラインによって支持されていないことが示されました。
結 論:
LLMsによる医療アドバイスが公平で患者中心であることを確保するためには、バイアス評価と軽減戦略の強化が必要であることが示されました。これらの結果は、プロプライエタリモデルとオープンソースモデルの両方で観察され、健康格差を引き起こす可能性があることを示唆しています。