MEDICINE & AI

機械学習モデルにおける公平性の評価:慢性疾患患者の死亡予測における人種的バイアスの研究

カテゴリ:高齢者医療・介護

公開日:2026年2月19日

タイトル:Assessing fairness in machine learning models: A study of racial bias using matched counterparts in mortality prediction for patients with chronic diseases. 雑誌名:J Biomed Inform. 2024 Aug; 156: 104677. 概 要: 本研究は、慢性疾患患者の死亡予測における人種的格差を評価することを目的とし、社会的健康決定要因の体系的な違いを考慮した公平性検出手法を用いました。既存の公平性評価アプローチは、比較グループ間の人口統計や社会経済的要因の違いを見落としがちであり、誤った結論を導く可能性があります。研究では、心不全、慢性腎疾患、慢性閉塞性肺疾患、慢性肝疾患、認知症の5つの慢性疾患に焦点を当てたデータセットを作成し、黒人と白人の予測性能を比較しました。 方 法: 本研究では、マス・ジェネラル・ブリガムの電子健康記録から5つのデータセットを作成し、それぞれ異なる慢性疾患に焦点を当てました。各データセットに対して1年の死亡率を予測する機械学習モデルを開発し、傾向スコアマッチングを用いて黒人と白人の個体を比較しました。これにより、体系的な違いを緩和しながら人種的公平性を評価しました。 結 果: 黒人と白人の間で、年齢、性別、婚姻状況、教育レベル、喫煙状況、健康保険の種類、体格指数、Charlson併存疾患指数に有意な差が見られました(p値<0.001)。傾向スコアマッチングを用いた黒人と白人のサブポピュレーションを調査した結果、特定の共変量において有意差が観察されました。死亡予測モデルの公平性評価を体系的な違いを緩和する前後で比較したところ、心不全コホートにおいて有意な差が示されました(AdaBoostモデルのF1スコアと感度でp値0.021および0.001、MLPモデルでp値0.014および0.003)。 結 論: 本研究は、体系的な格差の検討に焦点を当てることで公平性評価に貢献し、臨床設定で使用される機械学習モデルにおける人種的バイアスを明らかにする可能性を強調しています。