AIテキストから画像生成器による患者描写の人口統計的不正確さとバイアス
カテゴリ:公衆衛生・予防医療
公開日:2025年7月20日
タイトル:Demographic inaccuracies and biases in the depiction of patients by artificial intelligence text-to-image generators.
雑誌名:NPJ Digit Med. 2025 Jul 19; 8(1): 459. doi: 10.1038/s41746-025-01817-6. Epub 2025 Jul 19.
概 要:
本研究は、AIテキストから画像生成器が医療における誤解を助長する役割についての懸念を受け、4つの一般的な生成器による患者描写の人口統計的正確性と潜在的バイアスを評価しました。Adobe Firefly、Bing Image Generator、Meta Imagine、Midjourneyを用いて、29種類の病気を持つ患者の9060枚の画像が生成されました。12人の独立した評価者が、描写された患者の性別、年齢、体重、人種および民族を判断しました。生成された画像は、実際の疫学と比較して、性別、年齢、人種および民族の特性を正確に描写できていないことが示されました。また、白人および標準体重の個人が過剰に描写される傾向が見られました。これらの不正確さとバイアスは、非代表的かつ特定されていないトレーニングデータや不十分または誤ったバイアス軽減戦略に起因する可能性があります。したがって、これらの不正確さとバイアスに対抗する新たな戦略が必要です。
方 法:
本研究では、4つのAIテキストから画像生成器を使用して、29種類の病気を持つ患者の9060枚の画像を生成しました。12人の独立した評価者が、生成された画像に描かれた患者の性別、年齢、体重、人種および民族を評価しました。生成された画像の人口統計的特性を実際の疫学データと比較しました。
結 果:
生成された画像は、性別、年齢、人種および民族の特性を正確に描写できていないことが明らかになりました。特に、白人および標準体重の個人が過剰に描写される傾向がありました。これらの結果は、AI生成画像の人口統計的な不正確さとバイアスを示しています。
結 論:
AIテキストから画像生成器による患者描写には、人口統計的な不正確さとバイアスが存在し、これらは非代表的なトレーニングデータや不十分なバイアス軽減戦略に起因する可能性があります。これに対処するための新たな戦略が必要であることが示唆されました。