MEDICINE & AI

説明可能な人工知能を活用した臨床意思決定支援の最適化

カテゴリ:医療現場の業務効率化

公開日:2026年1月29日

タイトル:Leveraging explainable artificial intelligence to optimize clinical decision support 雑誌名:J Am Med Inform Assoc. 2024 Apr 03; 31(4): 968-974. doi: 10.1093/jamia/ocae019. 概 要: 本研究は、説明可能な人工知能(XAI)を用いて、アラート基準の改善提案を生成するデータ駆動型プロセスを開発・評価することを目的としています。2019年1月1日から2020年12月31日までの間に、バンダービルト大学医療センターで生成されたアラートデータを抽出し、ユーザーのアラート応答を予測する機械学習モデルを構築しました。生成された提案は、アラートの変更履歴や利害関係者のインタビューと比較して評価され、臨床的に正しいと見なされた提案が有用とされました。 方 法: この研究は、バンダービルト大学医療センターで生成されたアラートに関するデータを用いたコホート研究です。2019年から2020年のデータを抽出し、ユーザーのアラート応答を予測するために機械学習モデルを開発しました。XAI技術を用いて、グローバルおよびローカルな説明を生成し、提案の有用性を評価しました。主要評価指標は、ROC曲線下面積(AUC)で、LightGBMモデルが0.919を達成しました。 結 果: 最終データセットには2,991,823件のアラート発生と2689の特徴量が含まれました。5つの機械学習モデルの中で、LightGBMモデルが最も高いAUCを示しました。96件の有用な提案が特定され、278,807件(9.3%)のアラート発生が排除可能であることが示されました。また、一部の提案はワークフローや教育の問題を明らかにしました。 結 論: XAI技術を用いたアラート基準改善のためのデータ駆動型プロセスを開発しました。このアプローチは、手動レビューで見落とされる可能性のある臨床意思決定支援の改善点を特定でき、ワークフローや教育、スタッフの問題に起因するアラート未受理のシナリオを発見する二次的な目的も持っています。