MEDICINE & AI

ChatGPTを用いた臨床シナリオ生成と評価のための選択肢問題作成:ランダム化比較試験

カテゴリ:医学教育

公開日:2026年2月19日

タイトル:ChatGPT to generate clinical vignettes for teaching and multiple-choice questions for assessment: A randomized controlled experiment 雑誌名:Med Teach. 2025 Feb; 47(2): 268-274. 概 要: 本研究は、ChatGPTを用いて生成された臨床シナリオと選択肢問題の実際のパフォーマンスを評価することを目的としています。74人の医学生を無作為に2つのグループに分け、ChatGPTグループにはChatGPTが生成した不明瞭な症例を、対照グループには人間が作成した症例を提供しました。トレーニング終了後、参加者は10のステートメントをリッカート尺度で評価し、ChatGPTが生成した15の選択肢問題に回答しました。両グループの症例評価を比較しました。 方 法: 本研究は、エビデンスに基づく医学トレーニングプログラムにおけるランダム化比較試験です。74人の医学生を無作為に2つのグループに割り当て、ChatGPTグループにはChatGPT生成の症例、対照グループには人間作成の症例を提供しました。参加者は10のステートメントをリッカート尺度で評価し、15の選択肢問題に回答しました。評価の比較とテストの心理測定特性(項目の難易度とポイント・バイセリアル相関)を報告しました。 結 果: 10のステートメントに関するスコアにおいて、ChatGPTグループと対照グループ間に有意差は見られませんでした(p > .05)。テストでは、6つの選択肢問題が許容可能なポイント・バイセリアル相関(0.30以上)を示し、5つの項目は教室環境での使用に適していると考えられました。 結 論: 結果は、ChatGPTによって生成された臨床シナリオの質が人間作成のものと同等であることを示しました。また、一部の選択肢問題は許容可能な心理測定特性を持っています。ChatGPTは、医学教育における教育用臨床シナリオや評価用選択肢問題の生成において潜在能力を持つことが示唆されました。