布里格姆和妇女医院的研究人员评估了 GPT-4 在临床决策中是否存在种族和性别偏见。他们发现,GPT-4 在生成患者案例、制定诊断和治疗计划,以及评估患者特征时存在明显的偏见。研究呼吁对大型语言模型进行偏见评估,以确保其在医学领域的应用不会加剧社会偏见。研究结果已发表在《柳叶刀数字健康》杂志上。