Sesgo en GPT-4 en la toma de decisiones clínicas

Investigadores del Hospital Brigham and Women's evaluaron la presencia de sesgos raciales y de género en GPT-4 en la toma de decisiones clínicas. Descubrieron un sesgo significativo en la generación de casos de pacientes, el desarrollo de planes de diagnóstico y tratamiento, y la evaluación de las características del paciente.

El estudio hace un llamado a la evaluación de sesgos en los grandes modelos de lenguaje para asegurar que su aplicación en el ámbito médico no exacerbe las desigualdades sociales. Los resultados de la investigación se han publicado en la revista The Lancet Digital Health.