Un estudio reciente ha lanzado una seria advertencia sobre la confianza ciega en los consejos médicos proporcionados por la IA. Investigadores alemanes y belgas realizaron una exhaustiva prueba de Bing C0pilot de Microsoft, un motor que supuestamente responde a las 10 preguntas médicas más comunes en Estados Unidos y a 50 preguntas sobre medicamentos populares. Sin embargo, de las 500 respuestas generadas, un sorprendente 24% contradecía completamente el conocimiento médico existente, y el 3% eran completamente erróneas.
Nota de la fuente: Imagen generada por IA, proveedor de servicios de licencias Midjourney
El problema no radica únicamente en los errores. Sorprendentemente, el 42% de las respuestas podrían causar daños leves o moderados a los pacientes, mientras que un alarmante 22% podrían incluso provocar la muerte o lesiones graves. Estas cifras muestran que las recomendaciones de la IA son un plato "de alto riesgo" que nadie debería probar a la ligera.
Para empeorar las cosas, la puntuación de integridad media de estas respuestas de IA fue solo del 77%, siendo la peor respuesta solo del 23% de integridad. En cuanto a la precisión, el 26% de las respuestas diferían de los datos de referencia, y más del 3% contradecían directamente los hechos. Solo el 54% de las respuestas coincidían con el consenso científico, mientras que el 39% iban en contra.
Los resultados de este estudio se han publicado en la revista BMJ Quality & Safety. Los investigadores insisten en que, a pesar del auge de la IA, en el ámbito médico se debe confiar en profesionales de la salud para obtener información precisa y segura sobre medicamentos. Después de todo, nadie quiere ser víctima de un error de la IA, ¿verdad?