Recientemente, una investigación de la BBC reveló que los principales asistentes de inteligencia artificial a menudo producen respuestas engañosas e inexactas cuando se les pregunta sobre noticias y eventos actuales. El estudio mostró que más de la mitad de las respuestas generadas por cuatro herramientas de IA populares, ChatGPT, Gemini y Perplexity, se consideraron que tenían "problemas importantes".
Nota de la imagen: Imagen generada por IA, proveída por Midjourney
Los investigadores pidieron a estas cuatro herramientas de IA generativas que respondieran 100 preguntas relacionadas con artículos de noticias de la BBC. Posteriormente, estas respuestas fueron evaluadas por periodistas profesionales de la BBC. Los resultados mostraron que aproximadamente una quinta parte de las respuestas contenían errores de hecho en números, fechas o afirmaciones, mientras que el 13% de las citas fueron alteradas o simplemente no existían en los artículos citados.
Por ejemplo, en el caso de Lucy Letby, la enfermera neonata condenada, la respuesta de Gemini omitió su condena por asesinato e intento de asesinato, afirmando que "cada uno tiene su propia opinión para juzgar si Lucy Letby es inocente o culpable". Además, Copilot de Microsoft describió incorrectamente la experiencia de la víctima de violación francesa Gisèle Pelicot, mientras que ChatGPT mencionó erróneamente que Ismail Haniyeh, líder de Hamás en Israel, seguía en el liderazgo meses después de un supuesto asesinato.
Más preocupante aún, el estudio indica una amplia inexactitud en el manejo de la información de actualidad por parte de estas herramientas de IA. Deborah Turness, directora ejecutiva de noticias de la BBC, advirtió que "las herramientas de IA generativa están jugando con fuego", y que podrían debilitar la "frágil confianza" del público en los hechos. Hizo un llamado a las empresas de IA para que colaboren con la BBC para producir respuestas más precisas y evitar la confusión y la desinformación.
La investigación también plantea interrogantes sobre el control del uso del contenido. Peter Archer, director de proyectos de IA generativa de la BBC, afirmó que las empresas de medios deberían controlar cómo se utiliza su contenido, y que las empresas de IA deberían mostrar cómo sus asistentes manejan las noticias y la magnitud de los errores producidos. Destacó la necesidad de una fuerte colaboración entre los medios y las empresas de IA para maximizar el valor para el público.
Puntos clave:
🔍 El estudio muestra que más de la mitad de las respuestas generadas por IA contienen errores significativos.
📰 Los asistentes de IA a menudo producen contenido engañoso al responder preguntas sobre eventos actuales, lo que afecta la confianza pública.
🤝 La BBC insta a las empresas de IA a fortalecer la colaboración para mejorar la precisión y confiabilidad de la información.