Según un nuevo estudio del Centro de Noticias Digitales del Columbia Journalism Review, las populares herramientas de búsqueda de IA proporcionan información incorrecta o engañosa en más del 60% de los casos al responder preguntas. Este resultado es preocupante, ya que estas herramientas no solo socavan la confianza del público en los informes periodísticos, sino que también hacen que los editores sufran pérdidas de tráfico e ingresos.
Nota de la fuente de la imagen: Imagen generada por IA, proveedora de servicios de licencias de imágenes Midjourney
Los investigadores probaron ocho chatbots de IA generativa, incluyendo ChatGPT, Perplexity, Gemini y Grok, pidiéndoles que identificaran extractos de 200 artículos de noticias recientes. Los resultados mostraron que más del 60% de las respuestas fueron incorrectas; estos chatbots a menudo inventaban títulos, no citaban artículos o citaban contenido sin autorización. Incluso cuando identificaban correctamente al editor, los enlaces a menudo conducían a URL caducadas, versiones reimpresas o páginas irrelevantes.
Resulta decepcionante que estos chatbots rara vez expresaran incertidumbre, ofreciendo en cambio respuestas incorrectas con una confianza inapropiada. Por ejemplo, ChatGPT proporcionó 134 informaciones incorrectas en 200 consultas, pero solo expresó dudas en 15 ocasiones. Incluso las versiones de pago de Perplexity Pro y Grok3 tuvieron un rendimiento deficiente, con un mayor número de respuestas incorrectas, a pesar de sus precios de 20 y 40 dólares mensuales respectivamente.
En cuanto a las citas de contenido, varios chatbots no lograron respetar las restricciones de los editores; cinco chatbots incluso ignoraron el protocolo de exclusión de robots, un estándar ampliamente aceptado. Perplexity, por ejemplo, citó correctamente un artículo de National Geographic a pesar de que el editor había restringido su rastreador web. Simultáneamente, ChatGPT volvió a citar un artículo de USA Today detrás de un muro de pago a través de Yahoo News sin autorización.
Además, muchos chatbots dirigieron a los usuarios a artículos reimpresos en plataformas como AOL o Yahoo en lugar de a la fuente original, incluso cuando ya existían acuerdos de licencia con las empresas de IA. Por ejemplo, Perplexity Pro citó una versión reimpresa del Texas Tribune sin la atribución adecuada. Grok3 y Gemini, por su parte, a menudo inventaban URL; Grok3 enlazó a páginas incorrectas en 154 de sus 200 respuestas.
Este estudio destaca la creciente crisis a la que se enfrentan los medios de comunicación. Cada vez más estadounidenses utilizan herramientas de IA como fuente de información, pero a diferencia de Google, los chatbots no dirigen el tráfico a los sitios web; en cambio, resumen el contenido sin enlace alguno, lo que hace que los editores pierdan ingresos por publicidad. Danielle Coffey, de la News Media Alliance, advirtió que sin control sobre los rastreadores web, los editores no podrán "monetizar eficazmente el contenido valioso o pagar a los periodistas".
Después de contactar a OpenAI y Microsoft, aunque defendieron sus prácticas, no respondieron a los hallazgos específicos del estudio. OpenAI declaró que "respeta las preferencias de los editores" y ayuda a los usuarios a "descubrir contenido de calidad", mientras que Microsoft afirmó que sigue el protocolo "robots.txt". Los investigadores destacaron que las prácticas de citación incorrectas son un problema sistémico, no un fenómeno de herramientas individuales. Pidieron a las empresas de IA que mejoren la transparencia, la precisión y el respeto por los derechos de los editores.
Puntos clave:
📊 El estudio revela que los chatbots de IA tienen una tasa de error superior al 60%, lo que afecta gravemente la credibilidad de las noticias.
📰 Varios chatbots ignoran las restricciones de los editores, citando contenido sin autorización y enlaces incorrectos.
💰 Los medios de comunicación se enfrentan a una doble crisis de tráfico e ingresos, con las herramientas de IA sustituyendo gradualmente a los motores de búsqueda tradicionales.