Una nueva tendencia ha surgido en la plataforma social X (anteriormente Twitter), propiedad de Elon Musk: algunos usuarios están utilizando Grok, el chatbot de inteligencia artificial desarrollado por la empresa de IA de Musk, xAI, para la "verificación de hechos". Esta práctica ha generado preocupación entre los verificadores de hechos humanos profesionales, quienes temen que pueda contribuir a la propagación de información falsa.

Grok, Musk, xAI

A principios de mes, la plataforma X permitió a los usuarios acceder directamente a Grok de xAI para realizar preguntas, pudiendo solicitar respuestas sobre diversos temas. Esta medida es similar a la estrategia de otra empresa, Perplexity, que opera cuentas automatizadas en X para ofrecer un servicio similar.

Poco después del lanzamiento de la cuenta automatizada de Grok de xAI en la plataforma X, los usuarios comenzaron a plantearle diversas preguntas. En mercados como el de la India, algunos usuarios empezaron a pedir a Grok que "verificara" comentarios y preguntas relacionados con determinadas posturas políticas.

Sin embargo, los verificadores de hechos humanos expresan su preocupación por el uso de Grok o cualquier asistente de IA similar para la "verificación de hechos", ya que estos robots pueden construir respuestas convincentes incluso cuando proporcionan información incorrecta. En el pasado, se han registrado casos de Grok difundiendo noticias falsas e información engañosa.

En agosto del año pasado, cinco secretarios de estado de EE. UU. instaron a Musk a realizar ajustes cruciales en Grok, después de que el asistente difundiera información engañosa en las redes sociales antes de las elecciones presidenciales estadounidenses. Además, otros chatbots, como ChatGPT de OpenAI y Gemini de Google, también fueron detectados el año pasado generando información inexacta sobre las elecciones. Investigadores especializados en la lucha contra la desinformación descubrieron en 2023 que los chatbots de IA, incluido ChatGPT, podían generar fácilmente textos convincentes con narrativas engañosas.

Angie Holan, directora de la Red Internacional de Verificación de Hechos (IFCN), declaró a la publicación tecnológica TechCrunch: "Los asistentes de IA como Grok son muy buenos usando el lenguaje natural y dando respuestas que suenan como si las dijera una persona. Esto les da una sensación de naturalidad y autenticidad, incluso si el producto de IA tiene potencialmente errores graves. Ahí radica el peligro potencial".

Un usuario de X pidió a Grok que verificara la afirmación de otro usuario. A diferencia de los asistentes de IA, los verificadores de hechos humanos utilizan múltiples fuentes confiables para verificar la información. También asumen la responsabilidad total de sus hallazgos, firmando y adjuntando su afiliación para garantizar la credibilidad.

Pratik Sinha, cofundador del sitio web indio de verificación de hechos sin fines de lucro Alt News, señala que, aunque Grok parece dar respuestas convincentes, su capacidad depende totalmente de la calidad de los datos que recibe. Destaca: "¿Quién decide qué datos recibe? Preguntas como la intervención gubernamental surgen inmediatamente. La falta de transparencia es inherentemente perjudicial, ya que cualquier cosa que carezca de transparencia puede moldearse a voluntad... puede ser utilizada indebidamente para difundir desinformación".

En una respuesta publicada a principios de esta semana, la cuenta oficial de Grok en la plataforma X admitió que "puede ser utilizada indebidamente para difundir desinformación y violar la privacidad". Sin embargo, la cuenta automatizada no muestra a los usuarios ninguna advertencia cuando proporciona respuestas; si sus respuestas son producto de "alucinaciones", los usuarios pueden ser engañados, lo cual es una de las posibles desventajas de la IA. Anushkha Jain, investigadora del Digital Futures Lab, una institución de investigación interdisciplinaria en Goa, comentó a TechCrunch: "Puede inventar información para responder".

Además, existen dudas sobre hasta qué punto Grok utiliza las publicaciones de la plataforma X como datos de entrenamiento y qué medidas de control de calidad utiliza para verificar la veracidad de esas publicaciones. El verano pasado, la plataforma X realizó un cambio que aparentemente permitía a Grok usar los datos públicos de los usuarios de X de forma predeterminada.

Otro aspecto preocupante de la difusión pública de información a través de plataformas de redes sociales por parte de asistentes de IA como Grok es que, incluso si algunos usuarios saben claramente que la información obtenida de los asistentes de IA puede ser engañosa o inexacta, otros usuarios de la plataforma pueden creerla. Esto puede tener graves consecuencias sociales. En India, la difusión de información falsa a través de WhatsApp ha provocado actos de violencia colectiva en el pasado, aunque estos graves incidentes ocurrieron antes de la aparición de la IA generativa, y ahora la IA generativa facilita la creación de contenido sintético que es más realista.

Holan, de la Red Internacional de Verificación de Hechos (IFCN), afirma: "Si ves muchas respuestas de Grok, podrías pensar que la mayoría son correctas, y tal vez lo sean, pero seguramente algunas son incorrectas. ¿Qué porcentaje es incorrecto? No es un porcentaje pequeño. Algunos estudios sugieren que la tasa de error de los modelos de IA es de hasta un 20%... y cuando se equivocan, puede tener graves consecuencias en el mundo real".

Las empresas de IA, incluida xAI, están mejorando sus modelos de IA para que se comuniquen de forma más parecida a la humana, pero actualmente no lo son —y en el futuro tampoco podrán ser— un sustituto de los humanos. En los últimos meses, las empresas tecnológicas han estado explorando formas de reducir la dependencia de los verificadores de hechos humanos. Plataformas como X y Meta han comenzado a experimentar con la verificación de hechos mediante crowdsourcing, a través de las llamadas "notas de la comunidad". Por supuesto, estos cambios también han generado preocupación entre los verificadores de hechos.

Sinha, de Alt News, se muestra optimista y cree que la gente acabará aprendiendo a distinguir entre los verificadores de hechos humanos y las máquinas, y dará más importancia a la precisión humana. Holan también opina que: "Al final, veremos que el péndulo vuelve a dar más importancia a la verificación de hechos". Sin embargo, señala que, mientras tanto, los verificadores de hechos probablemente tendrán más trabajo que hacer debido a la rápida difusión de la información generada por la IA. También añade: "Gran parte de este problema depende de si realmente te importa lo que es verdad, o si simplemente buscas algo que suene y se sienta verdad, pero que en realidad no lo es. Porque eso es lo que los asistentes de IA pueden ofrecer".

Ni X ni xAI respondieron a las solicitudes de comentarios.

Puntos clave:

  • 🤖 El robot de IA Grok de Musk se utiliza para la verificación de hechos en la plataforma X, lo que genera preocupación entre los verificadores humanos por la propagación de información engañosa.
  • ⚠️ Los asistentes de IA como Grok pueden generar respuestas que suenan creíbles pero que son inexactas, y carecen de transparencia en el control de calidad y el origen de los datos.
  • 👨‍👩‍👧‍👦 Los verificadores de hechos humanos dependen de múltiples fuentes confiables y asumen la responsabilidad, mientras que la IA no puede reemplazar el papel de los humanos en la verificación de información.