Durante las elecciones presidenciales de Estados Unidos, se descubrió que el chatbot Grok de X estaba difundiendo información errónea. Según las pruebas de TechCrunch, Grok a menudo cometía errores al responder preguntas sobre los resultados electorales, incluso llegando a declarar que Trump había ganado estados clave en disputa, a pesar de que el recuento y la notificación de los votos aún no habían finalizado.
En una entrevista, Grok afirmó en varias ocasiones que Trump había ganado las elecciones de Ohio en 2024, aunque esto no era cierto. La fuente de la información errónea parece provenir de tuits de diferentes años electorales y fuentes con redacción engañosa.
En comparación con otros chatbots principales, Grok se mostró más imprudente al manejar preguntas sobre los resultados electorales. ChatGPT de OpenAI y Meta AI de Meta fueron más cautelosos, guiando a los usuarios a consultar fuentes autorizadas o proporcionando información correcta.
Además, Grok ha sido acusado de difundir información electoral errónea en agosto, sugiriendo falsamente que la candidata presidencial demócrata Kamala Harris no era elegible para aparecer en algunas papeletas presidenciales de Estados Unidos. Esta información errónea se difundió ampliamente, afectando a millones de usuarios en X y otras plataformas antes de ser corregida.
El chatbot de inteligencia artificial Grok de X ha sido criticado; la difusión de información electoral errónea podría tener un impacto en los resultados electorales.