Con las elecciones presidenciales de Estados Unidos de 2024 acercándose, hemos entrado en una nueva era: la inteligencia artificial (IA) generativa está comenzando a desempeñar un papel en la contienda electoral. ¡Imagine que las decisiones de los votantes puedan verse influenciadas por imágenes, videos y audios generados por IA! Recientemente, el expresidente Trump compartió imágenes generadas por IA que mostraban a fanáticos de Taylor Swift usando camisetas con su apoyo, imágenes que inicialmente fueron etiquetadas como sátira.

QQ20240903-095738.jpg

Más preocupante aún, en enero, algunos residentes de New Hampshire recibieron llamadas con deepfakes que intentaban disuadirlos de participar en las primarias demócratas. A pocos meses de las elecciones, los expertos advierten que la desinformación generada por IA aumentará, mientras que la tecnología para detectarla sigue siendo insuficiente. Lance Hunt, profesor de ciencia política de la Universidad de Georgia, señala: "Si una parte de la población no se da cuenta de que es falso, podría tener un impacto sustancial en el resultado electoral".

La IA generativa va más allá de los chatbots; puede generar imágenes, videos y audio. Esta tecnología se está extendiendo rápidamente por todo el mundo, siendo accesible para cualquiera, incluidos aquellos que buscan utilizarla con fines maliciosos. De hecho, esto ya ha ocurrido en países como India, Indonesia y Corea del Sur, aunque no está claro si este contenido influyó en las decisiones de los votantes. ¡Imagine el impacto de un video falso de Trump o la vicepresidenta Harris propagándose por internet!

La Agencia de Seguridad de Ciberseguridad e Infraestructura (CISA) del Departamento de Seguridad Nacional de Estados Unidos está muy atenta a las amenazas potenciales de la IA generativa. Kate Conley, asesora principal de CISA, afirma: "Los adversarios extranjeros han atacado las elecciones estadounidenses y su infraestructura en elecciones anteriores, y esperamos que esta amenaza continúe en 2024". Destaca que CISA está proporcionando orientación a los funcionarios electorales estatales y locales sobre operaciones de influencia extranjera y desinformación.

Entonces, ¿cómo podemos prevenir el caos generado por la IA generativa antes de las elecciones? El problema es que muchos contenidos generados son difíciles de identificar como falsos. Con el avance de la tecnología, la IA ha pasado de generar imágenes con "15 dedos" a creaciones realistas.

En julio del año pasado, el gobierno de Biden obtuvo compromisos voluntarios de empresas como Amazon, Anthropic, Google, Meta, Microsoft y OpenAI para abordar los riesgos potenciales de la IA. Sin embargo, estos acuerdos no son legalmente vinculantes. El profesor Hunt cree que en el futuro habrá legislación bipartidista a nivel federal para regular la desinformación en las campañas políticas.

Las plataformas de redes sociales como Meta, TikTok y X también podrían desempeñar un papel en la prevención de la difusión de medios falsos, como etiquetar claramente el contenido generado por IA o incluso prohibirlo. Sin embargo, las herramientas de detección actuales no son perfectas. Algunas son criticadas como "remedios milagrosos" que no ofrecen respuestas definitivas, limitándose a juicios vagos como "85% de probabilidad".

Con las elecciones a la vuelta de la esquina y la tecnología de IA generativa avanzando rápidamente, la preocupación es si los malos actores aprovecharán esta tecnología para crear más caos online antes de que comiencen las votaciones. El resultado final de las elecciones queda por verse.