Con las elecciones presidenciales estadounidenses de 2024 acercándose, el rápido desarrollo de la tecnología de IA está generando cada vez más preocupación. Recientemente, un análisis de Axios reveló que al menos 26 estados ya han aprobado o están considerando leyes para regular el uso de la IA generativa en las elecciones. Esto significa que, en futuras elecciones, la IA dejará de ser una simple herramienta tecnológica para convertirse en un "factor decisivo" que podría influir en los resultados de las votaciones.

Reunión de un robot de IA y humanos

Nota de la fuente: Imagen generada por IA, proveedor de servicios de licencias de imágenes Midjourney

Como es sabido, la IA generativa puede utilizarse con fines maliciosos, llegando incluso a confundir o reprimir a los votantes. El senador de Virginia, Mark Warner, señaló en un correo electrónico que el riesgo de abuso de la tecnología de IA no debe subestimarse. Afirmó: "Creo que las empresas y plataformas que desarrollan IA generativa no están prestando suficiente atención al potencial de este abuso". Esto ha generado preocupación sobre si el uso de la IA podría afectar la imparcialidad de las elecciones democráticas.

De hecho, ya existen varios ejemplos que demuestran que la IA generativa se ha utilizado para engañar a los votantes. Por ejemplo, en Nuevo Hampshire, se utilizaron llamadas telefónicas falsas generadas por IA que imitaban la voz de Biden para disuadir a los votantes demócratas de participar en las primarias. El año pasado, en julio, un super PAC que apoyaba al gobernador de Florida, Ron DeSantis, utilizó IA para imitar la voz de Trump en anuncios con el fin de atacarlo. Estos eventos han puesto de manifiesto que el mal uso de la IA se ha convertido en un problema que no puede ignorarse.

Aunque algunos estados ya han comenzado a tomar medidas, como Texas, que en 2019 se convirtió en el primer estado en prohibir la creación y difusión de videos de deepfakes dirigidos a candidatos, las medidas regulatorias sobre la IA a nivel federal siguen siendo limitadas. Incluso la orden ejecutiva sobre IA del presidente Biden se basa principalmente en la voluntariedad y carece de mecanismos de aplicación coercitiva.

Actualmente, 19 estados han aprobado leyes dirigidas específicamente a los medios de "deepfakes" generados por IA. California, por ejemplo, prohíbe la difusión de contenido de audio y video con "engaño sustancial" en los 60 días previos a las elecciones, mientras que Minnesota y Michigan prohibieron en 2023 la difusión de contenido de deepfakes generado por IA en los 90 días previos a las elecciones. Además, Nuevo México, Florida y Utah, entre otros, aprobaron este año leyes que exigen la divulgación del contenido generado por IA.

Si bien algunos estados, al considerar las leyes pertinentes, han tenido en cuenta ciertas excepciones, como la divulgación de la información o los anuncios satíricos o de parodia, todavía existen diferencias entre los estados en la clasificación y sanción de las infracciones. A medida que más estados toman medidas, los expertos afirman que para resolver realmente este problema se necesita una acción integral a nivel federal.

**Puntos clave:**

📊 **Al menos 26 estados están considerando o ya han aprobado leyes para regular el uso de la IA generativa en las elecciones.**

📞 **Existen numerosos ejemplos de uso malicioso de la tecnología de IA, incluyendo llamadas falsas y anuncios que imitan la voz de los candidatos.**

⚖️ **Actualmente, las medidas regulatorias a nivel federal son relativamente limitadas, y las leyes estatales también difieren, por lo que se necesita un marco legal más completo.**