À l'approche de l'élection présidentielle américaine de 2024, le développement rapide de l'IA suscite de plus en plus d'inquiétudes. Une récente analyse d'Axios révèle qu'au moins 26 États ont déjà adopté ou envisagent des lois pour réglementer l'utilisation de l'IA générative lors des élections. Cela signifie que, lors des prochaines élections, l'IA ne sera plus un simple outil technologique, mais un véritable « changeur de règles » susceptible d'influencer les résultats du vote.

Robot IA et réunion humaine

Source : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney

Il est de notoriété publique que l'IA générative peut être utilisée à des fins malveillantes, voire pour semer la confusion et réprimer les électeurs. Le sénateur de Virginie, Mark Warner, a souligné dans un courriel les risques importants liés à l'abus de la technologie de l'IA. Il a déclaré : « Je pense que les entreprises et les plateformes qui développent l'IA générative ne prennent pas suffisamment au sérieux le potentiel d'abus. » Cela inquiète de nombreuses personnes quant à l'impact potentiel de l'utilisation de l'IA sur l'équité des élections démocratiques.

En réalité, de nombreux exemples montrent que l'IA générative a effectivement été utilisée pour induire les électeurs en erreur. Par exemple, dans le New Hampshire, des faux appels générés par IA imitant la voix de Biden ont été utilisés pour dissuader les électeurs démocrates de participer aux primaires. En juillet dernier, un super PAC soutenant le gouverneur de Floride, Ron DeSantis, a également utilisé l'IA pour imiter la voix de Trump dans une publicité d'attaque. Ces événements montrent que l'utilisation abusive de l'IA est devenue un problème majeur.

Bien que certains États aient commencé à prendre des mesures, comme le Texas, qui a été le premier État à interdire la création et la diffusion de fausses vidéos ciblant des candidats en 2019, les mesures de réglementation de l'IA au niveau fédéral restent limitées. Même l'ordre exécutif sur l'IA du président Biden repose principalement sur le volontariat et manque de pouvoir coercitif.

Actuellement, 19 États ont adopté des lois spécifiquement destinées à réglementer les médias de « deepfakes » générés par l'IA. En Californie, la loi interdit la diffusion de contenus audiovisuels « substantialement trompeurs » dans les 60 jours précédant les élections. Le Minnesota et le Michigan ont, quant à eux, interdit en 2023 la diffusion de contenus de deepfakes générés par IA dans les 90 jours précédant les élections. De plus, le Nouveau-Mexique, la Floride et l'Utah ont également adopté cette année des lois exigeant la divulgation des contenus générés par l'IA.

Bien que certains États, lors de l'examen des lois correspondantes, aient pris en compte certaines exceptions, comme la divulgation d'informations ou les publicités satiriques et parodiques, des divergences persistent entre les États quant à la classification et aux sanctions des infractions. Avec de plus en plus d'États qui prennent des mesures, les experts estiment qu'une action globale au niveau fédéral est nécessaire pour véritablement résoudre ce problème.

** Points clés :**

📊 ** Au moins 26 États envisagent ou ont déjà adopté des lois pour réglementer l'utilisation de l'IA générative lors des élections. **

📞 ** Des exemples d'utilisation malveillante de l'IA sont fréquents, notamment des faux appels et des publicités imitant la voix des candidats. **

⚖️ ** Les mesures de réglementation au niveau fédéral sont actuellement relativement limitées, et les lois des États diffèrent, nécessitant un cadre juridique plus complet. **