À l'approche de l'élection présidentielle américaine de 2024, nous entrons dans une nouvelle ère : l'intelligence artificielle (IA) générative fait son apparition sur la scène électorale. Imaginez : les votes des électeurs pourraient être influencés par des images, des vidéos et des audios générés par l'IA. Ce n'est pas une blague ! Récemment, l'ancien président Trump a partagé des images synthétiques par IA montrant des fans de Taylor Swift portant des t-shirts le soutenant, images initialement identifiées comme satiriques.
Plus inquiétant encore, en janvier, des habitants du New Hampshire ont reçu des appels téléphoniques deepfake visant à les dissuader de participer aux primaires démocrates. À quelques mois du jour du scrutin, les experts affirment que ces fausses informations générées par l'IA ne feront qu'augmenter, tandis que les technologies de détection restent insuffisantes. Lance Hunt, professeur de sciences politiques à l'université de Géorgie, souligne : « Si une partie de la population ne se rend pas compte qu'il s'agit de fausses informations, cela pourrait avoir un impact significatif sur les résultats de l'élection. »
L'IA générative ne se limite pas aux chatbots ; elle peut générer des images, des vidéos et des audios. Cette technologie se répand rapidement dans le monde entier, accessible à tous, y compris à ceux qui souhaitent l'utiliser à des fins malveillantes. Ce phénomène a déjà été observé en Inde, en Indonésie et en Corée du Sud, même si l'impact sur les choix des électeurs reste incertain. Mais imaginez l'impact d'une fausse vidéo de Trump ou de la vice-présidente Harris qui se propagerait sur le web !
L'Agence américaine de la cybersécurité et de la sécurité des infrastructures (CISA) du département de la Sécurité intérieure est très vigilante face aux menaces potentielles de l'IA générative. Kate Conley, conseillère principale à la CISA, déclare : « Des acteurs étrangers ont ciblé les élections américaines et leurs infrastructures lors de précédentes élections, et nous prévoyons que cette menace persistera en 2024. » Elle souligne que la CISA fournit des conseils aux responsables électoraux des États et des collectivités locales sur les opérations d'influence extérieure et les fausses informations.
Alors, comment empêcher le chaos causé par l'IA générative avant les élections ? Le problème est que de nombreux contenus générés sont difficiles à identifier comme faux. Avec les progrès technologiques, les contenus générés par l'IA sont passés d'images étranges avec « 15 doigts » à des images incroyablement réalistes.
En juillet dernier, l'administration Biden a obtenu des engagements volontaires d'Amazon, Anthropic, Google, Meta, Microsoft et OpenAI pour faire face aux risques potentiels de l'IA. Cependant, ces accords ne sont pas juridiquement contraignants. Le professeur Hunt estime qu'une législation fédérale bipartite sera adoptée à l'avenir pour réglementer les fausses informations dans les campagnes politiques.
Les plateformes de médias sociaux comme Meta, TikTok et X peuvent également jouer un rôle dans la prévention de la propagation de fausses informations, par exemple en ajoutant des étiquettes claires aux contenus créés par l'IA générative, voire en interdisant ces contenus. Cependant, les outils de détection actuels ne sont pas efficaces. Certains sont même qualifiés de « remèdes miracles » et ne fournissent pas de réponses précises, se contentant souvent de jugements vagues comme « 85 % de probabilité ».
Alors que le jour du scrutin approche, le développement rapide de l'IA générative est préoccupant. On craint que des individus malintentionnés n'utilisent cette technologie pour semer le chaos en ligne avant le vote. Quant au résultat final des élections, l'avenir nous le dira.