Récemment, Brad Smith, vice-président et président de Microsoft, a appelé le Congrès américain à adopter une loi ciblant les deepfakes générés par l'IA afin de protéger les citoyens contre la fraude et la manipulation. Il a souligné que bien que le secteur technologique et les organisations à but non lucratif aient déjà pris des mesures pour faire face à ce problème, nos lois doivent évoluer pour lutter contre les fraudes liées aux deepfakes.
Source : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney
Smith a insisté sur le fait qu'une loi globale sur la « fraude par deepfake » est une mesure essentielle que les États-Unis doivent prendre. Cette loi fournira aux forces de l'ordre un cadre juridique pour poursuivre les cybercriminels qui utilisent cette technologie à des fins frauduleuses. Il a également appelé les législateurs à mettre à jour les lois fédérales et étatiques concernant les abus sexuels sur mineurs et les images intimes non consensuelles afin d'inclure les contenus générés par l'IA.
Il est à noter que le Sénat a récemment adopté un projet de loi spécifiquement ciblant les deepfakes pornographiques non consensuels, permettant aux victimes de poursuivre les créateurs de ces contenus. Ce projet de loi a été adopté suite à la révélation de scandales impliquant des lycéens utilisant l'IA pour générer des images obscènes de leurs camarades de classe. Pour faire face à ces problèmes, Microsoft a également dû renforcer les contrôles de sécurité dans ses propres produits d'IA afin d'éviter des failles de sécurité similaires.
Smith a souligné que le secteur privé a la responsabilité d'innover et de mettre en œuvre des mesures de protection pour prévenir l'utilisation abusive de l'IA. Bien que la Federal Communications Commission (FCC) ait déjà interdit l'utilisation d'appels téléphoniques robotisés générés par l'IA, l'IA générative rend la création de faux audios, images et vidéos extrêmement facile. Cette situation s'est aggravée, notamment dans la période précédant l'élection présidentielle de 2024. Par exemple, Elon Musk a récemment partagé sur les réseaux sociaux une vidéo deepfake falsifiée de la vice-présidente Kamala Harris, une action qui semble violer la politique de la plateforme concernant les médias synthétiques et manipulés.
Pour renforcer la confiance du public dans l'information, Smith a appelé le Congrès à exiger des fournisseurs de systèmes d'IA qu'ils utilisent des outils de traçabilité de pointe pour marquer les contenus synthétiques. Il a déclaré que de telles mesures aideraient le public à mieux comprendre si un contenu est généré par l'IA ou manipulé.
Points clés :
🌐 Microsoft appelle le Congrès à adopter une « loi sur la fraude par deepfake » pour fournir un soutien juridique à la lutte contre la fraude générée par l'IA.
👶 Les législateurs doivent mettre à jour les lois relatives aux abus sexuels sur mineurs et aux images intimes non consensuelles afin d'inclure les contenus générés par l'IA.
🔍 Smith propose d'exiger le marquage des contenus IA pour renforcer la confiance du public dans l'information.