Microsoft a récemment publié un livre blanc analysant en profondeur l'utilisation malveillante de l'intelligence artificielle (IA) générative, notamment pour des escroqueries, la création de matériel d'abus sexuel sur mineurs, la manipulation des élections et la diffusion d'images privées non consensuelles. L'entreprise souligne que ces problèmes ne constituent pas seulement des défis technologiques, mais aussi de graves menaces pour la société.
Source : Image générée par IA, fournie par Midjourney
Selon le livre blanc de Microsoft, les criminels exploitent de plus en plus les capacités de l'IA générative à des fins malveillantes. Ces actes malveillants incluent l'utilisation de fausses informations générées par l'IA pour commettre des escroqueries, la création de matériel d'abus sexuel sur mineurs, la manipulation des élections grâce à la technologie des deepfakes, et la création d'images intimes non consensuelles, ciblant particulièrement les femmes. Hugh Milward, vice-président des affaires externes chez Microsoft, a déclaré : « Nous ne devons jamais oublier que l'abus de l'IA a un impact profond sur de vraies personnes. »
Le livre blanc, spécifiquement destiné aux décideurs politiques britanniques, propose une solution globale basée sur six éléments clés pour faire face à ces problèmes. Ces six éléments sont : une architecture de sécurité robuste, des outils de marquage et de traçabilité des médias, une législation moderne pour protéger le public, une collaboration forte entre l'industrie, le gouvernement et la société civile, une protection contre les abus des services et l'éducation du public.
Dans ses recommandations spécifiques aux décideurs politiques britanniques, Microsoft appelle à exiger des fournisseurs de systèmes d'IA qu'ils informent les utilisateurs lorsque le contenu est généré par l'IA. Microsoft recommande également la mise en œuvre d'outils de marquage de source avancés pour identifier le contenu synthétique, et suggère que le gouvernement puisse montrer l'exemple en vérifiant l'authenticité de ses contenus médiatiques. Microsoft souligne également la nécessité de nouvelles lois pour interdire les escroqueries réalisées à l'aide d'outils d'IA afin de protéger l'intégrité des élections. Le cadre juridique visant à protéger les enfants et les femmes contre l'exploitation en ligne doit également être renforcé, notamment en criminalisant la création de deepfakes à caractère sexuel.
Microsoft souligne également l'importance des métadonnées indiquant si un média a été généré par une IA. Des projets similaires sont déjà menés par des entreprises comme Adobe, visant à aider les gens à identifier l'origine des images. Cependant, Microsoft estime que des normes telles que les « certificats de contenu » nécessitent des mesures politiques et une sensibilisation du public pour être efficaces.
Par ailleurs, Microsoft collabore avec des organisations telles que StopNCII.org pour développer des outils de détection et de suppression des images abusives. Les victimes peuvent faire valoir leurs droits via le portail central de signalement de Microsoft. Pour les jeunes, le service « Take It Down » du Centre national pour les enfants disparus et exploités offre un soutien supplémentaire. Milward a déclaré : « Le problème de l'abus de l'IA pourrait perdurer longtemps, nous devons donc redoubler d'efforts et collaborer de manière créative avec les entreprises technologiques, les partenaires caritatifs, la société civile et les gouvernements pour y faire face. Nous ne pouvons pas y arriver seuls. »
Points clés :
🛡️ Microsoft publie un livre blanc révélant les multiples utilisations malveillantes de l'IA générative, notamment les escroqueries et la manipulation des élections.
📜 Microsoft propose aux décideurs politiques britanniques une solution en six points, appelant à une protection juridique et technologique globale.
🤝 Microsoft souligne l'importance de la collaboration et appelle à un effort commun pour relever les défis posés par l'abus de l'IA.