Récemment, plusieurs grandes entreprises américaines d'intelligence artificielle ont renouvelé leurs engagements solennels envers la Maison Blanche, s'engageant à empêcher leurs produits IA de générer du contenu pornographique deepfake non consensuel et du matériel d'abus sexuel sur des enfants.

Six entreprises, dont Adobe, Anthropic, Cohere, Microsoft, OpenAI et le référentiel de données Web open source Common Crawl, ont signé cet engagement non contraignant, visant à garantir que leurs produits ne soient pas utilisés de manière abusive pour créer des images de violence sexuelle préjudiciables.

Intelligence artificielle, IA, robot, main robotique (1)

Source : Image générée par IA, fournie par Midjourney

La Maison Blanche a déclaré que, parallèlement au développement rapide de la technologie de l'IA, les cas de violence sexuelle basés sur des images ont augmenté de manière spectaculaire, devenant l'une des formes d'abus de l'IA les plus préoccupantes de ces dernières années. Selon la déclaration de la Maison Blanche, ces six entreprises d'IA se sont engagées à collecter des ensembles de données de manière responsable et à s'efforcer de protéger ces données contre l'utilisation pour générer du contenu violent non consensuel.

Cependant, Common Crawl n'a pas signé deux autres engagements. Connu pour collecter du contenu Web et le mettre à disposition de quiconque en a besoin, Common Crawl a été critiqué par le passé pour avoir collecté des données inappropriées lors de précédentes opérations de nettoyage de données. Cependant, l'un des deux engagements non signés par Common Crawl exigeait la suppression d'images de nudité des ensembles de données d'entraînement de l'IA le cas échéant, ce qui aurait dû être signé par Common Crawl, car il ne collecte pas d'images.

Interrogé sur les raisons pour lesquelles il n'avait pas signé ces deux engagements, Rich Skrenta, directeur exécutif de Common Crawl, a déclaré qu'ils soutenaient l'objectif plus large de cette initiative, mais qu'ils n'avaient été invités à en signer qu'un seul. Il a précisé : « Nous n'avons pas vu ces trois options au moment de la signature. Nous avons peut-être été exclus des deuxième et troisième engagements parce que nous ne formons pas de modèles et ne produisons pas de produits pour les utilisateurs finaux. »

Il s'agit de la deuxième fois en plus d'un an que des entreprises de premier plan du secteur de l'IA prennent des engagements volontaires envers la Maison Blanche. En juillet 2023, plusieurs entreprises, dont Anthropic, Microsoft, OpenAI, Amazon et Google, se sont rencontrées à la Maison Blanche et se sont engagées à tester les modèles, à partager leurs recherches et à ajouter des filigranes aux contenus générés par l'IA afin d'empêcher leur utilisation dans des deepfakes pornographiques non consensuels.

Bien que les États-Unis aient progressé lentement en matière de politique sur l'IA, l'Union européenne a déjà approuvé des politiques sur l'IA plus strictes. Il est important de noter que, bien que ces engagements soient non contraignants, ils reflètent dans une certaine mesure les attentes d'autorégulation au sein du secteur.

Points clés :

🌟 Six entreprises américaines d'IA s'engagent à ne pas utiliser leurs produits pour générer du contenu pornographique deepfake non consensuel.

🔍 Common Crawl n'a pas signé tous les engagements, car il ne participe pas directement à l'entraînement des modèles.

📅 Cet engagement constitue la deuxième réponse volontaire des entreprises d'IA à la Maison Blanche, reflétant les efforts d'autorégulation du secteur.