Dans le domaine en constante évolution de l'IA, un geste subtil mais significatif s'est produit en silence, jusqu'à ce qu'il soit récemment remarqué par le monde extérieur : Anthropic, une entreprise d'IA de renom, semble rompre avec son passé. Cette entreprise vedette aurait discrètement retiré de son site Web plusieurs engagements volontaires publiés en 2023 en collaboration avec l'administration Biden. Ces engagements, autrefois considérés comme une preuve de l'engagement d'Anthropic en faveur de la sécurité de l'IA et d'une IA « fiable », ont désormais disparu comme effacés par une gomme.
C'est le « Projet Midas », un organisme de surveillance de l'intelligence artificielle, qui a été le premier à détecter cette évolution. Selon cette organisation, les engagements concernant le partage d'informations sur la gestion des risques liés à l'IA avec le gouvernement et l'industrie, ainsi que la recherche sur les biais et la discrimination dans l'IA, qui étaient initialement affichés publiquement dans le centre de transparence d'Anthropic, ont « disparu » la semaine dernière. Seuls quelques engagements concernant la réduction des abus sexuels générés par l'IA restent.
Les actions d'Anthropic sont particulièrement discrètes, voire « silencieuses ». L'entreprise ne semble pas avoir annoncé ce changement publiquement et a choisi de garder le silence face aux demandes de commentaires des médias, ce qui nourrit les spéculations sur ses véritables intentions.
En juillet 2023, Anthropic, aux côtés d'autres géants de la technologie tels qu'OpenAI, Google, Microsoft, Meta et Inflection, avait annoncé publiquement qu'elle répondait à l'appel de l'administration Biden en acceptant volontairement de respecter une série d'engagements en matière de sécurité de l'intelligence artificielle. Cette liste d'engagements, qui témoignait d'une volonté sincère, couvrait des mesures clés telles que la réalisation de tests de sécurité internes et externes rigoureux avant la publication des systèmes d'IA, d'importants investissements en cybersécurité pour protéger les données sensibles de l'IA et le développement de filigranes pour les contenus générés par l'IA.
Il est important de préciser que ces engagements n'avaient pas de valeur contraignante sur le plan juridique, et Anthropic avait déjà adopté de nombreuses de ces pratiques. Cependant, dans le cadre de la stratégie de l'administration Biden à l'époque, cet accord d'engagements volontaires avait une signification politique plus profonde : il était considéré comme un signal important envoyé par la Maison Blanche avant la promulgation, quelques mois plus tard, d'un décret exécutif plus complet sur l'IA, indiquant les priorités de sa politique en matière d'intelligence artificielle.
Cependant, les choses ont changé, et le climat politique a évolué. L'administration Trump a publiquement déclaré que son approche de la gouvernance de l'intelligence artificielle serait très différente de celle de son prédécesseur.
En janvier, l'administration Trump a abrogé le décret exécutif sur l'intelligence artificielle dirigé par l'administration Biden. Ce décret visait à guider le National Institute of Standards and Technology (NIST) dans l'élaboration de lignes directrices pour aider les entreprises à identifier et à corriger les défauts des modèles, y compris les biais préoccupants. Des critiques proches du camp Trump considèrent que les exigences de rapports fastidieuses du décret de Biden obligeaient en fait les entreprises à divulguer des secrets commerciaux, ce qui était inacceptable pour elles.
Dans la foulée, Trump a rapidement signé un nouveau décret exécutif demandant aux agences fédérales de promouvoir le développement de technologies d'IA « exemptes de biais idéologiques », dans le but de favoriser « la prospérité humaine, la compétitivité économique et la sécurité nationale ». Il est intéressant de noter que le nouveau décret de Trump ne mentionne pas le principe central de « lutte contre la discrimination par l'IA », qui était pourtant un élément essentiel de l'initiative de l'administration Biden.
Comme le souligne le « Projet Midas » sur les médias sociaux, les engagements en matière de sécurité de l'IA de l'ère Biden n'ont jamais impliqué de limite de temps, ni de lien avec l'affiliation politique du président en exercice. Même après l'élection américaine de novembre dernier, plusieurs entreprises ayant signé ces engagements avaient déclaré publiquement que leurs engagements restaient inchangés.
Cependant, en quelques mois seulement depuis l'arrivée au pouvoir de l'administration Trump, Anthropic n'est pas la seule entreprise technologique à avoir procédé à des ajustements au niveau des politiques publiques. OpenAI a récemment annoncé qu'elle allait adopter la « liberté de connaissance » et qu'elle allait maintenir une approche ouverte, quels que soient les sujets sensibles ou controversés, tout en s'efforçant de garantir que ses systèmes d'IA ne censurent pas inutilement certains points de vue.
OpenAI a même discrètement supprimé de son site Web une page consacrée à ses engagements en matière de diversité, d'équité et d'inclusion (DEI). Ces programmes DEI avaient été vivement critiqués par l'administration Trump, ce qui a conduit de nombreuses entreprises à les suspendre ou à les modifier considérablement.
Plusieurs conseillers de Trump dans le domaine de l'intelligence artificielle à Silicon Valley, notamment Marc Andreessen, David Sacks et Elon Musk, ont publiquement accusé des géants de la technologie tels que Google et OpenAI de pratiquer une forme de « censure de l'intelligence artificielle » en limitant artificiellement les réponses de leurs robots de discussion. Cependant, plusieurs laboratoires, dont OpenAI, nient que leurs ajustements de politique soient directement liés à des pressions politiques.
Il ne faut pas oublier qu'OpenAI et Anthropic, deux entreprises leaders dans le domaine de l'IA, sont déjà très actives dans la course aux contrats gouvernementaux.
Alors que la polémique enfle, Anthropic a finalement rompu le silence en publiant une déclaration pour tenter d'apaiser les tensions :
« Nous restons fermement attachés aux engagements volontaires en matière d'intelligence artificielle établis par l'administration Biden. Les progrès et les actions concrètes de ces engagements sont continuellement reflétés dans le contenu de [notre] centre de transparence. Afin d'éviter toute confusion supplémentaire, nous ajouterons une section spécifique qui citera directement nos progrès. »
Cependant, cette déclaration tardive suffira-t-elle à dissiper les doutes ? L'affaire du « retrait des engagements » d'Anthropic est-elle simplement un malentendu ou un changement stratégique mûrement réfléchi ? Dans le contexte politique et commercial en constante évolution, chaque décision des géants de l'IA mérite une attention particulière.