Récemment, la société d'IA Anthropic a discrètement supprimé de son site web les engagements en matière de sécurité de l'intelligence artificielle (IA) pris sous l'administration Biden. Cet engagement, initialement découvert par un organisme de surveillance de l'IA appelé « Midas Project », a été retiré la semaine dernière du centre de transparence d'Anthropic, qui répertorie les « engagements volontaires » de l'entreprise concernant le développement responsable de l'IA. Bien que ces engagements ne soient pas juridiquement contraignants, ils prévoyaient un partage d'informations et de recherches sur les risques liés à l'IA (y compris les biais) avec le gouvernement.
En juillet 2023, Anthropic a rejoint d'autres grandes entreprises technologiques, notamment OpenAI, Google et Meta, pour adhérer à un accord volontaire d'autoréglementation de l'administration Biden afin de soutenir les initiatives de sécurité de l'IA. Ces initiatives ont été confirmées dans le décret exécutif de Biden sur l'IA. Les entreprises participantes se sont engagées à tester la sécurité des modèles avant leur publication, à filigraner le contenu généré par l'IA et à développer des infrastructures de protection des données.
Cependant, avec l'arrivée au pouvoir de l'administration Trump, l'attitude d'Anthropic à l'égard de ces engagements semble avoir changé. Dès son premier jour de mandat, Trump a annulé le décret exécutif de Biden, limogé plusieurs experts en IA au sein du gouvernement et réduit certains financements de la recherche. Ces changements ont probablement poussé de nombreuses grandes entreprises d'IA à reconsidérer leurs relations avec le gouvernement, certaines saisissant l'occasion d'accroître leurs contrats gouvernementaux afin de participer à la mise en forme d'une politique de l'IA encore floue.
Pour l'instant, Anthropic n'a pas fait de déclaration publique concernant la suppression de cet engagement et affirme que sa position sur l'IA responsable est indépendante des accords de l'ère Biden, voire antérieure à ceux-ci. Dans le même ordre d'idées, l'administration Trump pourrait dissoudre l'institut de sécurité de l'IA créé sous Biden, ce qui rend l'avenir de ces initiatives incertain.
Globalement, l'administration Trump est en train d'affaiblir le cadre de régulation de l'IA mis en place sous Biden, et les entreprises d'IA semblent disposer d'une plus grande liberté pour gérer leurs systèmes en l'absence de pression réglementaire externe. Actuellement, les contrôles de sécurité concernant les biais et les discriminations liés à l'IA ne semblent pas figurer dans les politiques de l'administration Trump.
Points clés :
🌐1. Anthropic a supprimé les engagements en matière de sécurité de l'IA liés à l'administration Biden, reflétant un changement de politique.
🤖2. L'administration Trump a annulé le décret exécutif de Biden sur l'IA et a réduit la réglementation de l'IA.
💼3. Les grandes entreprises d'IA reconsidèrent leurs relations avec le gouvernement sous l'administration Trump, ce qui pourrait entraîner un relâchement de l'autoréglementation.