Récemment, le Congrès américain s'est vivement intéressé à la législation sur l'intelligence artificielle. OpenAI, en tant que leader du secteur, soutient activement plusieurs projets de loi. Mardi dernier, OpenAI a annoncé son soutien officiel à trois projets de loi sénatoriaux qui pourraient profondément influencer la politique fédérale américaine en matière d'intelligence artificielle.

L'un de ces projets, intitulé « Future AI Innovation Act », prévoit la création d'un Institut américain de sécurité de l'IA, un organisme fédéral chargé de définir les normes et les lignes directrices pour les modèles d'IA.

OpenAI, intelligence artificielle, IA

Anna Makanju, vice-présidente des affaires mondiales chez OpenAI, a déclaré sur LinkedIn : « Nous soutenons la mission de cet institut, qui guide les efforts du gouvernement américain pour garantir le développement et le déploiement sûrs des systèmes d'IA de pointe. » Elle a souligné que ce projet de loi offrait au nouvel institut le soutien du Congrès pour minimiser les risques potentiels liés aux nouvelles technologies.

Outre le « Future AI Innovation Act », OpenAI soutient également le « National Science Foundation AI Education Act » et le « Creating AI Act ». Ces deux projets de loi prévoient respectivement des bourses fédérales pour la recherche en IA et la création de ressources éducatives en IA au sein des universités et du système éducatif K-12.

Pourquoi OpenAI choisit-il de soutenir ces projets de loi à ce moment précis ? Dans son message, Makanju mentionne qu'OpenAI croit au rôle essentiel du gouvernement pour garantir la sécurité et l'accessibilité de l'IA. Cependant, d'un point de vue plus pragmatique, OpenAI est en pleine expansion, sa valorisation ayant grimpé à 86 milliards de dollars grâce à ses collaborations avec Microsoft et Apple. À l'avenir, l'entreprise pourrait faire face à un contrôle réglementaire accru. Ainsi, exprimer son soutien aux projets de loi permet non seulement de gagner la faveur des législateurs fédéraux, mais aussi de garantir une voix dans les futures discussions sur la réglementation de l'IA.

Lundi, OpenAI a également signé, avec Microsoft, Meta, Palantir, Cohere, Amazon et d'autres entreprises de toutes tailles, une lettre de soutien à l'Institut de sécurité de l'intelligence artificielle. Dans le cadre du « Future AI Innovation Act », cet institut collaborera avec des organismes publics et privés pour élaborer des normes pour les systèmes d'IA. De plus, ce projet de loi exige que les organismes fédéraux créent des ensembles de données organisés accessibles au public, des ensembles de données que les entreprises privées sont moins susceptibles de créer.

La prise de position d'OpenAI n'est pas fortuite. Les deux projets de loi doivent faire l'objet d'une séance de travail mercredi matin, ce qui témoigne de la stratégie subtile déployée par OpenAI et d'autres entreprises d'IA pour obtenir le soutien des législateurs.

Points clés :

🌟 OpenAI soutient officiellement trois projets de loi sénatoriaux visant à influencer la politique américaine en matière d'IA.

📚 Le « Future AI Innovation Act » créera un Institut américain de sécurité de l'IA pour promouvoir l'élaboration de normes de sécurité pour l'IA.

🤝 En soutenant ces projets de loi, OpenAI cherche à établir de bonnes relations avec les législateurs pour faire face aux défis réglementaires futurs.