Récemment, les législateurs californiens ont adopté un projet de loi controversé sur la sécurité de l'intelligence artificielle, le SB1047. Il ne reste plus qu'un vote procédural avant qu'il ne soit soumis au gouverneur de Californie, Gavin Newsom, pour signature. Ce projet de loi a suscité un vif débat au sein de la Silicon Valley, les opinions pour et contre se confrontant et attirant l'attention générale.

Robot IA jouant à des jeux vidéo

Source : Image générée par IA, fournisseur de services d'autorisation d'images : Midjourney

Le sénateur de l'État de Californie, Scott Wiener, a présenté ce projet de loi. Il s'est dit fier de la coalition diversifiée à l'origine de ce texte, partagée par la conviction que l'innovation et la sécurité sont toutes deux importantes. Il estime que l'intelligence artificielle a un potentiel de transformation mondial et que ce projet de loi vise à garantir que ce potentiel soit exploité en toute sécurité.

Les géants de la technologie ont réagi de manière diverse. Elon Musk, PDG de xAI, a exprimé son soutien. Sur les réseaux sociaux, il a déclaré que la Californie devrait adopter le SB1047 pour éviter les abus de l'intelligence artificielle. Il a ajouté qu'il défendait la réglementation de l'intelligence artificielle depuis plus de vingt ans et qu'il était nécessaire de réglementer les risques potentiels.

Le cœur du projet de loi exige que les entreprises développant des modèles d'IA à grande échelle (dont le coût de formation dépasse 100 millions de dollars) effectuent des tests de sécurité complets avant leur publication. Il exige également que ces entreprises mettent en place une fonction d'"arrêt d'urgence" en cas de crise et qu'elles signalent tout incident de sécurité au procureur général de Californie dans les 72 heures. Un nouveau "Bureau des modèles de pointe" sera chargé de surveiller la conformité. Des violations répétées pourraient entraîner des amendes pouvant atteindre 30 millions de dollars.

Parmi les partisans figurent des personnalités de renom dans le domaine de l'intelligence artificielle, telles que Geoffrey Hinton et Yoshua Bengio, qui estiment que ce projet de loi est essentiel pour lutter contre les risques liés à l'intelligence artificielle et pourrait même servir de norme nationale en matière de sécurité de l'IA.

Cependant, les opposants soutiennent que ce projet de loi pourrait freiner l'innovation et entraîner une fuite des cerveaux. Des entreprises technologiques californiennes comme Google, OpenAI et Meta ont exprimé leurs inquiétudes, estimant que les petites entreprises seraient disproportionnellement touchées et que les progrès technologiques pourraient être ralentis. Elles appellent à une réglementation fédérale pour éviter les incohérences entre les États.

Le SB1047 a été amendé par la commission des crédits de la Californie et attend maintenant le vote final de l'Assemblée de l'État. Si le gouverneur Newsom le signe, il deviendra la première loi de ce type aux États-Unis en matière de réglementation de l'intelligence artificielle, et pourrait avoir un impact profond sur l'industrie technologique mondiale et la future réglementation de l'intelligence artificielle.

Points clés :

🔹 ** Adoption du projet de loi ** : Le projet de loi californien SB1047 sur la sécurité de l'IA a été adopté et attend la signature du gouverneur.

🔹 ** Mesures de sécurité ** : Le projet de loi exige des tests de sécurité et une fonction d'arrêt d'urgence pour les modèles d'IA coûteux.

🔹 ** Réactions diverses ** : Les géants de la technologie expriment des opinions divergentes, craignant des impacts sur l'innovation et la fuite des cerveaux.