La technologie de l'IA est une arme à double tranchant, capable à la fois de faciliter la vie et de présenter des risques. Afin de mieux gérer ces risques, le gouverneur de Californie, Gavin Newsom, a récemment signé neuf projets de loi spécifiquement destinés à réglementer les contenus générés par l'IA, notamment les deepfakes.

Bureau, poursuite, loi (2)

Source : Image générée par IA, fournie par Midjourney

Parmi ces projets de loi, le SB1047 est particulièrement remarquable. Il exige des développeurs d'IA qu'ils mettent en place des mesures de sécurité pour réduire les risques d'événements catastrophiques, tels que des pertes de vies humaines à grande échelle ou des cyberattaques. Le gouverneur Newsom n'a pas encore exprimé clairement son opinion sur ce projet de loi. Les projets de loi AB2602 et AB1836 visent quant à eux à protéger les droits des acteurs et des interprètes.

L'AB2602 stipule que l'utilisation de la voix ou de l'image d'un interprète générée par IA nécessite la signature d'un contrat, et que l'interprète doit être représenté par un agent professionnel lors des négociations.

L'AB1836 interdit l'utilisation à des fins commerciales dans des œuvres audiovisuelles d'images deepfakes d'interprètes décédés sans le consentement de leurs héritiers.

Newsom a déclaré : « Nous explorons constamment comment l'IA et les médias numériques transforment l'industrie du divertissement, mais notre priorité absolue reste la protection des travailleurs. Ces lois garantissent que cette industrie puisse continuer à prospérer tout en renforçant la protection des travailleurs. »

Les projets de loi incluent également des mesures de lutte contre l'abus de contenus générés par l'IA :

Le SB926 qualifie de crime la création et la diffusion d'images pornographiques apparemment authentiques.

Le SB981 exige des plateformes de médias sociaux qu'elles mettent en place un système de signalement pour traiter les contenus deepfakes pornographiques signalés par les utilisateurs.

Le SB942 exige que les systèmes d'IA intègrent un filigrane invisible dans les contenus générés et fournissent des outils de détection.

Dans le cadre des campagnes électorales, les quatre projets de loi AB2655, AB2839, AB2355 et AB2905 visent à lutter contre l'utilisation de deepfakes et d'autres contenus numériques trompeurs afin de préserver l'équité et la transparence des élections.

L'AB2655 exige des grandes plateformes en ligne qu'elles suppriment ou signalent les contenus politiques trompeurs ou numériquement modifiés pendant une période déterminée avant et après les élections, et qu'elles mettent à disposition un système de signalement.

L'AB2839 élargit la période pendant laquelle les entités politiques ont interdiction de diffuser des publicités ou autres documents électoraux contenant des contenus trompeurs générés par l'IA.

L'AB2355 exige que les publicités politiques utilisant des contenus générés par l'IA divulguent que le matériel a été modifié.

L'AB2905 exige que les appels téléphoniques automatisés informent le destinataire si la voix est générée artificiellement.

Newsom a souligné : « La protection de l'intégrité des élections est essentielle à la démocratie, et nous devons nous assurer que l'IA ne soit pas utilisée pour saper la confiance du public par le biais de fausses informations. Ces mesures contribueront à lutter contre l'utilisation abusive des deepfakes dans les publicités politiques. »

Points clés :

📜 Newsom signe neuf projets de loi pour renforcer la réglementation des contenus générés par l'IA.

🎭 Protection de l'image numérique des acteurs et des interprètes, prévention de l'utilisation non autorisée de l'IA.

🔍 Lutte contre les contenus pornographiques générés par l'IA et les informations trompeuses lors des campagnes électorales.