En California, el gobernador Gavin Newsom firmó recientemente dos nuevas leyes para proteger las imágenes digitales de actores y otros artistas intérpretes o ejecutantes. Estas leyes buscan proteger a los actores del uso no autorizado de sus imágenes o voces, tanto en vida como después de su muerte. Este paso refleja la creciente preocupación por el impacto de la inteligencia artificial en el trabajo de los artistas.
En un video publicado en redes sociales, Newsom declaró: "Hablamos de California como el estado de los sueños y los hacedores. Muchos soñadores vienen aquí, pero a veces sus voces no están suficientemente representadas. Con la AG (American Guild of Actors) y la ley que acabamos de firmar, nos aseguramos de que nadie entregue fácilmente su nombre, imagen y derechos de imagen sin representación o apoyo". En el video, habló junto a Fran Drescher, presidenta de SAG-AFTRA, que representa a aproximadamente 160.000 profesionales de los medios de comunicación, y que apoya firmemente esta nueva ley y otras medidas de protección relacionadas con la IA.
Nota de la fuente: La imagen fue generada por IA, Midjourney como proveedor de servicios de licencia de imágenes.
Drescher añadió: "Esta ley puede transmitir un mensaje al mundo a aquellos que se sienten amenazados por la IA". Señaló que, aunque las personas inteligentes inventan estas tecnologías, a menudo no consideran las consecuencias, lo que puede llevar a la pérdida de medios de vida y a la incapacidad de mantener a sus familias.
Una de las leyes, la AB2602, protege a los artistas de los contratos que permiten el uso de sus voces o imágenes digitales, ya sea para su trabajo real o para entrenar IA. Según la ley, estas cláusulas se consideran injustas y contrarias a la política pública, aplicándose a contratos presentes y futuros. Cualquier persona con este tipo de contrato debe notificar por escrito a la otra parte antes del 1 de enero que la cláusula ya no es válida.
La otra ley, la AB1836, protege específicamente las imágenes digitales de los artistas intérpretes o ejecutantes, como parte de sus derechos de publicidad póstumos. Esta ley protege la identidad personal contra el uso comercial no autorizado. Permite a los titulares de los derechos de una persona fallecida demandar si sus réplicas digitales se utilizan en películas o grabaciones. Los titulares de los derechos tienen derecho a recibir al menos 10.000 dólares o la cantidad de pérdidas reales sufridas por el uso no autorizado, la cifra mayor de las dos.
Esta ley refuerza los derechos de los artistas intérpretes o ejecutantes en un campo ya lleno de disputas legales. Este año, Drake retiró una canción que usaba una versión de IA de la voz del fallecido rapero Tupac Shakur después de que los herederos de Shakur amenazaran con demandarlo.
El futuro de la IA generativa y cómo reemplazará el trabajo humano fue un tema clave durante la huelga de Hollywood del verano pasado. SAG-AFTRA también llegó a un acuerdo bastante controvertido con una empresa de tecnología de voz de IA para permitir el uso legal de voces digitales en videos. Sin embargo, en lo que respecta a los problemas de IA, los actores de videojuegos de Hollywood votaron en julio a favor de la huelga.
Las imágenes de actores como Tom Hanks y Scarlett Johansson se han utilizado sin su consentimiento en anuncios falsos, mostrando los problemas de la tecnología profunda. Mientras tanto, muchos artistas intérpretes o ejecutantes y empresas tecnológicas están observando si Newsom firmará una tercera ley, la SB1047, que exigiría a los desarrolladores de IA que siguieran pautas específicas de seguridad y privacidad antes de entrenar sus modelos de IA. Esta legislación cuenta con el apoyo de AG-AFTRA, organizaciones sin fines de lucro y el actor Mark Ruffalo, quien publicó un video el fin de semana pasado instando a Newsom a firmarla.
Ruffalo dijo en el video: "A todas las grandes empresas tecnológicas y multimillonarios de Silicon Valley no les gustaría ver esto, y eso debería hacernos reflexionar inmediatamente". Enfatizó: "Pero la IA va a explotar, y no sabemos nada sobre las consecuencias".