Recientemente, el gobernador de California, Gavin Newsom, vetó un proyecto de ley sobre seguridad de la IA que generó mucha controversia, lo que provocó un acalorado debate en el mundo de la tecnología y la política, y lanzó una bomba de gran calibre sobre el futuro de la regulación de la IA.

Este proyecto de ley, presentado por el senador demócrata Scott Wiener, tenía como objetivo establecer salvaguardas para el rápido desarrollo de la tecnología de IA. Requería pruebas de seguridad para modelos de IA avanzados con un coste de desarrollo superior a los 100 millones de dólares o que requieran una capacidad de cálculo específica, y exigía a los desarrolladores que proporcionaran un "interruptor de apagado". Además, el proyecto de ley planeaba crear un organismo estatal para supervisar el desarrollo de "modelos de vanguardia".

Robot, Inteligencia Artificial, IA (1)

Nota de la fuente: Imagen generada por IA, proveedor de servicios de licencias Midjourney

Sin embargo, Newsom consideró que el proyecto de ley era demasiado amplio y no tenía en cuenta suficientemente el despliegue de sistemas de IA en entornos de alto riesgo y el uso de datos sensibles. Señaló que el proyecto de ley imponía estándares estrictos a todos los sistemas grandes, incluso a los más básicos, lo que podría sofocar la innovación.

La decisión de Newsom recibió el apoyo generalizado del sector tecnológico. Gigantes tecnológicos como Google, Microsoft, OpenAI y Meta habían expresado previamente su preocupación por el proyecto de ley, argumentando que podría expulsar a las empresas de IA de California y frenar la innovación. Organizaciones empresariales como la "Cámara de Comercio Progresista" también aplaudieron el veto, destacando que la economía tecnológica de California ha prosperado en un entorno competitivo y abierto.

Sin embargo, los partidarios del proyecto de ley, incluido el CEO de Tesla, Elon Musk, expresaron su decepción por la decisión. El senador Wiener considera que esta decisión hace a California más insegura y significa que las empresas que crean tecnologías extremadamente potentes quedarán sin control. Hizo hincapié en que los compromisos voluntarios de la industria no se pueden hacer cumplir y, a menudo, no benefician al público.

A pesar de vetar el proyecto de ley, Newsom no se opone totalmente a la regulación de la IA. Afirmó haber consultado con expertos líderes en IA generativa para ayudar a California a desarrollar regulaciones más viables y destacó que continuará trabajando con el poder legislativo para impulsar la legislación sobre IA. También firmó un proyecto de ley separado que exige al gobierno estatal que evalúe las posibles amenazas de la IA generativa a las infraestructuras críticas de California.

Este evento se produce en un contexto de estancamiento de la legislación sobre la regulación de la IA en el Congreso de los Estados Unidos, mientras el gobierno de Biden impulsa propuestas de regulación al respecto. Newsom advirtió que, si el Congreso no actúa, la necesidad de que California actúe de forma independiente podría aumentar.

El rápido desarrollo de la tecnología de IA presenta oportunidades y desafíos sin precedentes. Por un lado, la IA generativa puede generar texto, fotos y vídeos a partir de indicaciones abiertas, mostrando un enorme potencial de innovación; por otro lado, también suscita preocupaciones como la pérdida de empleos, la interferencia electoral e incluso la posibilidad de consecuencias catastróficas.

La decisión de Newsom refleja la dificultad de buscar un equilibrio en el tema de la regulación de la IA. Encontrar el punto óptimo entre la protección de la seguridad pública y el fomento de la innovación tecnológica será un gran desafío para los responsables políticos.

En el futuro, es probable que veamos más regulaciones específicas dirigidas a escenarios concretos y aplicaciones de alto riesgo. Al mismo tiempo, el diálogo y la cooperación entre el gobierno, las empresas tecnológicas y el público serán cada vez más importantes. Solo a través del esfuerzo conjunto de múltiples partes podremos disfrutar de las ventajas de la IA y, al mismo tiempo, controlar eficazmente sus riesgos potenciales.