Recientemente, los legisladores de California aprobaron el controvertido proyecto de ley de seguridad de inteligencia artificial SB1047, que solo necesita una votación procedimental final antes de ser enviado al gobernador de California, Gavin Newsom, para su firma. La aprobación de este proyecto de ley ha generado un intenso debate dentro de Silicon Valley, con opiniones a favor y en contra que se entrelazan y captan la atención general.

Robot de IA jugando

Nota de la fuente: Imagen generada por IA, proveedor de servicios de licencias de imágenes Midjourney

El senador estatal de California, Scott Wiener, presentó el proyecto de ley y expresó su orgullo por la diversa coalición que lo respalda, compartiendo la creencia de que la innovación y la seguridad son igualmente importantes. Cree que la inteligencia artificial tiene un enorme potencial para cambiar el mundo y que este proyecto de ley busca garantizar que ese potencial se desarrolle de forma segura.

Las reacciones de las grandes empresas tecnológicas han sido diversas. El CEO de xAI, Elon Musk, ha expresado su apoyo. En las redes sociales, señaló que California debería aprobar el proyecto de ley SB1047 para evitar el mal uso de la inteligencia artificial. Mencionó que ha apoyado la regulación de la inteligencia artificial durante más de dos décadas y que es necesario regular los riesgos potenciales.

El núcleo del proyecto de ley exige a las empresas que desarrollan modelos de IA a gran escala (con un costo de entrenamiento superior a los 100 millones de dólares) que realicen pruebas de seguridad exhaustivas antes de su lanzamiento. Además, el proyecto de ley exige a estas empresas que implementen una función de "parada de emergencia" en situaciones de crisis y que informen al fiscal general de California en un plazo de 72 horas en caso de incidentes de seguridad. Una nueva "Oficina de Modelos de vanguardia" supervisará el cumplimiento, imponiendo multas de hasta 30 millones de dólares por infracciones reiteradas.

Entre los partidarios se encuentran figuras destacadas en el campo de la inteligencia artificial, como Geoffrey Hinton y Yoshua Bengio, quienes consideran que este proyecto de ley es crucial para combatir los riesgos de la IA e incluso podría establecer un estándar para la seguridad de la IA en todo el país.

Sin embargo, los detractores argumentan que el proyecto de ley podría frenar la innovación y provocar la fuga de talentos. Empresas tecnológicas de California como Google, OpenAI y Meta han expresado su preocupación, argumentando que las pequeñas empresas se verían afectadas de manera desproporcionada y que el progreso tecnológico podría ralentizarse. Piden que se establezca una regulación a nivel federal para evitar la inconsistencia entre los estados.

El proyecto de ley SB1047 fue aprobado por el Comité de Asignaciones de California y ahora espera la votación final de la legislatura estatal. Si el gobernador de California, Newsom, firma el proyecto de ley, se convertirá en la primera ley de regulación de la inteligencia artificial similar en Estados Unidos y podría tener un profundo impacto en la industria tecnológica mundial y en la futura regulación de la inteligencia artificial.

Puntos clave:

🔹 ** Aprobación del proyecto de ley **: El proyecto de ley de seguridad de inteligencia artificial SB1047 de California ha sido aprobado y está pendiente de la firma del gobernador.

🔹 ** Medidas de seguridad **: El proyecto de ley exige pruebas de seguridad y una función de parada de emergencia para los modelos de IA de alto coste.

🔹 ** Reacciones diversas **: Las grandes empresas tecnológicas muestran opiniones a favor y en contra, preocupadas por el impacto en la innovación y la fuga de talentos.