Recentemente, o governador da Califórnia, Gavin Newsom, vetou na segunda-feira o projeto de lei SB1047, amplamente debatido, que visa regular o desenvolvimento de grandes modelos de inteligência artificial. Essa decisão gerou amplo debate nos setores de tecnologia e político.

O SB1047, proposto pelo senador estadual Scott Wiener, exigia que empresas que desenvolvem modelos de IA com custo de pelo menos US$ 100 milhões e capacidade de computação de 10^26 FLOPS implementassem protocolos de segurança. O projeto de lei foi aprovado na legislatura da Califórnia, mas enfrentou oposição de várias partes do Vale do Silício, incluindo a OpenAI e Yann LeCun, cientista-chefe de IA do Meta.

Em sua declaração de veto, Newsom afirmou: "O SB1047 tem boas intenções, mas não leva em consideração o contexto específico de aplicação dos sistemas de IA e seus níveis de risco, aplicando padrões rígidos a todos os sistemas grandes. Esta não é a melhor maneira de proteger o público."

IA, Inteligência Artificial, Robô

Nota da imagem: Imagem gerada por IA, serviço de licenciamento de imagens Midjourney

A ex-presidente da Câmara dos Representantes, Nancy Pelosi, também criticou o projeto de lei como tendo "boas intenções, mas sem fundamento", concordando com a decisão de Newsom. Simultaneamente, Newsom enfatizou que já assinou 17 projetos de lei relacionados à IA e convidou especialistas como Fei-Fei Li para auxiliar na elaboração de medidas regulatórias viáveis para a IA.

O proponente do projeto de lei, Wiener, disse que o veto é "uma frustração para aqueles que acreditam na supervisão de grandes empresas", mas acredita que o debate impulsionou o progresso em questões de segurança da IA internacional.

Essa decisão destaca a complexidade da regulamentação da IA e o desafio de equilibrar a promoção da inovação com a garantia da segurança. Com o rápido desenvolvimento da tecnologia de IA, como regular eficazmente a IA continuará sendo uma questão importante para os formuladores de políticas.