No mundo de rápido desenvolvimento da tecnologia moderna, a inteligência artificial, especialmente os grandes modelos de linguagem (LLMs), estão se tornando cada vez mais importantes. No entanto, as leis de segurança cibernética dos EUA parecem não acompanhar essa rápida evolução. Recentemente, um grupo de estudiosos da Universidade de Harvard apontou na conferência Black Hat que a atual Lei de Fraude e Abuso de Computadores (CFAA) não protege eficazmente aqueles que trabalham em pesquisa de segurança de IA e pode até mesmo expô-los a riscos legais.
Observação da fonte da imagem: A imagem foi gerada por IA, fornecida pela Midjourney.
Esses estudiosos incluem Kendra Albert, Ram Shankar Siva Kumar e Jonathon Penney da Harvard Law School. Em entrevista, Albert mencionou que a legislação existente não define claramente ações como "ataques de injeção de prompt", tornando difícil para os pesquisadores determinarem se suas ações são ilegais. Ela disse que, embora algumas ações, como o acesso não autorizado a modelos, sejam claramente ilegais, fica obscuro se pesquisadores que já têm permissão para usar sistemas de IA, mas os usam de maneiras indesejadas, estão violando a lei.
Em 2021, o caso "Van Buren vs. EUA" na Suprema Corte dos EUA alterou a interpretação da CFAA, estabelecendo que a lei se aplica apenas àqueles que acessam informações internas de computadores sem autorização. Essa decisão faz sentido em sistemas de computadores tradicionais, mas é insuficiente quando se trata de grandes modelos de linguagem. Albert aponta que a forma de interação com a IA usando linguagem natural torna essa definição legal ainda mais complexa, pois muitas vezes a resposta da IA não equivale à recuperação de informações de um banco de dados.
Enquanto isso, Siva Kumar também mencionou que a discussão legal sobre pesquisa de segurança de IA é muito menos considerada do que questões de direitos autorais, e ele mesmo não tem certeza se estaria protegido ao realizar certos testes de ataque. Albert disse que, devido à incerteza da legislação atual, litígios futuros podem esclarecer essas questões nos tribunais, mas atualmente deixam muitos pesquisadores "bem-intencionados" inseguros.
Neste ambiente legal, Albert recomenda que os pesquisadores de segurança busquem aconselhamento jurídico para garantir que suas ações não violem a lei. Ela também teme que cláusulas legais vagas possam desencorajar pesquisadores promissores, permitindo que atacantes maliciosos atuem impunemente, criando riscos de segurança ainda maiores.
Destaques:
🛡️ A Lei de Fraude e Abuso de Computadores dos EUA oferece proteção insuficiente para pesquisadores de segurança de IA, que podem enfrentar riscos legais.
💡 A legislação atual carece de definição clara para ações como ataques de injeção de prompt, dificultando a determinação da legalidade para os pesquisadores.
⚖️ Os estudiosos acreditam que litígios futuros podem ser necessários para esclarecer os termos legais relevantes e proteger pesquisadores bem-intencionados.