Recentemente, Sam Altman, CEO da OpenAI, revelou que a empresa está colaborando com o Instituto Nacional de Segurança em IA dos EUA, uma agência federal americana que visa avaliar e lidar com os riscos das plataformas de IA. A OpenAI fornecerá acesso antecipado ao seu próximo principal modelo de IA generativa para testes de segurança.
A notícia, publicada por Altman no X na noite de quinta-feira, foi breve em detalhes. No entanto, essa iniciativa, juntamente com um acordo semelhante firmado em junho com a agência de segurança de IA do Reino Unido, parece destinada a refutar as alegações de que a OpenAI está relegando os esforços de segurança de IA a um segundo plano em sua busca por tecnologias de IA generativa mais poderosas.
Anteriormente, em maio, a OpenAI efetivamente dissolveu um departamento dedicado ao desenvolvimento de medidas de controle para evitar que sistemas de IA “superinteligentes” ficassem fora de controle. Relatos indicam que a OpenAI abandonou a pesquisa de segurança da equipe em favor do lançamento de novos produtos, levando à saída de dois co-líderes da equipe: Jan Leike (agora liderando a pesquisa de segurança na startup de IA Anthropic) e Ilya Sutskever (co-fundador da OpenAI, que fundou sua própria empresa de IA focada em segurança, a Safe Superintelligence Inc.).
Diante das crescentes críticas, a OpenAI afirmou que removeria as cláusulas de não difamação que limitavam a denúncia de funcionários, criaria um comitê de segurança e destinaria 20% de seus recursos computacionais à pesquisa de segurança. (A equipe de segurança dissolvida havia prometido receber 20% dos recursos computacionais da OpenAI para seu trabalho, mas não os recebeu.) Altman reiterou o compromisso de 20% dos recursos computacionais e confirmou que a OpenAI revogou as cláusulas de não difamação para funcionários novos e existentes em maio.
No entanto, essas medidas não acalmaram as dúvidas de alguns observadores, especialmente considerando que o comitê de segurança da OpenAI é composto inteiramente por funcionários internos e que recentemente uma alta executiva de segurança de IA foi transferida para outro departamento.
Cinco senadores, incluindo o democrata havaiano Brian Schatz, questionaram as políticas da OpenAI em uma carta recente a Altman. Jason Kwon, diretor de estratégia da OpenAI, respondeu hoje afirmando que a OpenAI “está comprometida em implementar protocolos de segurança rigorosos em cada etapa de nossos processos”.
Considerando o apoio da OpenAI ao “Innovation Future Act” no início desta semana, o momento do acordo com o Instituto Nacional de Segurança em IA dos EUA parece suspeito. Se aprovada, a lei autorizaria o instituto a atuar como uma agência reguladora, estabelecendo padrões e diretrizes para modelos de IA. Essa série de ações pode ser vista como uma tentativa de controlar a regulamentação, ou pelo menos, de influenciar a formulação de políticas de IA em nível federal pela OpenAI.
Vale mencionar que Altman é membro do Conselho de Segurança e Garantia de IA do Departamento de Segurança Interna dos EUA, que aconselha sobre o “desenvolvimento e implantação seguros e confiáveis de IA” em infraestruturas críticas americanas. Além disso, os gastos da OpenAI com lobby federal aumentaram significativamente este ano, atingindo US$ 800.000 nos primeiros seis meses de 2024, em comparação com US$ 260.000 em todo o ano de 2023.
O Instituto Nacional de Segurança em IA dos EUA está subordinado ao Instituto Nacional de Padrões e Tecnologia (NIST) do Departamento de Comércio e colabora com uma coalizão de empresas, incluindo a Anthropic, e grandes empresas de tecnologia como Google, Microsoft, Meta, Apple, Amazon e Nvidia.
Destaques:
🎯 A OpenAI se comprometeu a fornecer ao Instituto Nacional de Segurança em IA dos EUA acesso antecipado ao seu próximo modelo.
🎯 A OpenAI dissolveu um departamento de segurança, gerando controvérsia.
🎯 O momento da colaboração da OpenAI com a agência americana gerou especulações, assim como o aumento de seus gastos com lobby federal.