Recentemente, a empresa de IA Anthropic silenciosamente removeu de seu site compromissos de segurança de inteligência artificial (IA) relacionados à administração Biden. O compromisso, inicialmente descoberto por um órgão de supervisão de IA chamado "Projeto Midas", foi removido na semana passada do centro de transparência da Anthropic, que lista os "compromissos voluntários" da empresa sobre o desenvolvimento responsável de IA. Embora esses compromissos não fossem legalmente vinculativos, eles prometiam compartilhar informações e pesquisas sobre riscos de IA (incluindo vieses) com o governo.

Claude2, Anthropic, inteligência artificial, chatbot Claude

Em julho de 2023, a Anthropic juntou-se a outras grandes empresas de tecnologia, incluindo OpenAI, Google e Meta, em um acordo voluntário de autorregulamentação do governo Biden para apoiar iniciativas de segurança de IA. Essas iniciativas foram ainda confirmadas na ordem executiva de IA de Biden. As empresas participantes se comprometeram a testar a segurança dos modelos antes do lançamento, a aplicar marcas d'água ao conteúdo gerado por IA e a desenvolver infraestrutura de privacidade de dados.

No entanto, com a posse do governo Trump, a Anthropic parece ter mudado sua postura em relação a esses compromissos. Trump, em seu primeiro dia no cargo, revogou a ordem executiva de Biden, demitiu vários especialistas em IA do governo e cortou alguns fundos de pesquisa. Essas mudanças podem ter levado muitas grandes empresas de IA a repensar seus relacionamentos com o governo, com algumas empresas aproveitando a oportunidade para expandir seus contratos governamentais para participar da modelagem de políticas de IA ainda incertas.

Atualmente, a Anthropic não fez nenhuma declaração pública sobre a remoção do compromisso e afirma que sua posição em relação à IA responsável é independente ou anterior aos acordos da era Biden. Relacionado a isso, o governo Trump provavelmente irá dissolver o instituto de segurança de IA criado durante a administração Biden, deixando as iniciativas relevantes em situação de incerteza.

Em geral, o governo Trump está enfraquecendo a estrutura regulatória de IA estabelecida na era Biden, e as empresas de IA, sem pressão regulatória externa, parecem ter mais liberdade para gerenciar seus próprios sistemas. Atualmente, as verificações de segurança sobre vieses e discriminação em IA parecem não estar presentes nas políticas relevantes do governo Trump.

Destaques:

🌐1. A Anthropic removeu compromissos de segurança de IA relacionados à administração Biden, refletindo uma mudança de política.  

🤖2. O governo Trump revogou a ordem executiva de IA de Biden e fez cortes na regulamentação de IA.  

💼3. Grandes empresas de IA estão repensando seus relacionamentos com o governo sob o governo Trump, possivelmente relaxando a autorregulamentação.