No cenário em constante mudança da IA, um ato sutil, porém significativo, ocorreu silenciosamente, até ser percebido recentemente pelo mundo exterior – a renomada empresa de IA Anthropic parece estar se despedindo do passado. A empresa estrela foi acusada de remover silenciosamente de seu site vários compromissos voluntários publicados em 2023 em conjunto com o governo Biden. Esses compromissos, que já foram considerados uma forte prova do compromisso da Anthropic com a segurança da IA e a IA "confiável", agora parecem ter sido apagados como se por uma borracha, deixando poucos vestígios.

A primeira a perceber essa mudança foi a organização de supervisão de inteligência artificial "Projeto Midas". De acordo com a organização, os compromissos originalmente exibidos publicamente no centro de transparência da Anthropic, sobre o compartilhamento de informações de gerenciamento de riscos de IA com o governo e a indústria, e sobre pesquisas sobre viés e discriminação em IA, "desapareceram" na semana passada, restando apenas alguns compromissos sobre a redução de abuso sexual de imagens geradas por IA.

Claude3 Claude

As ações da Anthropic foram extremamente discretas, quase "silenciosas". Eles aparentemente não anunciaram ativamente essa mudança e, diante de pedidos de comentários da mídia, optaram pelo silêncio, o que aumentou ainda mais as especulações sobre suas verdadeiras intenções.

Voltando a julho de 2023, a Anthropic, juntamente com gigantes da tecnologia como OpenAI, Google, Microsoft, Meta e Inflection, anunciou publicamente sua adesão ao apelo do governo Biden para cumprir voluntariamente uma série de compromissos de segurança de IA. Essa lista de compromissos era repleta de boas intenções, abrangendo testes de segurança internos e externos rigorosos antes do lançamento de sistemas de IA, investimentos significativos em segurança cibernética para proteger dados sensíveis de IA e o desenvolvimento de marcas d'água para conteúdo gerado por IA.

É importante esclarecer que esses compromissos não eram juridicamente vinculativos e a Anthropic já havia adotado muitas dessas práticas. No entanto, na estratégia do governo Biden na época, esse acordo de compromissos voluntários recebeu um significado político mais profundo – foi visto como um sinal importante para o público sobre as prioridades da política de IA antes de uma ordem executiva de IA mais abrangente que seria emitida meses depois.

No entanto, os tempos mudaram e o clima político mudou sutilmente. O governo Trump declarou publicamente que sua abordagem para a governança da IA ​​será muito diferente da do governo anterior.

Em janeiro deste ano, o governo Trump revogou a ordem executiva de IA liderada pelo governo Biden. Essa ordem tinha como objetivo orientar o Instituto Nacional de Padrões e Tecnologia a desenvolver diretrizes do setor para ajudar as empresas a identificar e corrigir falhas nos modelos, incluindo o muito discutido problema de viés. Críticos próximos ao campo de Trump argumentaram que os requisitos de relatórios excessivos na ordem de Biden essencialmente forçaram as empresas a vazar segredos comerciais, algo inaceitável para eles.

Em seguida, Trump rapidamente assinou uma nova ordem executiva instruindo as agências federais a promover ativamente o desenvolvimento de tecnologias de IA "livres de viés ideológico", com o objetivo de promover "a prosperidade humana, a competitividade econômica e a segurança nacional". Curiosamente, a nova ordem de Trump não menciona a "luta contra a discriminação em IA", um princípio central da iniciativa do governo Biden.

Como o "Projeto Midas" apontou incisivamente nas redes sociais, os compromissos de segurança de IA da era do governo Biden nunca indicaram ter um prazo ou qualquer ligação com a afiliação partidária do presidente atual. Mesmo após a eleição de novembro passado, várias empresas de IA que assinaram os compromissos declararam publicamente que seus compromissos permaneciam inalterados.

No entanto, nos poucos meses desde a posse do governo Trump, a Anthropic não é a única empresa de tecnologia a fazer ajustes em políticas públicas. A OpenAI anunciou recentemente que abraçará a "liberdade de conhecimento" e enfatizará uma abordagem aberta, independentemente de quão sensíveis ou controversos sejam os tópicos, e também se esforçará para garantir que seus sistemas de IA não censurem pontos de vista específicos desnecessariamente.

A OpenAI também removeu silenciosamente de seu site uma página dedicada a descrever seus compromissos com a diversidade, equidade e inclusão (DEI). Esses planos de DEI foram duramente criticados pelo governo Trump, levando muitas empresas a interromper ou ajustar significativamente seus planos de DEI existentes.

Vários conselheiros de IA do Vale do Silício de Trump, incluindo Marc Andreessen, David Sacks e Elon Musk, criticaram publicamente gigantes da tecnologia como Google e OpenAI por supostamente implementar "censura de IA" ao restringir artificialmente as respostas de seus chatbots de IA. Embora vários laboratórios, incluindo a OpenAI, neguem que suas mudanças de política foram diretamente influenciadas pela pressão política.

Um contexto importante é que a OpenAI e a Anthropic, duas empresas líderes no campo da IA, já estão competindo ativamente por contratos governamentais.

Enquanto a polêmica continuava, a Anthropic finalmente quebrou o silêncio e emitiu uma declaração para tentar acalmar a situação:

“Continuamos comprometidos com os compromissos voluntários de IA estabelecidos pelo governo Biden. O progresso e as ações específicas desses compromissos são continuamente refletidos no conteúdo de [nosso] centro de transparência. Para evitar mais confusão, adicionaremos uma seção dedicada citando diretamente nosso progresso.”

No entanto, essa declaração tardia conseguirá responder completamente às preocupações do público? O "retirada de compromissos" da Anthropic é apenas um mal-entendido ou uma mudança estratégica bem pensada? No mundo volátil da política e dos jogos comerciais, cada movimento dos gigantes da IA ​​merece nossa atenção.