Recentemente, algumas grandes empresas de inteligência artificial dos EUA fizeram novos compromissos solenes à Casa Branca, afirmando que impedirão que seus produtos de IA sejam usados para gerar conteúdo pornográfico deepfake não consensual e material de abuso sexual infantil.
Seis empresas, incluindo Adobe, Anthropic, Cohere, Microsoft, OpenAI e o repositório de dados da web de código aberto Common Crawl, assinaram esse compromisso não vinculativo, buscando garantir que seus produtos não sejam usados indevidamente para criar imagens prejudiciais de violência sexual.
Observação da fonte: A imagem foi gerada por IA, fornecida pela Midjourney.
A Casa Branca afirmou que, com o rápido desenvolvimento da tecnologia de IA, os casos de violência sexual baseados em imagens aumentaram drasticamente, tornando-se uma das formas mais preocupantes de abuso de IA nos últimos anos. De acordo com a declaração da Casa Branca, essas seis empresas de IA se comprometeram a obter conjuntos de dados de forma responsável e a se esforçar para proteger esses dados de serem usados para gerar conteúdo de violência sexual.
No entanto, o Common Crawl não assinou outras duas promessas. É sabido que o Common Crawl coleta conteúdo da web e o disponibiliza a quem precisar, o que o levou a ser criticado anteriormente por coletar dados impróprios. No entanto, uma das duas promessas não assinadas pelo Common Crawl, que exige a remoção de imagens de nudez dos conjuntos de dados de treinamento de IA quando apropriado, é algo que o Common Crawl deveria ter assinado, pois ele não coleta imagens.
Quando questionado sobre a razão pela qual não assinou essas duas promessas, o diretor executivo do Common Crawl, Rich Skrenta, disse que eles apoiam o objetivo mais amplo da iniciativa, mas foram solicitados a assinar apenas uma. Ele apontou: "Não vimos as três opções ao assinar. Podemos ter sido excluídos da segunda e da terceira porque não treinamos modelos nem produzimos produtos para usuários finais."
Esta é a segunda vez em mais de um ano que empresas de destaque do setor de IA fazem compromissos voluntários com a Casa Branca. Em julho de 2023, várias empresas, incluindo Anthropic, Microsoft, OpenAI, Amazon e Google, se reuniram na Casa Branca e se comprometeram a testar modelos, compartilhar pesquisas e adicionar marcas d'água ao conteúdo gerado por IA para evitar seu uso em deepfakes não consensuais.
Embora os EUA tenham um ritmo mais lento em relação às políticas de IA, a União Europeia já aprovou algumas políticas de IA mais rígidas. Vale ressaltar que, embora esses compromissos não sejam vinculativos, eles refletem, em certa medida, as expectativas de autorregulação dentro do setor.
Destaques:
🌟 Seis empresas de IA americanas se comprometeram a não usar seus produtos para gerar conteúdo pornográfico deepfake não consensual.
🔍 O Common Crawl não assinou todos os compromissos, pois não treina modelos diretamente.
📅 Este compromisso é a segunda resposta voluntária das empresas de IA à Casa Branca, refletindo os esforços de autorregulação do setor.