Recentemente, a vice-procuradora-geral de São Francisco, advogada Yvonne Meré, entrou com uma ação contra 16 sites que usam inteligência artificial para criar deepfakes de pornografia, manipulando fotos de mulheres e meninas sem o consentimento delas para mostrá-las nuas. Essa ação legal sem precedentes visa combater essa tendência prejudicial crescente entre jovens, especialmente meninos que usam "aplicativos de strip" para manipular fotos de colegas.

Troca de rosto com IA, reconhecimento facial_

Legenda da imagem: Imagem gerada por IA, provedor de licenciamento de imagens Midjourney

De acordo com o The New York Times, os 16 sites processados ​​receberam 200 milhões de acessos nos primeiros seis meses do ano. As empresas por trás desses sites estão localizadas na Califórnia, Novo México, Reino Unido e Estônia. Repórteres tentaram entrar em contato com representantes desses sites, mas não receberam resposta ou ninguém estava disponível para comentar. Alguns sites até anunciam seus serviços com frases como "Quer vê-la nua?", enquanto outros encorajam diretamente os usuários a obter fotos nuas de mulheres por meio desses sites.

É importante notar que esses sites geralmente oferecem imagens iniciais gratuitas, mas o processamento posterior exige um pagamento, que pode ser feito com criptomoedas ou cartão de crédito. A tecnologia de deepfake usada se baseia em modelos de IA treinados com imagens pornográficas reais e imagens de abuso infantil para gerar fotos de nudez que parecem reais. O promotor distrital de São Francisco, David Chiu, destacou que a responsabilização dos envolvidos é quase inexistente, apontando que, uma vez que as imagens são divulgadas, fica bastante difícil rastrear os sites originais, tornando o processo de busca de justiça para as vítimas ainda mais complicado.

Sara Eisenberg, que lidera uma unidade jurídica focada em questões sociais importantes, apontou que simplesmente educar os jovens sobre o uso seguro da tecnologia é insuficiente. Qualquer foto pode ser manipulada sem autorização, e as proteções tradicionais não são mais eficazes. Eisenberg disse: "Mesmo que as crianças sejam experientes em internet e mídia social, isso não impede que pessoas façam coisas terríveis usando esses sites."

A ação judicial busca não apenas o fechamento desses sites, mas também uma proibição permanente da criação de deepfakes pornográficos, além de indenização por danos e honorários advocatícios. A queixa alega que os sites violaram leis estaduais e locais sobre pornografia de vingança, leis sobre pornografia infantil e a lei da Califórnia sobre concorrência desleal, que proíbe práticas comerciais ilegais e injustas.

Meré disse que, depois de ler sobre os perigos das imagens deepfake no The New York Times, entrou imediatamente em contato com Eisenberg e buscou o apoio de Chiu para elaborar a ação judicial. Chiu mencionou que, de Taylor Swift a estudantes do ensino médio, os deepfakes de nudez são comuns e quase ninguém é responsabilizado. Especialistas alertam que os deepfakes pornográficos têm um impacto grave na saúde mental, reputação, estudos e perspectivas de emprego das vítimas.

Embora Chiu reconheça que essa abordagem pode levar ao surgimento de novos sites como "um jogo de Whac-A-Mole", eles esperam incluir mais sites em ações judiciais à medida que o problema evolui. Como centro da indústria de inteligência artificial, São Francisco é o local apropriado para essa batalha legal. Chiu apontou que, embora as contribuições da indústria de IA sejam positivas, o surgimento de deepfakes pornográficos representa um "lado negro" que precisa ser abordado.

Destaques:

🌐 São Francisco processa 16 sites de deepfakes pornográficos para proteger a privacidade e os direitos das mulheres.

💰 A ação judicial busca o fechamento desses sites e indenização por danos e honorários advocatícios.

📉 Os deepfakes pornográficos têm um impacto grave na saúde mental e na vida social das vítimas, e a responsabilização legal é difícil.