Diante do problema de pornografia deepfake causado pelo mau uso da tecnologia de IA generativa, a Microsoft tomou medidas importantes recentemente. A empresa anunciou uma parceria com a organização StopNCII, que combate a vingança pornográfica, para fornecer ferramentas às vítimas que as ajudem a remover essas imagens de nudez sintética perturbadoras do mecanismo de busca Bing.

Especificamente, a Microsoft ajudará as vítimas a criar impressões digitais digitais ou "hashes" dessas imagens em seus próprios dispositivos. Os parceiros da StopNCII usarão essas impressões digitais para remover completamente as imagens de várias plataformas, incluindo Facebook, Instagram e Bing.

Troca de rosto com IA, reconhecimento facial (2)

Observação da fonte: A imagem foi gerada por IA, fornecida pela Midjourney.

Esta é uma medida crucial. Embora a Microsoft tenha oferecido anteriormente canais para denúncias diretas dessas imagens, os resultados não foram ideais. Como a empresa mencionou em seu blog, as denúncias de usuários sozinhas não são suficientes para lidar adequadamente com o risco de acesso generalizado às imagens por meio de mecanismos de busca.

Vale ressaltar que as medidas de tratamento do mecanismo de busca do Google parecem precisar de melhorias. De acordo com relatos da mídia, o Google ainda não colaborou com a StopNCII, e seus usuários há muito relatam a gravidade do problema.

O problema da pornografia deepfake gerada por IA é realmente preocupante. Atualmente, os EUA não possuem leis federais específicas para esse tipo de comportamento, e a resposta depende de regulamentos estaduais e locais. No entanto, tentativas como a ação judicial movida pelo promotor público de São Francisco podem lançar as bases para leis mais robustas.