A Microsoft publicou recentemente um livro branco que analisa profundamente o uso malicioso da inteligência artificial (IA) generativa, incluindo fraudes, material de abuso sexual infantil, manipulação de eleições e imagens privadas não consensuais. A empresa destaca que esses problemas não são apenas desafios tecnológicos, mas também sérias ameaças à sociedade.

Inteligência Artificial IA Robô Mão robótica (1)

Observação da fonte: Imagem gerada por IA, fornecedora de serviços de licenciamento de imagens Midjourney

De acordo com o livro branco da Microsoft, criminosos estão cada vez mais usando a capacidade da IA generativa para cometer crimes. Esses atos incluem o uso de informações falsas geradas por IA para fraudes, a criação de material de abuso sexual infantil, a manipulação de eleições por meio de deepfakes e a produção de imagens íntimas não consensuais, que visam especialmente as mulheres. Hugh Milward, vice-presidente de Assuntos Externos da Microsoft, disse: “Nunca podemos esquecer que o mau uso da IA tem um impacto profundo em pessoas reais.”

O livro branco, direcionado aos formuladores de políticas do Reino Unido, propõe uma solução abrangente baseada em seis elementos essenciais para lidar com esses problemas. Esses seis elementos incluem: uma arquitetura de segurança robusta, ferramentas de origem e marca d'água permanentes para mídia, leis modernas para proteger o público, forte colaboração entre a indústria, o governo e a sociedade civil, proteção contra o abuso de serviços e educação pública.

Em suas recomendações específicas para os formuladores de políticas do Reino Unido, a Microsoft apela para que os fornecedores de sistemas de IA informem os usuários quando o conteúdo é gerado por IA. Além disso, a Microsoft recomenda a implementação de ferramentas avançadas de marcação de origem para marcar conteúdo sintético, e que o governo também sirva de exemplo, verificando a autenticidade de seu conteúdo de mídia. A Microsoft também enfatiza a necessidade de novas leis para proibir fraudes por meio de ferramentas de IA, a fim de proteger a integridade das eleições. Da mesma forma, o arcabouço legal para proteger crianças e mulheres da exploração online deve ser fortalecido, incluindo a criminalização da criação de deepfakes sexuais.

A Microsoft também destaca a importância da tecnologia de metadados que indica se a mídia foi gerada por IA. Projetos semelhantes já estão sendo promovidos por empresas como a Adobe, com o objetivo de ajudar as pessoas a identificar a origem das imagens. No entanto, a Microsoft acredita que padrões como “credenciais de conteúdo” exigem medidas políticas e conscientização pública para serem eficazes.

Além disso, a Microsoft está colaborando com organizações como a StopNCII.org para desenvolver ferramentas para detectar e remover imagens de abuso. As vítimas podem reivindicar seus direitos por meio do portal central de denúncias da Microsoft. Para os jovens, o serviço “Take It Down” do Centro Nacional para Crianças Desaparecidas e Exploradas oferece suporte adicional. Milward disse: “O problema do mau uso da IA pode ser um problema de longo prazo, por isso precisamos redobrar nossos esforços e colaborar criativamente com empresas de tecnologia, parceiros de caridade, sociedade civil e governos para lidar com esse problema. Não podemos fazer isso sozinhos.”

Destaques:

🛡️ A Microsoft publica um livro branco, revelando várias maneiras pelas quais a IA generativa está sendo usada maliciosamente, incluindo fraudes e manipulação de eleições.

📜 Para os formuladores de políticas do Reino Unido, a Microsoft propõe uma solução de seis elementos, apelando para a proteção legal e tecnológica.

🤝 Enfatiza a importância da colaboração com todas as partes, a Microsoft apela para um esforço conjunto para enfrentar os desafios do mau uso da IA.