Recentemente, pesquisadores do Google emitiram um alerta: a inteligência artificial generativa (GenAI) está inundando a internet com conteúdo falso. Isso não é apenas um aviso, mas também uma autorreflexão.
Ironicamente, o Google desempenha um duplo papel nessa "guerra entre o verdadeiro e o falso". Por um lado, é um importante impulsionador da IA generativa; por outro, também é um criador de desinformação. O recurso de visão geral de IA do Google já apresentou sugestões absurdas como "colocar cola em pizza" e "comer pedras", informações incorretas que tiveram que ser removidas manualmente.
A equipe de pesquisa do Google investigou a fundo 200 reportagens sobre o mau uso da IA generativa e descobriu que a adulteração de retratos humanos e a falsificação de provas são as formas mais comuns de abuso. O objetivo dessas ações é influenciar a opinião pública, aplicar golpes ou obter lucros. Os riscos da IA generativa ainda não chegaram ao ponto de "ameaçar a sobrevivência", mas são uma realidade atual que pode piorar no futuro.
Os pesquisadores descobriram que a maioria dos casos de mau uso da GenAI envolvem o uso normal do sistema, sem comportamentos de "jailbreak". Esses "usos convencionais" representam 90% dos casos. A ampla disponibilidade, acessibilidade e natureza surreal da GenAI tornam possíveis inúmeras formas de abuso de baixo nível. O custo para gerar informações falsas é extremamente baixo!
O material de pesquisa do Google vem em grande parte de reportagens da mídia. Isso significa que as conclusões da pesquisa podem ter um viés midiático? A mídia tende a relatar eventos sensacionalistas, o que pode levar a um conjunto de dados tendencioso para tipos específicos de abuso. A 404Media aponta que há uma grande quantidade de abusos da inteligência artificial generativa que ainda não foram relatados.
As "cercas" das ferramentas de IA podem ser contornadas com algumas dicas inteligentes. Por exemplo, a ferramenta de clonagem de voz de inteligência artificial da ElevenLabs pode imitar com alta fidelidade a voz de colegas ou celebridades. Os usuários do Civitai podem criar imagens de celebridades geradas por IA. Embora a plataforma tenha uma política que proíbe imagens íntimas não consentidas (NCII), nada impede que os usuários gerem NCII em suas próprias máquinas usando ferramentas de código aberto.
Com a proliferação de informações falsas, a situação caótica da internet coloca à prova a capacidade das pessoas de discernir o verdadeiro do falso. Entramos em uma situação de dúvida constante: "Isso é verdade?". Se não for resolvido, a contaminação de dados públicos por conteúdo gerado por IA pode obstruir a recuperação de informações e distorcer a compreensão coletiva da realidade sociopolítica ou do consenso científico.
O Google contribuiu para a proliferação de conteúdo falso gerado por IA. A bala disparada há anos finalmente atingiu a própria testa. Esta pesquisa do Google pode ser o início de uma autorreabilitação e um alerta para toda a sociedade da internet.
Endereço do artigo: https://arxiv.org/pdf/2406.13843