Com o avanço contínuo da tecnologia de inteligência artificial, a dificuldade de falsificar imagens e vídeos está cada vez menor, e o fenômeno de deepfakes está se tornando cada vez mais grave. Como identificar esse conteúdo falso se tornou um problema urgente que precisa ser resolvido. Recentemente, uma equipe de pesquisa da Universidade de Binghamton explorou profundamente esse assunto, utilizando a técnica de análise de frequência para revelar as características das imagens geradas por IA, ajudando assim as pessoas a identificar informações falsas.

Troca de rosto por IA, reconhecimento facial (2)

Nota da fonte: Imagem gerada por IA, provedor de licenças de imagens Midjourney

Esta pesquisa foi liderada pelo professor Yu Chen e pelos alunos de doutorado Nihal Poredi e Deeraj Nagothu, do departamento de Engenharia Elétrica e de Computação, com a participação da aluna de mestrado Monica Sudarsan e do professor Enoch Solomon, da Virginia State University.

A equipe de pesquisa criou milhares de imagens usando ferramentas de IA generativa populares, como Adobe Firefly, PIXLR, DALL-E e Google Deep Dream. Em seguida, eles usaram técnicas de processamento de sinal para analisar as características de frequência dessas imagens, a fim de encontrar as diferenças entre imagens reais e imagens geradas por IA.

Usando uma ferramenta chamada Autenticação de Imagens de Rede Adversária Generativa (GANIA), os pesquisadores conseguiram identificar artefatos que aparecem em imagens geradas por IA. Esses artefatos são deixados pela técnica de upscaling usada pela IA ao gerar imagens; em termos simples, é o aumento do tamanho do arquivo clonando pixels, mas isso deixa uma "impressão digital" no domínio da frequência. O professor Chen disse: "Fotos tiradas por câmeras reais contêm todas as informações do ambiente, enquanto imagens geradas por IA se concentram mais na solicitação do usuário e, portanto, não conseguem capturar com precisão as pequenas variações do ambiente de fundo."

Além de identificar imagens, a equipe também desenvolveu uma ferramenta chamada "DeFakePro" para detectar áudios e vídeos falsos. Esta ferramenta utiliza sinais de frequência da rede elétrica (ENF), que são produzidos por pequenas flutuações de energia durante a gravação. Ao analisar esses sinais, o DeFakePro pode determinar se uma gravação foi adulterada, combatendo ainda mais a ameaça de deepfakes.

Poredi enfatizou que a identificação da "impressão digital" do conteúdo gerado por IA é muito importante, pois ajudará a construir uma plataforma de autenticação para garantir a autenticidade do conteúdo visual e, assim, reduzir os impactos negativos das informações falsas. Ele apontou que o uso generalizado das mídias sociais tornou o problema das informações falsas ainda mais grave, tornando essencial garantir a autenticidade dos dados compartilhados online.

Nesta pesquisa, a equipe espera fornecer mais ferramentas ao público para que as pessoas possam diferenciar mais facilmente entre conteúdo real e falso, melhorando a credibilidade das informações.

Endereço do artigo: https://dx.doi.org/10.1117/12.3013240

Destaques:

1. 🖼️ A equipe de pesquisa identificou com sucesso as diferenças entre imagens geradas por IA e imagens reais usando a técnica de análise de frequência.

2. 🔍 Desenvolveu a ferramenta "DeFakePro" para detectar a autenticidade de áudios e vídeos falsos.

3. 🚫 Enfatiza a importância de garantir a autenticidade dos dados compartilhados online para lidar com o problema crescente de informações falsas.