De acordo com um novo estudo do Centro de Jornalismo Digital do Columbia Journalism Review, ferramentas populares de busca por IA fornecem informações incorretas ou enganosas em mais de 60% das vezes ao responder a perguntas. Esse resultado é preocupante, pois essas ferramentas não apenas minam a confiança do público nas reportagens jornalísticas, mas também causam perdas duplas de tráfego e receita para os editores.
Nota da fonte: Imagem gerada por IA, fornecida pela Midjourney.
Os pesquisadores testaram oito chatbots de IA generativa, incluindo ChatGPT, Perplexity, Gemini e Grok, pedindo-lhes que identificassem trechos de 200 artigos de notícias recentes. Os resultados mostraram que mais de 60% das respostas estavam incorretas, com os chatbots frequentemente inventando títulos, não citando artigos ou citando conteúdo sem autorização. Mesmo quando conseguiam identificar corretamente o publicador, os links muitas vezes levavam a URLs quebrados, versões reimpressas ou páginas irrelevantes.
De forma decepcionante, esses chatbots raramente expressavam incerteza, fornecendo respostas incorretas com confiança indevida. Por exemplo, o ChatGPT forneceu 134 informações incorretas em 200 consultas, mas expressou dúvidas apenas 15 vezes. Mesmo as versões pagas do Perplexity Pro e Grok3 tiveram um desempenho insatisfatório, com um número ainda maior de respostas incorretas, apesar de seus preços de US$ 20 e US$ 40 mensais, respectivamente.
Em termos de citação de conteúdo, vários chatbots falharam em respeitar as restrições dos editores, com cinco chatbots ignorando até mesmo o protocolo de exclusão de robôs, um padrão amplamente aceito. O Perplexity, por exemplo, citou corretamente um artigo da National Geographic mesmo com o editor restringindo seu rastreador. Ao mesmo tempo, o ChatGPT reutilizou um artigo do USA Today atrás de um paywall através de uma reimpressão não autorizada do Yahoo Notícias.
Além disso, muitos chatbots direcionaram os usuários para artigos reimpressos em plataformas como AOL ou Yahoo, em vez das fontes originais, mesmo em casos de acordos de licenciamento com empresas de IA. Por exemplo, o Perplexity Pro citou uma versão reimpressa do Texas Tribune sem a devida atribuição. Já o Grok3 e o Gemini frequentemente inventavam URLs, com 154 dos 200 links do Grok3 levando a páginas incorretas.
Este estudo destaca a crise crescente enfrentada pelas agências de notícias. Cada vez mais americanos estão usando ferramentas de IA como fonte de informação, mas, ao contrário do Google, os chatbots não direcionam o tráfego para os sites, resumindo o conteúdo sem link de retorno, o que resulta em perda de receita publicitária para os editores. Danielle Coffey, da News Media Alliance, alertou que, sem controle sobre os rastreadores, os editores não conseguirão "monetizar o conteúdo valioso ou pagar os salários dos jornalistas".
Após o contato com a OpenAI e a Microsoft, embora tenham defendido suas práticas, não responderam às descobertas específicas do estudo. A OpenAI disse que "respeita as preferências dos editores" e ajuda os usuários a "descobrir conteúdo de qualidade", enquanto a Microsoft afirmou que segue o protocolo "robots.txt". Os pesquisadores enfatizaram que as práticas de citação incorreta são um problema sistêmico, e não um fenômeno de ferramentas individuais. Eles pedem às empresas de IA que melhorem a transparência, a precisão e o respeito pelos direitos dos editores.
Destaques:
📊 O estudo descobriu que os chatbots de IA têm uma taxa de erro superior a 60%, afetando gravemente a credibilidade das notícias.
📰 Vários chatbots ignoraram as restrições dos editores, citando conteúdo não autorizado e links incorretos.
💰 As agências de notícias enfrentam uma dupla crise de tráfego e receita, com as ferramentas de IA gradualmente substituindo os mecanismos de busca tradicionais.