Uma nova pesquisa do Tow Center for Digital Journalism da Universidade de Columbia acendeu um sinal de alerta sobre os serviços de busca de inteligência artificial. O estudo mostra que o ChatGPT tem sérios problemas de precisão ao citar fontes de notícias, mesmo aquelas de editores que trabalham diretamente com a OpenAI.

A equipe de pesquisa testou 200 citações de notícias de 20 editores diferentes, e os resultados foram chocantes: em 153 casos, o ChatGPT apresentou informações de origem incorretas ou parcialmente incorretas. O que é ainda mais preocupante é que o sistema raramente admite a falta de informações, confessando a incapacidade de encontrar a fonte apenas sete vezes.

ChatGPT OpenAI Inteligência Artificial (3)

Os pesquisadores apontam que, para manter uma boa experiência do usuário, o ChatGPT prefere inventar respostas a admitir a falta de informações. O que é ainda mais grave é que o sistema apresenta essas fontes falsas com uma confiança perturbadora, sem mostrar qualquer incerteza.

Mesmo publicações conhecidas como o New York Post e The Atlantic, que têm parcerias diretas com a OpenAI, não ficaram imunes a esse problema. Em alguns casos, o ChatGPT até mesmo linkou para sites que copiaram artigos inteiros sem autorização, em vez das fontes originais.

O editor-chefe da MIT Technology Review, Matt Honan, comentou: "Como editores, essa não é a situação que desejamos ver, e as soluções viáveis atualmente são extremamente limitadas."

A resposta da OpenAI a essas descobertas preocupantes foi relativamente cautelosa. A empresa destaca que o ChatGPT atende 250 milhões de usuários por semana e afirma estar trabalhando com parceiros para melhorar a precisão das citações.

A conclusão final da pesquisa é clara: atualmente, os editores não podem garantir que o ChatGPT Search exibirá seu conteúdo com precisão, independentemente de terem ou não uma parceria com a OpenAI. Essa descoberta certamente impulsionará discussões e melhorias adicionais sobre a confiabilidade da informação em inteligência artificial.