Uma nova pesquisa do Tow Center for Digital Journalism da Universidade de Columbia acendeu um sinal de alerta sobre os serviços de busca de inteligência artificial. O estudo mostra que o ChatGPT tem sérios problemas de precisão ao citar fontes de notícias, mesmo aquelas de editores que trabalham diretamente com a OpenAI.
A equipe de pesquisa testou 200 citações de notícias de 20 editores diferentes, e os resultados foram chocantes: em 153 casos, o ChatGPT apresentou informações de origem incorretas ou parcialmente incorretas. O que é ainda mais preocupante é que o sistema raramente admite a falta de informações, confessando a incapacidade de encontrar a fonte apenas sete vezes.
Os pesquisadores apontam que, para manter uma boa experiência do usuário, o ChatGPT prefere inventar respostas a admitir a falta de informações. O que é ainda mais grave é que o sistema apresenta essas fontes falsas com uma confiança perturbadora, sem mostrar qualquer incerteza.
Mesmo publicações conhecidas como o New York Post e The Atlantic, que têm parcerias diretas com a OpenAI, não ficaram imunes a esse problema. Em alguns casos, o ChatGPT até mesmo linkou para sites que copiaram artigos inteiros sem autorização, em vez das fontes originais.
O editor-chefe da MIT Technology Review, Matt Honan, comentou: "Como editores, essa não é a situação que desejamos ver, e as soluções viáveis atualmente são extremamente limitadas."
A resposta da OpenAI a essas descobertas preocupantes foi relativamente cautelosa. A empresa destaca que o ChatGPT atende 250 milhões de usuários por semana e afirma estar trabalhando com parceiros para melhorar a precisão das citações.
A conclusão final da pesquisa é clara: atualmente, os editores não podem garantir que o ChatGPT Search exibirá seu conteúdo com precisão, independentemente de terem ou não uma parceria com a OpenAI. Essa descoberta certamente impulsionará discussões e melhorias adicionais sobre a confiabilidade da informação em inteligência artificial.