Estudos recentes descobriram que grandes modelos de linguagem, como o ChatGPT da OpenAI, frequentemente repetem informações prejudiciais e incorretas. Pesquisadores da Universidade de Waterloo, no Canadá, realizaram testes sistemáticos da capacidade de compreensão do ChatGPT, descobrindo que o GPT-3 apresenta contradições em suas respostas e repete informações prejudiciais e incorretas. Utilizando diferentes modelos de questionário e fazendo perguntas sobre mais de 1200 afirmações distintas, eles constataram a existência desse problema.
Estudo revela: GPT-3 comete erros frequentes e repete informações prejudiciais
