Uma pesquisa recente publicada na revista Nature revelou um fenômeno preocupante no desenvolvimento da inteligência artificial: à medida que os grandes modelos de linguagem (LLMs) são aprimorados, eles tendem a responder perguntas com mais "confiança", mesmo que as respostas estejam incorretas. Essa tendência gerou amplas discussões sobre a confiabilidade e os riscos do uso da IA.

A equipe de pesquisa, liderada por José Hernández-Orallo e seus colegas do Instituto de Inteligência Artificial de Valência, na Espanha, analisou a fundo a evolução das respostas incorretas dos modelos de IA, a relação dessas respostas com a percepção humana da dificuldade das perguntas e a capacidade das pessoas de identificar respostas erradas.

Os resultados mostraram que, à medida que os modelos são aprimorados, especialmente por meio de métodos de ajuste fino como o aprendizado por feedback humano, o desempenho geral da IA melhora. No entanto, uma descoberta inesperada foi que, com o aumento do número de respostas corretas, a proporção de respostas incorretas também aumentou simultaneamente. Hernández-Orallo descreveu de forma figurativa: "Eles respondem a quase todas as perguntas, o que significa que uma maior taxa de acerto também acompanha um maior número de respostas incorretas."

Robô Inteligência Artificial IA

Observação da fonte: Imagem gerada por IA, provedor de serviços de licenciamento de imagens Midjourney

A equipe de pesquisa focou principalmente em modelos de IA populares como o GPT da OpenAI, o LMA do Meta e o modelo de código aberto BLOOM. Comparando as versões iniciais e as versões refinadas desses modelos, eles analisaram seu desempenho em vários tipos de perguntas. Os resultados mostraram que, embora o desempenho dos modelos tenha melhorado em perguntas simples, eles não demonstraram uma tendência clara de evitar perguntas difíceis. O GPT-4, por exemplo, responde a quase todas as perguntas, e em muitos casos, a proporção de respostas incorretas aumentou constantemente, às vezes ultrapassando 60%.

O que é ainda mais preocupante é que a pesquisa descobriu que esses modelos às vezes erram até mesmo perguntas simples, o que significa que os usuários têm dificuldade em encontrar uma "zona segura" onde possam confiar altamente nas respostas da IA. Quando a equipe de pesquisa pediu a voluntários que julgassem a precisão dessas respostas, os resultados foram ainda mais preocupantes: a taxa de classificação incorreta das respostas incorretas variou entre 10% e 40%, tanto em perguntas simples quanto complexas. Hernández-Orallo concluiu: "Os humanos não conseguem supervisionar esses modelos de forma eficaz."

Para enfrentar esse desafio, Hernández-Orallo sugere que os desenvolvedores de IA devem se concentrar em melhorar o desempenho dos modelos em perguntas simples e incentivar os chatbots a expressarem incerteza ou recusarem-se a responder quando confrontados com perguntas difíceis. Ele enfatizou: "Precisamos deixar claro para os usuários: posso usá-lo neste campo, mas não devo usá-lo naquele."

Embora a capacidade da IA de responder a várias perguntas complexas pareça impressionante, Hernández-Orallo aponta que essa abordagem nem sempre é benéfica. Ele até mesmo expressou perplexidade com os erros de alguns modelos em problemas de cálculo simples, considerando que esse é um problema que pode e deve ser resolvido.

Vipula Rawte, cientista da computação da Universidade da Carolina do Sul, observa que alguns modelos realmente expressam "não sei" ou "não tenho informações suficientes". Sistemas de IA projetados para fins específicos (como cuidados de saúde) geralmente são ajustados de forma mais rigorosa para evitar ultrapassar os limites do conhecimento. No entanto, para empresas que buscam desenvolver chatbots de uso geral, admitir a falta de conhecimento nem sempre é uma função ideal.

Esta pesquisa revela um paradoxo importante no desenvolvimento da IA: à medida que os modelos se tornam mais complexos e poderosos, eles podem se tornar mais imprevisíveis em certos aspectos. Essa descoberta apresenta novos desafios para desenvolvedores, usuários e reguladores de IA.

No futuro, o desenvolvimento de IA precisará encontrar um equilíbrio entre melhorar o desempenho e manter a cautela. Os desenvolvedores podem precisar reconsiderar como avaliar o desempenho dos modelos de IA, considerando não apenas o número de respostas corretas, mas também a proporção e o impacto das respostas incorretas. Ao mesmo tempo, aumentar a conscientização dos usuários sobre as limitações da IA ​​torna-se cada vez mais importante.

Para o usuário comum, esta pesquisa serve como um lembrete para manter a vigilância ao usar ferramentas de IA. Embora a IA possa oferecer conveniência e eficiência, ainda precisamos usar o pensamento crítico, especialmente ao lidar com informações importantes ou sensíveis.