Uma pesquisa recente da DeepMind revelou que os modelos de linguagem ainda enfrentam desafios significativos em tarefas de raciocínio lógico. O estudo demonstra que a ordem das premissas em uma tarefa afeta consideravelmente o desempenho do modelo na realização de inferências lógicas.
Essa descoberta pode orientar especialistas na hora de usar modelos de linguagem para tarefas de raciocínio básico. Alterar a ordem das premissas pode ser uma maneira simples e eficaz de melhorar a capacidade de raciocínio desses modelos.