Estudios recientes han descubierto que el rendimiento de los grandes modelos de lenguaje (LLM) en tareas de razonamiento lógico se ve afectado por el orden de presentación de la información previa. Un orden aleatorio puede provocar una disminución del rendimiento.

Investigadores de Google DeepMind y Stanford señalan que la presentación de las premisas en un orden lógico y natural puede mejorar el rendimiento del modelo. Para modelos como los LLM, cambiar el orden de las premisas conduce a una disminución del rendimiento, un aspecto que requiere mayor investigación.

El orden de las premisas tiene un impacto significativo en el rendimiento de los grandes modelos de lenguaje en tareas de razonamiento, y sigue siendo un desafío. Modelos como Gemini y GPT-4 presentan importantes deficiencias, mostrando una considerable disminución en su rendimiento.