Impact de l'ordre des prémisses sur les grands modèles de langage

Des recherches récentes ont révélé que les grands modèles de langage (LLM) sont sensibles à l'ordre de présentation des informations dans les tâches de raisonnement logique. Un ordre aléatoire peut entraîner une baisse de performance.

Des chercheurs de Google DeepMind et de Stanford ont souligné que la présentation des prémisses dans leur ordre logique naturel améliore les performances du modèle. Pour les modèles comme les LLM, modifier l'ordre des prémisses conduit à une baisse de performance, un aspect nécessitant des recherches plus approfondies.

L'ordre des prémisses a un impact significatif sur les performances de raisonnement des grands modèles de langage et reste un défi important. Des modèles comme Gemini et GPT-4 présentent des faiblesses importantes à cet égard, avec une baisse significative des performances des LLM.