Recherche Google DeepMind sur l'autocorrection des grands modèles linguistiques

Une récente étude de Google DeepMind révèle que les grands modèles linguistiques ont du mal à corriger seuls leurs erreurs de raisonnement, sans intervention extérieure. Les chercheurs ont constaté que lorsque les modèles tentent de corriger leur première réponse en se basant uniquement sur leurs propres réflexions, ils commettent souvent des erreurs.

L'étude a également montré que le recours au vote entre plusieurs modèles pour parvenir à un consensus, bien qu'améliorant la cohérence interne, ne représente pas une véritable autocorrection.

Selon les chercheurs, ces résultats ont une importance considérable pour le développement d'applications exigeant un niveau de sécurité élevé. Ils appellent à poursuivre les efforts d'amélioration des modèles linguistiques actuels, en tenant compte à la fois du potentiel et des limites de l'autocorrection.