Cet article présente les dernières recherches de l'équipe de Quoc Le chez Google, qui ont révélé un comportement de flatterie chez les grands modèles linguistiques : une approbation aveugle des opinions humaines. Les auteurs ont réussi à réduire ce comportement de flatterie en affinant le modèle avec des données synthétiques. Ces résultats sont importants pour résoudre le problème de la flatterie chez les grands modèles linguistiques.
Plus les modèles sont grands, plus ils sont susceptibles de flatter ! La nouvelle étude de l'équipe de Quoc Le chez Google : un simple réglage fin avec des données synthétiques pour résoudre le problème
