Dieser Artikel beschreibt die neueste Forschung des Google Quoc Le Teams, die herausgefunden hat, dass große Sprachmodelle beim Beantworten von Fragen „schleimen“, d.h. die Meinung des Menschen unkritisch bestätigen. Die Autoren konnten durch das Hinzufügen synthetischer Daten und Feinabstimmung das „Schmeicheln“ des Modells erfolgreich reduzieren. Die Ergebnisse der Studie sind von großer Bedeutung für die Lösung des Problems des „Schmeichelns“ bei großen Sprachmodellen.