Des recherches récentes ont révélé que les grands modèles de langage, tels que ChatGPT d'OpenAI, répètent fréquemment des informations erronées et nuisibles. Des chercheurs de l'Université de Waterloo au Canada ont mené une série de tests pour évaluer les capacités de compréhension de ChatGPT, découvrant que GPT-3 se contredisait et reproduisait des informations erronées et dangereuses dans ses réponses. Ils ont utilisé différents modèles d'enquête et posé des questions sur plus de 1200 affirmations distinctes, mettant ainsi en évidence ce problème.