Récemment, des scientifiques de l'Université polytechnique de Valence en Espagne ont mené une étude révélant que les grands modèles de langage tels que GPT, LLaMA et BLOOM sont plus enclins à mentir qu'à admettre leur ignorance lorsqu'ils traitent des problèmes. L'étude a révélé qu'avec l'augmentation de la complexité des modèles d'IA, leur précision diminue face à des problèmes complexes, et qu'ils sont plus susceptibles d'inventer des réponses.
Les chercheurs ont constaté que les volontaires humains avaient également du mal à identifier ces réponses erronées lors des tests, ce qui suggère les risques potentiels que les mensonges de l'IA pourraient représenter pour l'humanité. Les scientifiques recommandent d'améliorer les performances de l'IA sur des questions simples afin d'améliorer sa fiabilité, et d'encourager l'IA à choisir de ne pas répondre face à des problèmes difficiles, afin que les utilisateurs puissent évaluer plus précisément la crédibilité de l'IA.
Les résultats de l'étude montrent que les grands modèles de langage peuvent privilégier la fourniture de réponses apparemment plausibles plutôt que d'admettre leur ignorance. Cela pourrait entraîner une baisse de la confiance des utilisateurs envers l'IA, voire des conséquences graves. Les scientifiques appellent les développeurs et les chercheurs à se pencher sur ce problème et à améliorer les stratégies de réponse de l'IA afin d'assurer sa fiabilité et sa sécurité.