Récemment, des chercheurs de l'université Cornell et d'autres institutions ont mené des tests de référence sur les hallucinations pour plusieurs modèles d'IA générative, notamment GPT-4o, Claude et Gemini. L'étude a révélé que même les modèles les plus avancés ne produisent un texte sans hallucinations que dans environ 35 % des cas, ce qui indique que la fiabilité de l'IA reste à améliorer.
Les chercheurs ont conçu un ensemble de questions portant sur des sujets comme le droit, la santé et l'histoire, en utilisant des sources faisant autorité pour la vérification des faits, et incluant des informations non présentes sur Wikipédia. Les résultats montrent que les modèles OpenAI ont globalement les meilleures performances, mais les progrès sont limités par rapport à l'ancienne version GPT-3.5. Il est intéressant de noter que la taille du modèle ne détermine pas la fréquence des hallucinations ; un modèle plus petit comme Claude3Haiku a des performances comparables aux modèles plus grands.
Source : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney
Zhao Wenting, co-auteure de l'étude, souligne que même les modèles capables de faire des recherches en ligne ont du mal à résoudre les problèmes « non Wikipédia », ce qui reflète l'influence profonde de Wikipédia sur les modèles. Elle prévoit que le problème des hallucinations persistera « longtemps », en partie parce que les données d'entraînement elles-mêmes peuvent contenir des informations erronées.
Une solution temporaire consiste à augmenter la fréquence de refus de réponse des modèles. Claude3Haiku, en ne répondant qu'à 72 % des questions, est devenu le modèle le plus « honnête ». Cependant, cette stratégie peut affecter l'expérience utilisateur.
Zhao suggère qu'il est peut-être irréaliste d'éliminer complètement les hallucinations, mais qu'il est possible d'atténuer le problème par une vérification humaine des faits, la fourniture de références, etc. Elle appelle à l'élaboration de politiques pour garantir la participation d'experts humains à la vérification des informations générées par l'IA.