Bien que les grands modèles linguistiques tels que ChatGPT, Claude et Gemini soient impressionnants, ils partagent un gros problème : ils sont sujets aux hallucinations. Il s’agit d’un problème majeur dans le domaine de l’intelligence artificielle, et même Apple s’inquiète de la manière dont sa future intelligence artificielle, Apple Intelligence, gérera ces hallucinations. Heureusement, une équipe de chercheurs a mis au point un détecteur d’hallucinations pour l’IA, capable de déterminer si une IA invente des informations.

Robot Intelligence artificielle IA

Source : Image générée par IA, fournie par Midjourney

Ces hallucinations ont conduit à de nombreuses erreurs embarrassantes et intrigantes, et constituent l’une des principales raisons pour lesquelles des IA comme ChatGPT ne sont pas encore plus pratiques. Nous avons vu Google devoir modifier ses aperçus de recherche IA, car l’IA a commencé à dire aux gens qu’il était sans danger de manger des pierres et de mettre de la colle sur une pizza. Un avocat a même été sanctionné pour avoir utilisé ChatGPT pour rédiger des documents judiciaires, le chatbot ayant inventé des citations.

Selon l’article, le nouvel algorithme développé par les chercheurs est capable de déterminer si une réponse générée par l’IA est exacte dans environ 79 % des cas. Ce n’est bien sûr pas un résultat parfait, mais c’est 10 % de mieux que les autres méthodes courantes.

Les chatbots comme Gemini et ChatGPT peuvent être très utiles, mais ils sont aussi facilement sujets à des réponses inventées. Cette recherche a été menée par des membres du département d’informatique de l’université d’Oxford. Dans leur article, les chercheurs expliquent que leur méthode est relativement simple.

Tout d’abord, ils demandent au chatbot de répondre plusieurs fois à la même requête, généralement cinq à dix fois. Ensuite, ils calculent une valeur appelée entropie sémantique, qui mesure la similarité ou la différence de sens des réponses. Si le modèle donne des réponses différentes pour chaque requête, le score d’entropie sémantique sera plus élevé, indiquant que l’IA invente probablement des réponses. Cependant, si les réponses sont identiques ou similaires en termes de sens, le score d’entropie sémantique sera plus faible, indiquant que les réponses fournies sont plus cohérentes et probablement vraies. Ce n’est pas un détecteur d’hallucinations IA infaillible, mais c’est une approche intéressante.

D’autres méthodes reposent sur ce qu’on appelle l’entropie naïve, qui consiste généralement à vérifier si le libellé des réponses est différent, plutôt que leur signification. Elle est donc moins susceptible de détecter les hallucinations avec précision que le calcul de l’entropie sémantique, car elle ne se concentre pas sur la signification des mots dans les phrases.

Les chercheurs indiquent que cet algorithme pourrait être ajouté aux chatbots comme ChatGPT via un bouton, permettant aux utilisateurs d’obtenir un « score de certitude » pour les réponses obtenues à leurs requêtes. L’intégration directe d’un détecteur d’hallucinations IA dans les chatbots est attrayante, et on comprend donc l’utilité d’ajouter un tel outil à divers chatbots.