Une récente étude du Tow Center for Digital Journalism de l'Université Columbia tire la sonnette d'alarme concernant les moteurs de recherche basés sur l'intelligence artificielle. L'étude révèle que ChatGPT présente de graves problèmes de précision lorsqu'il cite des sources d'actualité, et ce même pour les éditeurs travaillant directement avec OpenAI.
L'équipe de recherche a mené un test complet sur 200 citations d'actualités provenant de 20 éditeurs différents. Les résultats sont alarmants : dans 153 cas, ChatGPT a fourni des informations de source erronées ou partiellement incorrectes. Plus inquiétant encore, le système admet rarement son manque d'informations, ne reconnaissant son incapacité à trouver la source que sept fois.
Les chercheurs soulignent que pour maintenir une bonne expérience utilisateur, ChatGPT préfère inventer des réponses plutôt que d'admettre son manque d'informations. Plus grave encore, le système affiche ces fausses sources avec une confiance déconcertante, sans manifester la moindre incertitude.
Même des éditeurs réputés ayant collaboré directement avec OpenAI, comme le New York Post et The Atlantic, ne sont pas épargnés. Dans certains cas, ChatGPT a même renvoyé vers des sites web ayant reproduit des articles sans autorisation, au lieu des sources originales.
Matt Honan, rédacteur en chef du MIT Technology Review, a commenté : « En tant qu'éditeur, ce n'est absolument pas ce que nous souhaitons voir, et les solutions actuellement envisageables sont extrêmement limitées. »
La réponse d'OpenAI à ces conclusions préoccupantes est restée prudente. La société souligne que ChatGPT sert 250 millions d'utilisateurs par semaine et affirme travailler avec ses partenaires pour améliorer la précision des citations.
La conclusion de l'étude est claire : pour le moment, les éditeurs ne peuvent garantir que ChatGPT Search présentera leurs contenus avec exactitude, qu'ils aient ou non un partenariat avec OpenAI. Cette découverte ne manquera pas de relancer le débat et d'encourager les améliorations concernant la fiabilité de l'information générée par l'intelligence artificielle.