Une nouvelle étude du centre d'information numérique du Columbia Journalism Review révèle que les outils de recherche IA populaires fournissent des informations incorrectes ou trompeuses dans plus de 60 % des cas. Ce résultat est préoccupant, car ces outils non seulement érodent la confiance du public dans les informations, mais aussi causent des pertes de trafic et de revenus pour les éditeurs.

Robot IA rédaction IA éducation

Source : Image générée par IA, fournisseur de services d'autorisation d'images : Midjourney

Les chercheurs ont testé huit robots conversationnels IA génératifs, notamment ChatGPT, Perplexity, Gemini et Grok, en leur demandant d'identifier des extraits de 200 articles d'actualité récents. Les résultats montrent que plus de 60 % des réponses étaient erronées. Ces robots conversationnels inventent souvent des titres, ne citent pas les articles ou citent du contenu sans autorisation. Même lorsqu'ils identifient correctement l'éditeur, les liens pointent souvent vers des URL invalides, des versions republiées ou des pages sans rapport avec le contenu.

De manière décevante, ces robots conversationnels expriment rarement de l'incertitude et fournissent des réponses erronées avec une confiance inappropriée. Par exemple, ChatGPT a fourni 134 informations erronées sur 200 requêtes, mais n'a exprimé de doute que 15 fois. Même les versions payantes de Perplexity Pro et Grok3 n'ont pas fait mieux, avec un nombre encore plus élevé de réponses erronées, malgré leurs prix respectifs de 20 $ et 40 $ par mois.

En ce qui concerne les citations de contenu, plusieurs robots conversationnels n'ont pas respecté les restrictions des éditeurs. Cinq robots conversationnels ont même ignoré le protocole d'exclusion des robots, une norme largement acceptée. Perplexity a correctement cité un article de National Geographic, même si l'éditeur limitait son accès aux robots d'exploration. Simultanément, ChatGPT a republié un article du USA Today protégé par un paywall via Yahoo News sans autorisation.

De plus, de nombreux robots conversationnels redirigent les utilisateurs vers des articles republiés sur des plateformes comme AOL ou Yahoo, au lieu des sources originales, même lorsqu'un accord d'autorisation a été conclu avec les entreprises d'IA. Par exemple, Perplexity Pro a cité une version republiée d'un article du Texas Tribune sans attribution appropriée. Grok3 et Gemini ont souvent inventé des URL ; 154 des 200 réponses de Grok3 ont mené à des pages erronées.

Cette étude met en évidence la crise croissante à laquelle sont confrontés les organes de presse. De plus en plus d'Américains utilisent les outils d'IA comme source d'information, mais contrairement à Google, les robots conversationnels ne redirigent pas le trafic vers les sites web. Ils résument le contenu sans lien retour, ce qui prive les éditeurs de revenus publicitaires. Danielle Coffey de la News Media Alliance a averti que sans contrôle des robots d'exploration, les éditeurs ne pourront pas « monétiser efficacement leur contenu précieux ou payer les salaires des journalistes ».

Après avoir contacté OpenAI et Microsoft, les chercheurs ont reçu des réponses défensives, mais aucune réponse concrète aux conclusions de l'étude. OpenAI a déclaré qu'il « respecte les préférences des éditeurs » et aide les utilisateurs à « découvrir du contenu de qualité », tandis que Microsoft a affirmé qu'il respectait le protocole « robots.txt ». Les chercheurs soulignent que les pratiques de citation erronées sont un problème systémique et non un phénomène propre à un outil particulier. Ils appellent les entreprises d'IA à améliorer la transparence, l'exactitude et le respect des droits des éditeurs.

Points clés :

📊 L'étude révèle que les réponses des robots conversationnels IA sont erronées dans plus de 60 % des cas, ce qui nuit gravement à la crédibilité des informations.

📰 De nombreux robots conversationnels ignorent les restrictions des éditeurs et citent du contenu sans autorisation et des liens erronés.

💰 Les organes de presse sont confrontés à une double crise de trafic et de revenus, les outils d'IA remplaçant progressivement les moteurs de recherche traditionnels.