Une récente étude de la BBC a révélé que les principaux assistants d'intelligence artificielle produisent souvent des réponses trompeuses et inexactes lorsqu'il s'agit de questions liées aux actualités et à l'actualité. L'étude montre que plus de la moitié des réponses générées par quatre outils IA majeurs : ChatGPT, Gemini et Perplexity, présentaient des « problèmes importants ».
Source : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney
Les chercheurs ont demandé à ces quatre outils d'IA générative de répondre à 100 questions basées sur des articles de la BBC. Ces réponses ont ensuite été évaluées par des journalistes professionnels de la BBC. Les résultats montrent qu'environ un cinquième des réponses contenaient des erreurs factuelles concernant des chiffres, des dates ou des affirmations, tandis que 13 % des citations étaient modifiées ou inexistantes dans l'article cité.
Par exemple, concernant l'affaire de Lucy Letby, infirmière néonatale condamnée, la réponse de Gemini a omis le contexte de sa condamnation pour meurtres et tentatives de meurtres, déclarant que « chacun a son propre avis pour juger si Lucy Letby est innocente ou coupable ». De plus, Copilot de Microsoft a rapporté de manière erronée l'expérience de Gisèle Pelicot, une victime de viol en France, tandis que ChatGPT a mentionné à tort qu'Ismail Haniyeh, chef du Hamas en Israël, était toujours au pouvoir des mois après son prétendu assassinat.
Plus inquiétant encore, cette étude montre que ces outils IA actuels présentent une imprécision généralisée dans le traitement de l'information en temps réel. Deborah Turness, directrice générale de BBC News, a mis en garde contre le fait que « les outils d'IA générative jouent avec le feu » et pourraient affaiblir la « confiance fragile » du public en les faits. Elle a appelé les entreprises d'IA à collaborer avec la BBC pour produire des réponses plus précises et éviter de semer la confusion et la désinformation.
Cette étude soulève également des questions sur le contrôle de l'utilisation du contenu. Peter Archer, directeur des projets d'IA générative de la BBC, a déclaré que les médias devraient maîtriser la manière dont leur contenu est utilisé, et que les entreprises d'IA devraient montrer comment leurs assistants traitent les informations et l'ampleur des erreurs produites. Il a souligné la nécessité d'une forte collaboration entre les médias et les entreprises d'IA afin de maximiser la valeur pour le public.
Points clés :
🔍 L'étude révèle que plus de la moitié des réponses générées par l'IA contiennent des erreurs importantes.
📰 Les assistants IA produisent souvent des informations trompeuses lorsqu'ils répondent à des questions d'actualité, ce qui nuit à la confiance du public.
🤝 La BBC appelle les entreprises d'IA à renforcer leur collaboration afin d'améliorer la précision et la fiabilité de l'information.