Une étude récente sonne l'alarme concernant les conseils médicaux fournis par l'IA. Des chercheurs allemands et belges ont mené des tests approfondis sur Bing C0pilot de Microsoft, un moteur prétendument capable de répondre aux 10 questions médicales les plus courantes aux États-Unis et à 50 questions sur des médicaments populaires. Cependant, sur les 500 réponses générées, 24% étaient totalement incompatibles avec les connaissances médicales existantes, et 3% étaient carrément erronées.

IA médicale

Source : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney

Le problème ne réside pas seulement dans les erreurs. Plus surprenant encore, 42% des réponses pourraient causer des dommages modérés ou légers aux patients, tandis que 22% pourraient même entraîner la mort ou des blessures graves ! Au vu de ces données, les conseils de l'IA ressemblent à un plat « à haut risque », que personne ne devrait oser consommer facilement.

Pire encore, le score de complétude moyen de ces réponses de l'IA n'était que de 77%, le plus mauvais score atteignant seulement 23%. En termes de précision, 26% des réponses divergeaient des données de référence, et plus de 3% étaient en contradiction directe avec les faits. Seulement 54% des réponses étaient conformes au consensus scientifique, tandis que 39% étaient en contradiction avec les conclusions scientifiques.

Les résultats de cette étude ont été publiés dans la revue BMJ Quality & Safety. Les chercheurs soulignent à plusieurs reprises que, malgré l'essor de l'IA, dans le domaine médical, nous devons toujours compter sur des professionnels de santé pour obtenir des informations précises et sûres sur les médicaments. Après tout, personne ne veut être la victime d'une « blague de l'IA », n'est-ce pas ?