À l'heure où l'intelligence artificielle connaît un développement fulgurant, les IA génératives, bien qu'apportant de nombreux avantages, posent un problème majeur : la propagation de fausses informations. Pour relever ce défi, le géant technologique Microsoft a récemment lancé un nouvel outil baptisé "Correction", destiné à corriger les inexactitudes contenues dans les contenus générés par l'IA.

Intégré à l'API de sécurité du contenu Azure AI de Microsoft, "Correction" est actuellement en phase de prévisualisation. Cet outil peut automatiquement identifier les textes potentiellement erronés, comme un résumé erroné du rapport trimestriel d'une entreprise, et les comparer à des sources fiables afin de corriger ces erreurs. Il est important de noter que cette technologie est compatible avec tous les modèles d'IA générateurs de texte, y compris Llama de Meta et GPT-4 d'OpenAI.

Un porte-parole de Microsoft a déclaré que "Correction" utilise une combinaison de petits et de grands modèles linguistiques pour garantir la cohérence du contenu généré avec les documents originaux. Ils espèrent que cette nouvelle fonctionnalité permettra aux développeurs, notamment dans le secteur médical, d'améliorer la précision de leurs réponses.

image.png

Cependant, les experts restent prudents. Os Keyes, doctorant à l'université de Washington, estime que tenter d'éliminer les faussetés générées par l'IA revient à vouloir retirer l'hydrogène de l'eau : cela fait partie intégrante du fonctionnement de la technologie. En réalité, les modèles de génération de texte produisent des fausses informations parce qu'ils ne "savent" rien en réalité, ils ne font que des suppositions basées sur leur ensemble de données d'entraînement. Une étude a révélé que ChatGPT d'OpenAI commettait des erreurs dans 50 % des cas lorsqu'il répondait à des questions médicales.

La solution de Microsoft consiste à utiliser une paire de méta-modèles "d'édition" se recoupant pour identifier et corriger ces fausses informations. Un modèle de classification est chargé de rechercher les fragments de texte potentiellement erronés, fictifs ou non pertinents. Si ces problèmes sont détectés, un deuxième modèle linguistique est introduit pour tenter de corriger les erreurs en fonction d'un "document de base" spécifique.

Bien que Microsoft affirme que "Correction" peut améliorer considérablement la fiabilité et la crédibilité des contenus générés par l'IA, les experts restent dubitatifs. Mike Cook, chercheur à l'université Queen Mary, souligne que même si "Correction" est aussi efficace que promis, il pourrait aggraver les problèmes de confiance et d'explicabilité de l'IA. Ce service pourrait donner aux utilisateurs un faux sentiment de sécurité, leur faisant croire que la précision du modèle est supérieure à la réalité.

Il est important de noter que le lancement de "Correction" par Microsoft cache également une stratégie commerciale. Bien que la fonctionnalité elle-même soit gratuite, la fonction de "détection des documents de base" nécessaire à la détection des fausses informations est soumise à des limites d'utilisation mensuelles, les dépassements étant payants.

Microsoft est manifestement sous pression pour démontrer la valeur de ses investissements dans l'IA. Au deuxième trimestre de cette année, l'entreprise a dépensé près de 19 milliards de dollars en dépenses d'investissement et en équipements liés à l'IA, mais les revenus générés par l'IA restent faibles jusqu'à présent. Récemment, des analystes de Wall Street ont abaissé la notation des actions de Microsoft, remettant en question la viabilité à long terme de sa stratégie en matière d'IA.

La précision et les risques potentiels liés aux fausses informations sont devenues l'une des principales préoccupations des entreprises lors de la phase pilote des outils d'IA. Cook conclut que, s'il s'agissait d'un cycle de vie de produit normal, l'IA générative devrait rester au stade de la recherche et du développement académique, afin de continuer à améliorer et à comprendre ses avantages et ses inconvénients. Or, nous l'avons déjà déployée dans de nombreux secteurs.

L'outil "Correction" de Microsoft représente sans aucun doute une tentative de résolution du problème des fausses informations générées par l'IA, mais il reste à voir s'il pourra véritablement résoudre la crise de confiance liée à l'IA générative. Face au développement rapide de la technologie de l'IA, la question de l'équilibre entre innovation et risques constituera un défi majeur pour l'ensemble du secteur.