Récemment, Microsoft a déposé un brevet visant à réduire ou à éliminer les fausses informations générées par l'intelligence artificielle. Intitulé « Interaction avec les modèles linguistiques à l'aide de connaissances et de retours externes », ce brevet a été soumis à l'Office américain des brevets et des marques (USPTO) l'année dernière et a été rendu public le 31 octobre.
Au cœur de cette proposition se trouve un « système d'amélioration des réponses » (RAS) pour les modèles d'IA, permettant d'extraire automatiquement plus d'informations en fonction des requêtes des utilisateurs et de vérifier la « validité » de leurs réponses.
Plus précisément, le système d'amélioration des réponses peut identifier si des informations provenant de « sources externes » permettraient de mieux répondre aux questions des utilisateurs. Si la réponse de l'IA ne contient pas ces informations, le système la juge insuffisante. De plus, le RAS peut signaler aux utilisateurs les éventuelles lacunes de la réponse, et les utilisateurs peuvent fournir un retour d'information. L'avantage de cette solution est qu'elle ne nécessite pas d'ajustements minutieux des modèles existants par les développeurs ou les entreprises.
À l'heure actuelle, le numéro de brevet n'est pas encore affiché sur le site Web de l'USPTO, ce qui signifie que le brevet est toujours en cours d'examen. Nous avons contacté Microsoft pour obtenir plus d'informations, notamment pour savoir si ce brevet est lié à l'outil de réduction des hallucinations de l'IA annoncé précédemment par Microsoft : l'outil Azure AI Content Safety. Cet outil fournit une vérification pilotée par l'IA pour les chatbots d'entreprise, capable de vérifier les faits en arrière-plan pour déterminer si la réponse de l'IA est « sans fondement » ou « fondée », ne fournissant que des réponses étayées par des données réelles avant de les présenter à l'utilisateur.
Le problème des hallucinations de l'IA est l'un des défis majeurs auxquels sont confrontés les IA génératives, affectant gravement la crédibilité des chatbots. À cet égard, les systèmes d'IA de Google et de Twitter ont déjà commis des erreurs notables, telles que conseiller aux utilisateurs d'appliquer de la colle sur une pizza ou de manger des pierres, voire de diffuser de fausses informations sur les élections. Le PDG d'Apple, Tim Cook, a également admis que les technologies intelligentes d'Apple ne sont pas à l'abri des hallucinations. Récemment, l'outil de transcription audio « Whisper » d'OpenAI a également été reconnu comme produisant fréquemment des hallucinations, suscitant des inquiétudes quant à son utilisation dans les hôpitaux américains.
Malgré le problème des hallucinations de l'IA, la demande des géants de la technologie pour les centres de données d'IA reste forte. Des entreprises telles que Google, Microsoft et Meta envisagent l'énergie nucléaire comme une solution potentielle pour répondre aux besoins énergétiques élevés de l'IA.
Points clés :
🔍 Microsoft a déposé un nouveau brevet visant à réduire les fausses informations générées par l'IA.
🤖 Le cœur du brevet est l'introduction d'un système d'amélioration des réponses pour les modèles d'IA, permettant l'extraction automatique de plus d'informations.
⚡ Malgré le problème sérieux des hallucinations de l'IA, la demande des entreprises technologiques pour les centres de données d'IA reste forte.