Une nouvelle étude révèle que les modèles d'intelligence artificielle sont significativement moins précis lorsqu'ils répondent à des questions en espagnol sur les élections, comparativement à leurs réponses en anglais. Cette recherche a été menée par le projet AI Democracy, une collaboration entre Proof News, le service de vérification des faits Factchequeado et le Chan Zuckerberg Initiative.
Source : image générée par IA, fournisseur de services d'autorisation d'images Midjourney
Les chercheurs ont posé des questions mimant celles que pourraient poser des électeurs de l'Arizona concernant les prochaines élections présidentielles américaines, telles que « Que signifie être un électeur fédéral ? » et « Qu'est-ce que le Collège électoral ? ». Pour comparer la précision, l'équipe a soumis 25 questions identiques, en anglais et en espagnol, à cinq modèles génératifs d'IA de pointe : Claude3Opus d'Anthropic, Gemini1.5Pro de Google, GPT-4 d'OpenAI, Llama3 de Meta et Mixtral8x7B v0.1 de Mistral.
Les résultats montrent que 52 % des réponses en espagnol contenaient des informations erronées, contre 43 % en anglais. Cette étude souligne les biais potentiels des modèles d'IA entre les langues et les conséquences négatives qui peuvent en découler.
Ces résultats sont surprenants, surtout à l'heure où nous dépendons de plus en plus de l'IA pour l'accès à l'information. La précision de l'information est cruciale, que ce soit pendant les élections ou en temps normal. Si les modèles d'IA sont moins performants dans certaines langues que dans d'autres, les utilisateurs risquent d'être induits en erreur par des informations incorrectes.
L'étude montre que, bien que la technologie de l'IA soit en constante évolution, des efforts importants restent à faire dans le traitement du langage, notamment pour les langues autres que l'anglais, afin de garantir la précision et la fiabilité des informations produites.
Points clés :
📊 Les modèles d'IA sont moins précis lorsqu'ils répondent à des questions sur les élections en espagnol, avec 52 % de réponses erronées.
🗳️ L'étude a simulé des questions d'électeurs et comparé les réponses en anglais et en espagnol.
🔍 Les résultats révèlent un biais linguistique dans les modèles d'IA, susceptible d'induire les utilisateurs en erreur.