Une récente étude menée par les universités de Washington, Carnegie Mellon et Xi'an Jiaotong a révélé un biais politique dans les modèles linguistiques d'intelligence artificielle. Les chercheurs ont testé 14 modèles en utilisant le test du compas politique pour déterminer leur orientation politique.
Les résultats ont montré que ChatGPT et GPT-4 d'OpenAI étaient considérés comme les modèles les plus libéraux de gauche, tandis que LLaMA de Meta était considéré comme le modèle le plus autoritaire de droite.
Les chercheurs ont souligné que bien que le test du compas politique ne soit pas une méthode parfaite, il permet de mettre en lumière les biais des modèles. Ils exhortent les entreprises à prendre conscience de ces biais et à s'efforcer de rendre leurs produits plus équitables.
Les résultats de cette étude rappellent la nécessité de rester vigilant quant à la présence de biais politiques lors du développement et de l'utilisation des modèles linguistiques d'IA, et de garantir une expression juste et diversifiée.