Des chercheurs de l'Université de Norwich au Royaume-Uni ont développé une méthode pour évaluer la présence de biais politiques dans les réponses de ChatGPT. Ils ont demandé à ChatGPT d'imiter des personnes appartenant à différents partis politiques pour répondre à une série de questions idéologiques, comparant ensuite ces réponses à une réponse par défaut. Les résultats ont révélé que ChatGPT penchait davantage vers les positions du Parti démocrate américain, du Parti travailliste britannique et des partis de gauche brésiliens.
Les chercheurs s'inquiètent du fait que le biais politique de ChatGPT puisse influencer les opinions politiques des utilisateurs, voire même avoir un impact sur les résultats électoraux. Ils soulignent que le biais politique des systèmes d'IA pourrait reproduire ou amplifier les défis existants liés à internet et aux médias sociaux. Ils appellent à de futures recherches pour explorer plus avant l'influence des données d'entraînement et des algorithmes sur les réponses de ChatGPT.
Les chercheurs considèrent que le problème du biais politique de ChatGPT est un sujet important qui mérite d'être étudié en profondeur. Il est crucial pour les utilisateurs de comprendre les biais de ChatGPT et de rester critiques afin de garantir l'accès à des informations justes et impartiales.