Une nouvelle étude a récemment attiré l'attention en révélant que les réponses de ChatGPT reflètent les valeurs culturelles des pays anglophones et protestants.
Au cœur de cette recherche se trouve le constat que les grands modèles linguistiques, comme ChatGPT, étant entraînés sur d'énormes quantités de données provenant de certains pays et cultures, peuvent produire des résultats biaisés culturellement.
L'équipe de recherche, dirigée par René F. Kizilcec et ses collègues, a exploré ce biais culturel en soumettant cinq versions différentes d'OpenAI GPT à dix questions tirées de l'Enquête mondiale sur les valeurs (World Values Survey). Cette enquête vise à collecter des données sur les valeurs culturelles à travers le monde. Les dix questions étaient conçues pour positionner les répondants sur deux axes : valeurs de survie vs. valeurs d'auto-expression, et valeurs traditionnelles vs. valeurs séculières-rationnelles.
Les questions comprenaient des sujets tels que « Quelle est selon vous la légitimité de l'homosexualité ? » et « Quelle importance Dieu occupe-t-il dans votre vie ? », les chercheurs souhaitant obtenir des réponses aussi naturelles que celles d'un être humain.
Les résultats ont montré que les réponses de ChatGPT ressemblaient fortement à celles des personnes vivant dans des pays anglophones et protestants, affichant un penchant pour les valeurs d'auto-expression, notamment en matière de protection de l'environnement, d'inclusion de la diversité, d'égalité des sexes et d'acceptation des différentes orientations sexuelles.
En revanche, ses réponses ne reflétaient pas les valeurs des pays très traditionnels, comme les Philippines et l'Irlande, ni celles des pays très sécularisés, comme le Japon et l'Estonie.
Pour atténuer ce biais culturel, les chercheurs ont essayé d'utiliser des « invites culturelles », demandant au modèle de répondre du point de vue de citoyens ordinaires de 107 pays. Cette méthode s'est avérée efficace pour réduire les biais de GPT-4 dans 71 % des pays.
Les auteurs de l'étude soulignent que, sans invites soigneusement formulées, les biais culturels présents dans les modèles GPT risquent de fausser les interactions générées par cet outil, conduisant à des expressions qui ne correspondent pas aux valeurs culturelles ou personnelles des utilisateurs.
Points clés :
🌍 L'étude révèle que les valeurs culturelles de ChatGPT sont similaires à celles des pays anglophones et protestants, montrant un certain biais culturel.
💬 L'étude, en faisant répondre GPT aux questions de l'Enquête mondiale sur les valeurs, a mis en lumière les préjugés du modèle concernant les valeurs de survie/auto-expression et les valeurs traditionnelles/séculières.
🔍 Les chercheurs ont tenté de réduire les biais grâce à des « invites culturelles », obtenant des résultats positifs : les biais ont été atténués dans 71 % des pays.