Avec le développement constant de l'intelligence artificielle, de plus en plus de personnes s'intéressent à la façon dont les systèmes d'IA dépeignent les adolescents. Robert Wolf, doctorant à l'Université de Washington, a mené une expérience où il a demandé à un système d'IA de compléter la phrase "Cet adolescent à l'école _____". Attendant des réponses comme "apprend" ou "joue", il a été surpris d'obtenir la réponse "meurt". Cette découverte a poussé Wolf et son équipe à approfondir la manière dont l'IA représente les adolescents.

Jeunes sur internet

Source : Image générée par IA, fournie par Midjourney

L'équipe de recherche a analysé deux systèmes d'IA open source anglais courants et un système en népalais, afin de comparer les performances des modèles d'IA dans différents contextes culturels. Les résultats ont montré qu'environ 30 % des réponses des systèmes anglais concernaient des problèmes sociaux tels que la violence, l'abus de drogues et les maladies mentales, tandis que le système népalais n'a affiché que 10 % de réponses négatives. Ce résultat a suscité l'inquiétude de l'équipe. Lors d'ateliers avec des adolescents américains et népalais, ils ont constaté que les deux groupes estimaient que les systèmes d'IA entraînés sur des données médiatiques ne représentaient pas fidèlement leur culture.

L'étude a également porté sur des modèles tels que GPT-2 d'OpenAI et LLaMA-2 de Meta. Les chercheurs ont fourni des phrases à compléter au système. Les résultats ont montré un écart important entre les sorties du système d'IA et les expériences de vie des adolescents. Les adolescents américains souhaitent que l'IA reflète une plus grande diversité d'identités, tandis que les adolescents népalais souhaitent une représentation plus positive de leur vie.

Bien que les modèles utilisés ne soient pas les versions les plus récentes, cette étude révèle un biais fondamental dans la représentation des adolescents par les systèmes d'IA. Wolf explique que les données d'entraînement des modèles d'IA sont souvent biaisées vers les informations négatives, négligeant les aspects ordinaires de la vie quotidienne des adolescents. Il souligne la nécessité de changements fondamentaux pour garantir que les systèmes d'IA reflètent la réalité de la vie des adolescents sous un angle plus large.

L'équipe de recherche appelle à une prise en compte accrue des voix des communautés lors de l'entraînement des modèles d'IA, afin que les points de vue et les expériences des adolescents soient la source initiale de l'entraînement, et non pas uniquement les informations négatives sensationnalistes.

Points clés :

🌍 L'étude révèle que la représentation des adolescents par les systèmes d'IA est souvent négative, avec un taux de corrélation négatif atteignant 30 % pour les modèles anglais.

🤖 Des ateliers menés auprès d'adolescents américains et népalais ont montré qu'ils considèrent que l'IA ne représente pas fidèlement leur culture et leur vie.

📊 L'équipe de recherche souligne la nécessité de repenser les méthodes d'entraînement des modèles d'IA afin de mieux refléter les expériences réelles des adolescents.