Récemment, Anna Makanju, vice-présidente des affaires mondiales d'OpenAI, a exprimé son point de vue sur les biais de l'intelligence artificielle lors du « Sommet du futur » des Nations Unies.
Elle a mentionné que des modèles de « raisonnement » comme o1 d'OpenAI peuvent réduire significativement les biais dans les systèmes d'IA. Mais comment o1 y parvient-il ? Makanju explique que ces modèles peuvent auto-identifier les biais dans leurs réponses et mieux suivre les règles visant à éviter les réponses « nuisibles ».
Elle a déclaré qu'en traitant les questions, le modèle o1 prend plus de temps pour évaluer ses réponses et peut s'auto-contrôler : « Il peut dire : "Voici comment j'ai résolu ce problème", puis examiner sa réponse et se dire : "Oh, il y a peut-être une faille de raisonnement ici." » Elle a même souligné qu'o1 est « presque parfait » pour analyser ses propres biais, et que ses performances s'amélioreront avec les progrès technologiques.
Cependant, cette affirmation de « presque parfait » semble quelque peu exagérée. Des tests internes d'OpenAI ont révélé qu'o1 n'a pas obtenu de bons résultats dans certains tests de biais par rapport aux modèles « non raisonnés », y compris son propre GPT-4o. Sur des questions concernant la race, le genre et l'âge, o1 a même été moins performant que GPT-4o dans certains cas. Bien qu'o1 se soit mieux comporté en matière de discrimination implicite, il a été plus marqué par la discrimination explicite sur les questions d'âge et de race.
Plus intéressant encore, la version économique d'o1, o1-mini, a obtenu de pires résultats. Les tests ont montré qu'o1-mini présentait une probabilité plus élevée de discrimination explicite en fonction du genre, de la race et de l'âge que GPT-4o, et une discrimination implicite plus marquée sur les questions d'âge.
En outre, les modèles de raisonnement actuels présentent de nombreuses limitations. OpenAI reconnaît également que les avantages d'o1 sont minimes pour certaines tâches. Il est plus lent à réagir, certaines questions nécessitant plus de 10 secondes pour obtenir une réponse. De plus, le coût d'o1 n'est pas négligeable, son coût de fonctionnement étant de 3 à 4 fois supérieur à celui de GPT-4o.
Si les modèles de raisonnement dont parle Makanju sont effectivement la meilleure voie pour parvenir à une IA équitable, ils devront également s'améliorer sur d'autres aspects que les biais pour devenir une alternative viable. Sinon, seuls les clients disposant de ressources financières importantes et prêts à accepter divers retards et problèmes de performance pourront réellement en bénéficier.
Points clés :
🌟 Le modèle o1 d'OpenAI est présenté comme capable de réduire significativement les biais de l'IA, mais les résultats des tests montrent qu'il est moins performant que prévu.
💡 o1 est meilleur que GPT-4o en matière de discrimination implicite, mais pire en matière de discrimination explicite.
💰 Le modèle de raisonnement o1 est coûteux, lent et nécessite encore des améliorations sur plusieurs aspects.