Les dangers des biais algorithmiques dans l'IA

Des chercheurs de l'Université de Toronto et du MIT ont récemment découvert que les systèmes d'IA entraînés avec des étiquettes descriptives peuvent prendre des décisions plus sévères que les humains, posant ainsi une menace pour notre avenir. L'étude révèle de profondes failles dans l'entraînement des algorithmes d'IA, pouvant conduire à des problèmes de décisions dans des domaines tels que la location de logements, les prêts bancaires et les interventions chirurgicales.

L'expérience menée sur un ensemble de données d'images de chiens a montré que des étiquettes descriptives conduisaient à des jugements plus sévères envers les chiens considérés comme "non conformes", ce qui pourrait engendrer des injustices sociales. Ce biais algorithmique pourrait s'étendre à d'autres domaines comme les candidatures au doctorat ou le recrutement, renforçant ainsi les préjugés sociétaux et aggravant les inégalités.

Les chercheurs appellent à une correction rapide de ce problème et soulignent l'importance d'un étiquetage précis des données pour éviter les biais algorithmiques à l'ère de l'IA. Dans le cas contraire, les conséquences sur la vie humaine pourraient être dramatiques.