Une récente enquête du journal britannique The Guardian révèle que le gouvernement britannique utilise activement des algorithmes d'apprentissage profond dans plusieurs ministères pour faciliter la prise de décision. Cependant, cette pratique met en lumière de graves problèmes de biais dans les données d'entraînement de ces algorithmes.
Par exemple, le ministère de l'Intérieur britannique utilise l'intelligence artificielle pour lire les passeports dans les aéroports, dans le but d'identifier et d'enquêter sur les cas de mariages potentiellement frauduleux. L'enquête a toutefois révélé que l'algorithme manifestait une discrimination manifeste à l'égard de voyageurs de certaines nationalités.
Les experts estiment que cela reflète un biais inhérent aux données utilisées pour entraîner l'algorithme. Pour résoudre ce problème, le gouvernement britannique doit améliorer la transparence des algorithmes, permettre un accès ouvert aux données et continuer à renforcer la réglementation juridique afin de garantir que toutes les organisations utilisant l'intelligence artificielle traitent chaque individu équitablement.
Des efforts conjoints sont nécessaires aux niveaux juridique, technique et éducatif pour que le développement de l'intelligence artificielle profite réellement à l'humanité et ne devienne pas un outil de discrimination.