Ces dernières années, la technologie de reconnaissance des émotions a progressivement émergé dans le secteur technologique. De nombreuses entreprises technologiques ont lancé des logiciels de reconnaissance des émotions basés sur l'IA, affirmant pouvoir déterminer l'état émotionnel d'une personne, y compris la joie, la tristesse, la colère et la frustration, à partir de données biologiques. Cependant, de plus en plus d'études scientifiques montrent que la fiabilité de ces technologies n'est pas aussi bonne que ce qui est annoncé.

Robot IA Intelligence artificielle (1)

Source : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney

Selon les dernières recherches, la technologie de reconnaissance des émotions est confrontée à de sérieux problèmes de validité scientifique. De nombreuses entreprises affirment que ces systèmes sont objectifs et fondés sur des méthodes scientifiques, mais en réalité, ils reposent souvent sur des théories dépassées. Ces théories supposent que les émotions sont quantifiables et s'expriment de la même manière partout dans le monde, alors qu'en réalité, l'expression des émotions est profondément influencée par la culture, l'environnement et les différences individuelles. Par exemple, l'humidité de la peau peut augmenter, diminuer ou rester inchangée en cas de colère, ce qui rend impossible de déterminer avec précision les émotions à partir d'un seul indicateur biologique.

Parallèlement, ces technologies de reconnaissance des émotions présentent des risques juridiques et sociaux, notamment sur le lieu de travail. Selon la nouvelle réglementation de l'UE, l'utilisation de systèmes d'IA d'inférence émotionnelle sur le lieu de travail est interdite, sauf pour des raisons médicales ou de sécurité. En Australie, la réglementation en la matière n'a pas encore suivi le rythme. Bien que certaines entreprises aient tenté d'utiliser l'analyse des émotions faciales lors du recrutement, l'efficacité et l'éthique de ces technologies ont suscité de nombreuses questions.

De plus, les technologies de reconnaissance des émotions présentent des problèmes potentiels de biais. Ces systèmes peuvent faire preuve de discrimination à l'égard de personnes de différentes races, de différents sexes et de différents handicaps lorsqu'ils identifient les émotions. Par exemple, certaines études montrent que les systèmes de reconnaissance des émotions ont tendance à considérer les personnes noires comme étant en colère lorsqu'elles sourient, même si le niveau de sourire est le même.

Bien que les entreprises technologiques reconnaissent les problèmes de biais liés à la reconnaissance des émotions, elles soulignent que ces biais proviennent principalement des ensembles de données utilisés pour entraîner ces systèmes. Pour résoudre ce problème, inTruth Technologies a déclaré qu'elle s'engageait à utiliser des ensembles de données diversifiés et inclusifs afin de réduire les biais.

L'opinion publique sur la technologie de reconnaissance des émotions n'est pas optimiste. Une récente enquête a révélé que seulement 12,9 % des adultes australiens sont favorables à l'utilisation de technologies de reconnaissance des émotions faciales sur le lieu de travail, beaucoup considérant cela comme une violation de la vie privée.

Points clés :

🌐 Le marché mondial est en croissance rapide, mais les bases scientifiques de la technologie de reconnaissance des émotions sont remises en question.

⚖️ L'UE a interdit l'utilisation de systèmes d'IA d'inférence émotionnelle sur le lieu de travail, tandis que l'Australie doit mettre en place une réglementation en la matière.

🤖 Le public est généralement négatif envers la technologie de reconnaissance des émotions, la considérant comme une violation de la vie privée et comme étant biaisée.