En los últimos años, la tecnología de reconocimiento de emociones ha ido ganando terreno en el sector tecnológico. Muchas empresas tecnológicas han lanzado software de reconocimiento de emociones impulsado por IA, que afirman que puede determinar el estado emocional de una persona, incluyendo alegría, tristeza, ira y depresión, a través de datos biométricos. Sin embargo, cada vez más investigaciones científicas demuestran que la fiabilidad de estas tecnologías no es tan alta como se anuncia.
Nota de la fuente de la imagen: Imagen generada por IA, proveedor de servicios de autorización de imágenes Midjourney
Según los últimos estudios, la tecnología de reconocimiento de emociones presenta graves problemas de validez científica. Muchas empresas afirman que estos sistemas son objetivos y se basan en métodos científicos, pero en realidad, a menudo se basan en teorías anticuadas. Estas teorías consideran que las emociones se pueden cuantificar y que se manifiestan de la misma manera en todo el mundo, pero en realidad, la expresión de las emociones se ve profundamente afectada por la cultura, el entorno y las diferencias individuales. Por ejemplo, la humedad de la piel puede aumentar, disminuir o permanecer igual en caso de ira, lo que hace que un único indicador biológico no pueda determinar con precisión las emociones.
Al mismo tiempo, estas tecnologías de reconocimiento de emociones plantean riesgos legales y sociales, especialmente en el lugar de trabajo. Según la nueva normativa de la UE, está prohibido el uso de sistemas de IA de inferencia emocional en el lugar de trabajo, a menos que sea por razones médicas o de seguridad. En Australia, la regulación en este ámbito aún no ha alcanzado el mismo nivel. Aunque algunas empresas han intentado utilizar el análisis de emociones faciales en la contratación, la eficacia y la ética de estas tecnologías han suscitado amplias dudas.
Además, la tecnología de reconocimiento de emociones presenta posibles problemas de sesgo. Estos sistemas pueden mostrar discriminación hacia diferentes grupos raciales, de género y personas con discapacidad al reconocer emociones. Por ejemplo, algunos estudios muestran que los sistemas de reconocimiento de emociones tienden a percibir a las personas de raza negra como enfadadas, incluso cuando muestran el mismo nivel de sonrisa.
Aunque las empresas tecnológicas reconocen el problema del sesgo en el reconocimiento de emociones, destacan que el sesgo se debe principalmente a los conjuntos de datos utilizados para entrenar estos sistemas. Para abordar este problema, inTruth Technologies ha declarado que se compromete a utilizar conjuntos de datos diversos e inclusivos para reducir los sesgos.
La opinión pública sobre la tecnología de reconocimiento de emociones no es optimista. Una encuesta reciente muestra que solo el 12,9% de los adultos australianos apoyan el uso de tecnología de reconocimiento de emociones faciales en el lugar de trabajo, y muchos consideran que es una violación de la privacidad.
Puntos clave:
🌐 El mercado mundial está creciendo rápidamente, pero la base científica de la tecnología de reconocimiento de emociones está siendo cuestionada.
⚖️ La UE ha prohibido el uso de sistemas de IA de inferencia emocional en el lugar de trabajo, mientras que Australia necesita urgentemente desarrollar regulaciones al respecto.
🤖 El público en general tiene una actitud negativa hacia la tecnología de reconocimiento de emociones, considerándola una violación de la privacidad y con sesgos.