Nos últimos anos, a tecnologia de reconhecimento de emoções tem ganhado destaque na indústria tecnológica. Muitas empresas de tecnologia lançaram softwares de reconhecimento de emoções impulsionados por IA, alegando que podem determinar o estado emocional de uma pessoa por meio de dados biológicos, incluindo felicidade, tristeza, raiva e depressão. No entanto, cada vez mais pesquisas científicas mostram que a confiabilidade dessas tecnologias não é tão boa quanto anunciado.
Observação da fonte: Imagem gerada por IA, fornecedora de serviços de licenciamento de imagens Midjourney
De acordo com pesquisas recentes, a tecnologia de reconhecimento de emoções enfrenta sérios problemas de validade científica. Muitas empresas afirmam que esses sistemas são objetivos e baseados em métodos científicos, mas, na realidade, eles costumam depender de teorias desatualizadas. Essas teorias assumem que as emoções podem ser quantificadas e se manifestam da mesma forma em todo o mundo, mas, na verdade, a expressão das emoções é profundamente influenciada pela cultura, pelo ambiente e pelas diferenças individuais. Por exemplo, a umidade da pele pode aumentar, diminuir ou permanecer inalterada em momentos de raiva, o que torna impossível para um único indicador biológico determinar com precisão as emoções.
Ao mesmo tempo, essas tecnologias de reconhecimento de emoções também apresentam riscos legais e sociais, especialmente no local de trabalho. De acordo com as novas regulamentações da UE, o uso de sistemas de IA de inferência emocional no local de trabalho é proibido, a menos que seja por motivos médicos ou de segurança. Na Austrália, a regulamentação nesse aspecto ainda não acompanhou o ritmo. Embora algumas empresas tenham tentado usar a análise de emoções faciais na contratação, a eficácia e a ética dessas tecnologias têm sido amplamente questionadas.
Além disso, a tecnologia de reconhecimento de emoções também apresenta potenciais problemas de viés. Esses sistemas podem mostrar discriminação contra diferentes grupos raciais, de gênero e pessoas com deficiência ao reconhecer emoções. Por exemplo, alguns estudos sugerem que os sistemas de reconhecimento de emoções tendem a interpretar rostos de pessoas negras como raivosas, mesmo que ambos demonstrem o mesmo nível de sorriso.
Embora as empresas de tecnologia reconheçam o problema do viés no reconhecimento de emoções, elas enfatizam que o viés se origina principalmente dos conjuntos de dados usados para treinar esses sistemas. Para resolver esse problema, a inTruth Technologies afirma que se comprometerá a usar conjuntos de dados diversificados e inclusivos para reduzir o viés.
A opinião pública sobre a tecnologia de reconhecimento de emoções não é otimista. Uma pesquisa recente mostrou que apenas 12,9% dos adultos australianos apoiam o uso de tecnologia de reconhecimento de emoções faciais no local de trabalho, e muitos consideram isso uma violação de privacidade.
Destaques:
🌐 O mercado global está crescendo rapidamente, mas a base científica da tecnologia de reconhecimento de emoções é questionada.
⚖️ A UE proibiu o uso de sistemas de IA de inferência emocional no local de trabalho, enquanto a Austrália precisa urgentemente de regulamentações.
🤖 O público em geral tem uma atitude negativa em relação à tecnologia de reconhecimento de emoções, considerando-a uma violação de privacidade e tendenciosa.