O Google lançou recentemente seu modelo de inteligência artificial de última geração, o PaliGemma2. Essa tecnologia analisa imagens, gera legendas e responde a perguntas sobre as emoções e ações das pessoas nas fotos. Baseado na série de modelos abertos Gemma do Google, o PaliGemma2 oferece descrições de imagens mais profundas do que os métodos tradicionais de reconhecimento de objetos, sendo capaz de identificar emoções e gerar descrições detalhadas contextualizadas. No entanto, apesar de parecer uma inovação revolucionária, especialistas alertam seriamente sobre seus potenciais impactos éticos e sociais.
O reconhecimento de emoções não é um recurso padrão do PaliGemma2, mas sim uma funcionalidade implementada por meio de ajustes finos. Embora o Google afirme ter realizado "testes extensivos" e que o sistema supera os padrões do setor em termos de viés demográfico, especialistas ainda expressam preocupações sobre sua confiabilidade. A professora Sandra Wachter, da Universidade de Oxford, argumenta que "há problemas significativos em 'ler' as emoções humanas por meio da inteligência artificial", e que esse processo depende muito de suposições, podendo levar a erros de julgamento e preconceitos.
A tecnologia de reconhecimento de emoções tem sido um ponto de controvérsia na indústria de tecnologia por muito tempo. Embora pesquisas anteriores, como a teoria das emoções de Paul Ekman, proponham seis emoções básicas, estudos posteriores demonstram que a expressão emocional varia muito entre culturas e contextos. Mike Cook, pesquisador da Queen Mary University of London, aponta que "a complexidade da experiência emocional torna a detecção de emoções quase impossível de ser precisa". Além disso, pesquisas mostram que os sistemas existentes de análise de expressões faciais frequentemente apresentam vieses em relação a certas emoções, como sorrisos ou diferenças nas expressões faciais entre raças.
Com a crescente comercialização da tecnologia de reconhecimento de emoções, os riscos de uso indevido têm gerado preocupações. Alguns especialistas temem que essa tecnologia possa ser usada em áreas como aplicação da lei e recrutamento, exacerbando ainda mais as desigualdades sociais. O Ato de Inteligência Artificial da União Europeia já impôs restrições rigorosas à tecnologia de reconhecimento de emoções, especialmente em ambientes de alto risco.
O Google insiste que o PaliGemma2, em sua fase de testes, levou em consideração questões éticas e de segurança, especialmente no que diz respeito a crianças e segurança de conteúdo. No entanto, a suficiência dessas garantias ainda precisa ser rigorosamente examinada. A Dra. Heidy Khlaaf, do AI Now Institute, afirma que o reconhecimento de emoções não é apenas uma questão visual, mas envolve contextos sociais e culturais profundos, "e que não se pode inferir com precisão as emoções apenas com base em características faciais".
Com o lançamento público dessa tecnologia, o PaliGemma2 não apenas impulsionará o uso da inteligência artificial na compreensão de imagens, mas também apresentará novos desafios à ética social e à privacidade de dados, exigindo a atenção e intervenção de órgãos reguladores.