O Google lançou recentemente a nova família de modelos de IA PaliGemma2, cuja função mais notável é a alegação de conseguir "identificar" emoções humanas por meio da análise de imagens. Essa afirmação gerou amplas discussões e sérias dúvidas na comunidade acadêmica e entre especialistas em ética tecnológica.

Esse sistema de IA, baseado no modelo aberto Gemma, consegue gerar descrições detalhadas de imagens, indo além de uma simples identificação de objetos e tentando descrever o comportamento e as emoções das pessoas nas imagens. No entanto, vários especialistas renomados emitiram alertas graves sobre a cientificidade e os riscos potenciais dessa tecnologia.

Sandra Wachter, professora de ética de dados do Instituto de Internet de Oxford, declarou abertamente que tentar "ler" emoções humanas por meio de IA é como "pedir conselhos a uma bola mágica". Essa metáfora ilustra de forma vívida o absurdo da tecnologia de reconhecimento de emoções.

image.png

Na verdade, a base científica do reconhecimento de emoções é extremamente frágil. A teoria das seis emoções básicas, proposta inicialmente pelo psicólogo Paul Ekman, tem sido amplamente questionada por pesquisas posteriores. Pessoas de diferentes culturas expressam emoções de maneiras significativamente diferentes, tornando o reconhecimento universal de emoções quase uma tarefa impossível.

Mike Cook, pesquisador de IA da Queen Mary University, afirma de forma mais direta que a detecção de emoções é impossível em sentido amplo. Embora os humanos frequentemente acreditem que conseguem julgar as emoções dos outros por meio da observação, essa capacidade é muito mais complexa e imprevisível do que se imagina.

Ainda mais preocupante é que esses sistemas de IA costumam apresentar vieses graves. Várias pesquisas mostram que modelos de análise facial podem gerar julgamentos emocionais diferentes para pessoas de diferentes tons de pele, o que, sem dúvida, agrava a discriminação social existente.

Embora o Google afirme ter realizado testes abrangentes do PaliGemma2 e obtido bons resultados em alguns testes de referência, os especialistas ainda mantêm sérias dúvidas. Eles acreditam que testes limitados não são suficientes para avaliar completamente os riscos éticos que essa tecnologia pode trazer.

O mais perigoso é que esse modelo aberto pode ser usado indevidamente em áreas cruciais como emprego, educação e aplicação da lei, causando danos reais a grupos vulneráveis. Como alertou a professora Wachter, isso pode levar a um futuro terrível "fora de controle": empregos, empréstimos e oportunidades educacionais seriam determinados pela "avaliação emocional" de um sistema de IA não confiável.

No contexto do rápido desenvolvimento da inteligência artificial, a inovação tecnológica é certamente importante, mas a ética e a segurança também são inegavelmente necessárias. O surgimento do PaliGemma2 destaca mais uma vez a necessidade de uma análise lúcida e crítica da tecnologia de IA.