Google ha lanzado recientemente PaliGemma2, su nuevo modelo de inteligencia artificial. Esta tecnología analiza imágenes, genera títulos y responde preguntas sobre las emociones y acciones de las personas en las fotos. PaliGemma2, basado en la serie de modelos abiertos Gemma de Google, ofrece descripciones de imágenes más profundas que el reconocimiento de objetos tradicional, identificando emociones y generando descripciones detalladas contextualizadas. Sin embargo, a pesar de que esta tecnología parece ser una innovación revolucionaria, los expertos advierten seriamente sobre sus potenciales implicaciones éticas y sociales.
El reconocimiento de emociones no es una función estándar de PaliGemma2, sino que se logra mediante un ajuste fino. Aunque Google afirma haber realizado "pruebas exhaustivas" y que supera los estándares de la industria en cuanto a sesgos demográficos, los expertos siguen mostrando preocupación por la fiabilidad de la tecnología. La profesora Sandra Wachter de la Universidad de Oxford opina que "existe un problema importante en 'leer' las emociones humanas a través de la inteligencia artificial", y que este proceso se basa demasiado en suposiciones, lo que puede llevar a errores y prejuicios.
El reconocimiento de emociones ha sido durante mucho tiempo un tema de controversia en el mundo de la tecnología. Si bien estudios anteriores, como la teoría de las emociones de Paul Ekman, propusieron seis emociones básicas, investigaciones posteriores han demostrado que la expresión de las emociones varía enormemente según la cultura y el contexto. El investigador Mike Cook de la Universidad Queen Mary de Londres señala que "la complejidad de la experiencia emocional hace que la detección de emociones sea prácticamente imposible con precisión". Además, los estudios muestran que los sistemas existentes de análisis de expresiones faciales a menudo presentan sesgos hacia ciertas emociones, como las diferencias entre las sonrisas o las expresiones faciales de diferentes razas.
A medida que la tecnología de reconocimiento de emociones se comercializa, la preocupación por su posible uso indebido aumenta. Algunos expertos temen que esta tecnología pueda utilizarse en áreas como la aplicación de la ley y la contratación, lo que agravaría aún más la desigualdad social. El Reglamento de Inteligencia Artificial de la Unión Europea ya ha establecido restricciones estrictas para la tecnología de reconocimiento de emociones, especialmente en entornos de alto riesgo.
Google insiste en que, durante la fase de prueba de PaliGemma2, se han tenido en cuenta los aspectos éticos y de seguridad, especialmente en lo que respecta a los niños y la seguridad del contenido. Sin embargo, queda por ver si estas garantías son suficientes y requieren un escrutinio riguroso. La Dra. Heidy Khlaaf del AI Now Institute afirma que el reconocimiento de emociones no es solo un problema visual, sino que implica un contexto social y cultural profundo, y que "no se pueden inferir con precisión las emociones basándose únicamente en los rasgos faciales".
Con el lanzamiento público de esta tecnología, PaliGemma2 no solo impulsará las aplicaciones de la inteligencia artificial en la comprensión de imágenes, sino que también planteará nuevos desafíos a la ética social y la privacidad de los datos, requiriendo la atención e intervención de los organismos reguladores.