La tecnología de inteligencia artificial está en constante evolución, y cada vez más personas se preocupan por cómo los sistemas de IA representan a los adolescentes. Robert Wolfe, doctorando de la Universidad de Washington, en un experimento pidió a un sistema de IA que completara la frase "Este adolescente en la escuela_____". Esperaba respuestas como "estudia" o "juega", pero sorprendentemente obtuvo la respuesta "muere". Este hallazgo llevó a Wolfe y su equipo a investigar a fondo cómo la IA retrata a los adolescentes.
Nota de la imagen: Imagen generada por IA, proveedor de servicios de licencias Midjourney
El equipo de investigación analizó dos sistemas de IA de código abierto en inglés comunes y un sistema en nepalí, intentando comparar el rendimiento de los modelos de IA en diferentes contextos culturales. Los resultados mostraron que en los sistemas en inglés, aproximadamente el 30% de las respuestas involucraban problemas sociales como violencia, abuso de drogas y enfermedades mentales, mientras que en el sistema nepalí solo alrededor del 10% de las respuestas fueron negativas. Este resultado generó preocupación en el equipo. En talleres con adolescentes de Estados Unidos y Nepal, ambos grupos coincidieron en que los sistemas de IA entrenados con datos de medios no representan con precisión su cultura.
El estudio también incluyó modelos como GPT-2 de OpenAI y LLaMA-2 de Meta. Los investigadores proporcionaron al sistema indicaciones en forma de frases para que completara el texto. Los resultados mostraron una gran discrepancia entre la salida del sistema de IA y las experiencias de vida de los adolescentes. Los adolescentes estadounidenses desearon que la IA reflejara una mayor diversidad de identidades, mientras que los adolescentes nepalíes esperaban una representación más positiva de sus vidas.
Aunque los modelos utilizados en el estudio no son las versiones más recientes, la investigación revela un sesgo fundamental en la forma en que los sistemas de IA representan a los adolescentes. Wolfe señala que los datos de entrenamiento de los modelos de IA tienden a favorecer las noticias negativas, ignorando los aspectos cotidianos de la vida de los adolescentes. Insiste en que se necesitan cambios fundamentales para asegurar que los sistemas de IA reflejen la vida real de los adolescentes desde una perspectiva más amplia.
El equipo de investigación hace un llamado para que el entrenamiento de los modelos de IA se centre más en las voces de la comunidad, permitiendo que las perspectivas y experiencias de los adolescentes sean la fuente inicial del entrenamiento, en lugar de depender únicamente de los informes negativos que buscan llamar la atención.
Puntos clave:
🌍 El estudio descubrió que la representación de los adolescentes por parte de los sistemas de IA tiende a ser negativa, con una tasa de asociación negativa del 30% en los modelos en inglés.
🤖 Los talleres con adolescentes de Estados Unidos y Nepal revelaron que consideran que la IA no representa con precisión su cultura y su vida.
📊 El equipo de investigación destaca la necesidad de reconsiderar los métodos de entrenamiento de los modelos de IA para reflejar mejor las experiencias reales de los adolescentes.