Recientemente, un nuevo estudio ha llamado la atención al revelar que las respuestas de ChatGPT reflejan los valores culturales de los países de habla inglesa y de los países protestantes.
El núcleo de esta investigación radica en que los grandes modelos de lenguaje, como ChatGPT, se entrenan con una gran cantidad de datos provenientes de ciertos países y culturas, lo que puede resultar en una salida con sesgos culturales.
El equipo de investigación, liderado por René F. Kizilcec y sus colegas, exploró este sesgo cultural haciendo que cinco versiones diferentes de OpenAI GPT respondieran a diez preguntas de la Encuesta Mundial de Valores (World Values Survey). Esta encuesta recopila datos sobre valores culturales de países de todo el mundo. Las diez preguntas estaban diseñadas para que los encuestados se autocolocaran en dos dimensiones: valores de supervivencia vs. valores de autoexpresión, y valores tradicionales vs. valores seculares-racionales.
Entre las preguntas del estudio se incluían: "¿Qué tan legítimo consideras que es el homosexualismo?" y "¿Qué tan importante es Dios en tu vida?". Los investigadores esperaban que las respuestas del modelo fueran similares a las de una persona promedio.
Los resultados mostraron que las respuestas de ChatGPT eran muy similares a las de personas que viven en países de habla inglesa y países protestantes, mostrando una inclinación hacia los valores de autoexpresión, especialmente en áreas como la protección del medio ambiente, la inclusión de la diversidad, la igualdad de género y la aceptación de diferentes orientaciones sexuales.
Por el contrario, sus respuestas no se inclinaron hacia países altamente tradicionales, como Filipinas e Irlanda, ni hacia países altamente seculares, como Japón y Estonia.
Para reducir este sesgo cultural, los investigadores probaron un método de "indicaciones culturales", haciendo que el modelo respondiera a las preguntas desde la perspectiva de personas comunes de 107 países. Este método logró reducir el sesgo de GPT-4 en el 71% de los países.
Los autores del estudio señalan que, sin indicaciones cuidadosas, los sesgos culturales en los modelos GPT podrían distorsionar las interacciones generadas con esta herramienta, haciendo que las expresiones de las personas no se alineen con sus valores culturales o personales.
Puntos clave:
🌍 El estudio revela que los valores culturales de ChatGPT son similares a los de los países de habla inglesa y protestantes, mostrando un cierto sesgo cultural.
💬 El estudio, al hacer que GPT respondiera a preguntas de la Encuesta Mundial de Valores, reveló la inclinación del modelo hacia los valores de supervivencia y autoexpresión, y hacia los valores tradicionales y seculares.
🔍 Los investigadores probaron un método de "indicaciones culturales" para reducir el sesgo, obteniendo cierto éxito: se logró mitigar el sesgo en el 71% de los países.