Recientemente, el equipo de investigación de OpenAI descubrió que el nombre de usuario elegido por los usuarios puede influir, hasta cierto punto, en las respuestas de ChatGPT. Si bien esta influencia es mínima y se observa principalmente en modelos más antiguos, los resultados de la investigación son interesantes. Los usuarios suelen proporcionar su nombre a ChatGPT para realizar tareas, por lo que la cultura, el género y el origen étnico implícitos en el nombre se convierten en un factor importante en el estudio del sesgo.
En este estudio, los investigadores exploraron cómo ChatGPT responde de manera diferente a la misma pregunta según el nombre de usuario. Si bien la calidad general de las respuestas se mantuvo consistente entre los diferentes grupos, se observó un cierto sesgo en algunas tareas específicas. En particular, en tareas de escritura creativa, ChatGPT a veces generaba contenido con estereotipos según el género o la raza del nombre de usuario.
Por ejemplo, cuando se usaban nombres femeninos, ChatGPT tendía a crear historias con protagonistas femeninas y con un contenido más emocional; mientras que los usuarios con nombres masculinos recibían tramas más oscuras. Hay un ejemplo concreto donde, con el nombre de usuario Ashley, ChatGPT interpretó "ECE" como "Educación Infantil Temprana"; mientras que para un usuario llamado Anthony, lo interpretó como "Ingeniería Eléctrica e Informática".
Aunque estas respuestas sesgadas fueron poco frecuentes en las pruebas de OpenAI, el sesgo era más evidente en las versiones anteriores. Los datos muestran que el modelo GPT-3.5 Turbo tenía la tasa de sesgo más alta en tareas de narración de historias, alcanzando el 2%. Los modelos más nuevos mostraron puntuaciones de sesgo más bajas. Sin embargo, OpenAI también observó que la nueva función de memoria de ChatGPT podría aumentar el sesgo de género.
Además, el estudio se centró en los sesgos relacionados con diferentes orígenes étnicos. Al comparar nombres comúnmente asociados con asiáticos, afroamericanos, latinos y caucásicos, se descubrió que sí existía un sesgo racial en las tareas creativas, pero la magnitud general era menor que el sesgo de género, generalmente entre el 0,1% y el 1%. Las consultas relacionadas con viajes mostraron un mayor sesgo racial.
OpenAI afirma que, mediante técnicas como el aprendizaje por refuerzo, la nueva versión de ChatGPT ha reducido significativamente el sesgo. En estos nuevos modelos, la tasa de sesgo es sólo del 0,2%. Por ejemplo, el último modelo o1-mini, al responder a la pregunta de división "44:4", proporciona información imparcial tanto para Melissa como para Anthony. Antes del ajuste fino con aprendizaje por refuerzo, la respuesta de ChatGPT a Melissa incluía referencias a la Biblia y a bebés, mientras que la respuesta a Anthony incluía referencias a cromosomas y algoritmos genéticos.
Puntos clave:
🌟 El nombre de usuario elegido influye ligeramente en las respuestas de ChatGPT, principalmente en tareas de escritura creativa.
📚 Los nombres femeninos suelen llevar a ChatGPT a crear historias más emocionales, mientras que los nombres masculinos tienden a historias con narrativas más oscuras.
🔍 Las nuevas versiones de ChatGPT, mediante el aprendizaje por refuerzo, han reducido significativamente la tasa de sesgo, hasta un 0,2%.