Un estudio reciente realizado por la Universidad de Washington, la Universidad Carnegie Mellon y la Universidad Xi'an Jiaotong ha descubierto la existencia de sesgos políticos en los modelos de lenguaje de IA. Los investigadores probaron 14 modelos y utilizaron la prueba del compás político para determinar sus inclinaciones políticas.
Los resultados mostraron que ChatGPT y GPT-4 de OpenAI fueron considerados los modelos más de izquierda y liberales, mientras que LLaMA de Meta se consideró el modelo más de derecha y autoritario. Los investigadores señalaron que, aunque la prueba del compás político no es un método perfecto, ayuda a revelar los sesgos de los modelos.
Instan a las empresas a ser conscientes de estos sesgos y a esforzarse por hacer que sus productos sean más justos. Los resultados de este estudio nos recuerdan la necesidad de estar alerta ante la presencia de sesgos políticos en el desarrollo y uso de modelos de lenguaje de IA, asegurando una expresión justa y diversa.