OpenAI ha anunciado el lanzamiento de su programa de "equipo rojo" (red teaming), invitando a expertos de diversas disciplinas a unirse para mejorar la seguridad de sus modelos de inteligencia artificial. Esta red forma parte del proceso iterativo de desarrollo de OpenAI e incluye pruebas de resistencia internas y externas para asegurar que los modelos se comporten de forma segura en una variedad de situaciones.
Los miembros realizarán evaluaciones de riesgo durante todo el ciclo de desarrollo de modelos y productos, recibiendo una remuneración y la oportunidad de intercambiar experiencias. Esta iniciativa tiene como objetivo mejorar la seguridad y fiabilidad general de los modelos de IA, sentando una base sólida para el futuro desarrollo de la inteligencia artificial.