OpenAI a annoncé le lancement de son programme "Red Team" (équipe rouge), invitant des experts de divers domaines à contribuer à l'amélioration de la sécurité de ses modèles d'intelligence artificielle. Ce réseau fait partie intégrante du processus d'itération et de développement d'OpenAI, incluant des tests d'opposition internes et externes pour garantir la sécurité des modèles dans toutes les situations.
Les membres du réseau effectueront des évaluations des risques tout au long du processus de développement des modèles et des produits. Ils seront rémunérés et auront l'opportunité d'échanger leurs expériences. Cette initiative vise à améliorer la sécurité et la fiabilité globales des modèles d'IA, jetant ainsi des bases solides pour le développement futur de l'intelligence artificielle.