OpenAI a annoncé que son conseil d'administration dispose d'un droit de veto, accordant une attention particulière aux risques liés à la sécurité de GPT-5. L'entreprise a mis en place une équipe de conseillers en sécurité, chargée de produire des rapports mensuels pour garantir que la direction soit informée des cas d'utilisation abusive du modèle. Ce nouveau cadre de sécurité inclut des restrictions : le modèle doit atteindre un score de sécurité minimum pour passer à l'étape suivante. Trois équipes de sécurité ont été créées pour gérer les différents risques liés à l'IA. Des exercices de sécurité réguliers et des évaluations par des équipes rouges tierces garantissent la sécurité du modèle.
Le conseil d'administration d'OpenAI détient un droit de veto, soulignant les risques liés à la sécurité de GPT-5
