OpenAI gab bekannt, dass der Vorstand ein Vetorecht hat, insbesondere im Hinblick auf die Sicherheitsrisiken von GPT-5. Das Unternehmen hat ein Sicherheitsberaterteam eingerichtet, das monatliche Berichte erstellt, um das Management über den Missbrauch des Modells auf dem Laufenden zu halten. Im Rahmen des neuen Sicherheitsrahmens gibt es Beschränkungen, die vorschreiben, dass das Modell eine bestimmte Sicherheitsbewertung erreichen muss, bevor es in die nächste Phase übergeht. Das Unternehmen hat drei Sicherheitteams gebildet, um verschiedene KI-Risiken zu bewältigen. Regelmäßige Sicherheitsübungen und Bewertungen durch externe Red Teams gewährleisten die Sicherheit des Modells.