OpenAI ने घोषणा की है कि बोर्ड के पास वीटो शक्ति है, विशेष रूप से GPT-5 के सुरक्षा जोखिमों पर ध्यान केंद्रित किया गया है। कंपनी ने एक सुरक्षा सलाहकार टीम बनाई है, जो मासिक रिपोर्ट प्रदान करती है ताकि प्रबंधन को मॉडल के दुरुपयोग की स्थिति के बारे में जानकारी मिल सके। नए सुरक्षा ढांचे के तहत, यह आवश्यक है कि मॉडल की सुरक्षा स्कोर मानकों को पूरा करने के बाद ही अगले चरण में प्रवेश किया जा सके। कंपनी ने विभिन्न एआई जोखिमों से निपटने के लिए तीन सुरक्षा टीमों का गठन किया है। नियमित सुरक्षा अभ्यास और तीसरे पक्ष की रेड टीम मूल्यांकन यह सुनिश्चित करते हैं कि मॉडल सुरक्षित है।