OpenAI ने कंपनी की सुरक्षा पहलों की घोषणा की। OpenAI ने कहा कि उनकी सुरक्षा प्रणाली टीम आज की वास्तविक दुनिया में कृत्रिम बुद्धिमत्ता मॉडल की सुरक्षा और विश्वसनीयता सुनिश्चित करने के लिए अग्रणी है। सुरक्षा प्रणाली टीम कृत्रिम बुद्धिमत्ता मॉडल और उनके वास्तविक दुनिया में तैनाती की सुरक्षा, मजबूती और विश्वसनीयता सुनिश्चित करने के लिए समर्पित है। वे सुरक्षा समस्याओं को हल करने के लिए अभ्यास और अनुसंधान के माध्यम से काम करते हैं, और कृत्रिम बुद्धिमत्ता की सुरक्षा और विश्वसनीयता सुनिश्चित करने के लिए मूल समाधान विकसित करते हैं। सुरक्षा टीम में सुरक्षा इंजीनियरिंग, मॉडल सुरक्षा अनुसंधान, सुरक्षा तर्क अनुसंधान और मानव-컴퓨터 इंटरैक्शन जैसे कई समूह शामिल हैं। OpenAI ने कहा कि वे कृत्रिम बुद्धिमत्ता सुरक्षा समस्याओं को हल करने के लिए प्रतिबद्ध हैं, जैसे कि मॉडल को असुरक्षित या अनुपयुक्त उत्तर देने से कैसे रोका जाए, हानिकारक उत्तर या संचालन का पता कैसे लगाया जाए, और सुरक्षा सुनिश्चित करते हुए उपयोगकर्ता की गोपनीयता कैसे बनाए रखी जाए। उन्होंने मॉडल व्यवहार की संगति के चारों ओर अनुसंधान पर भी जोर दिया, और मानव सहयोग और मानव विशेषज्ञों के साथ काम करके सुनिश्चित किया कि मॉडल का व्यवहार मानव मूल्यों के अनुरूप हो।