कृत्रिम बुद्धिमत्ता के क्षेत्र में, सुरक्षा मुद्दे हमेशा सिर पर लटके डेमोक्लेस की तलवार की तरह होते हैं। हालाँकि, हाल ही में OpenAI के एक श्रृंखला परिवर्तनों ने उद्योग में व्यापक ध्यान आकर्षित किया है। IT होम के अनुसार, यह कंपनी जो मानवता के लाभ के लिए AI तकनीक विकसित करने के लिए समर्पित है, उसके सुपर इंटेलिजेंस AI के दीर्घकालिक जोखिम पर ध्यान केंद्रित करने वाली AGI सुरक्षा टीम के लगभग आधे सदस्य चले गए हैं।

OpenAI के पूर्व शासन शोधकर्ता डैनियल कोकोताजलो ने खुलासा किया कि पिछले कुछ महीनों में, AGI सुरक्षा टीम का आकार लगभग 30 लोगों से घटकर 16 के आसपास रह गया है। इन शोधकर्ताओं का मूल कार्य भविष्य के AGI सिस्टम की सुरक्षा सुनिश्चित करना था, ताकि यह मानवता के लिए खतरा न बने। टीम के संकुचन ने चिंता पैदा की है कि क्या OpenAI धीरे-धीरे AI सुरक्षा के मुद्दे की अनदेखी कर रहा है।

OpenAI, कृत्रिम बुद्धिमत्ता, AI

कोकोताजलो ने बताया कि ये इस्तीफे संगठित कार्रवाई नहीं हैं, बल्कि टीम के सदस्यों के व्यक्तिगत रूप से विश्वास खोने का परिणाम हैं। जैसे-जैसे OpenAI उत्पादों और व्यावसायीकरण पर अधिक ध्यान केंद्रित कर रहा है, सुरक्षा शोध टीम का संकुचन एक अपरिहार्य प्रवृत्ति बनता जा रहा है।

बाहर की चिंताओं का सामना करते हुए, OpenAI ने कहा कि कंपनी सबसे सक्षम और सबसे सुरक्षित कृत्रिम बुद्धिमत्ता सिस्टम प्रदान करने पर गर्व महसूस करती है और विश्वास करती है कि उसके पास जोखिमों को हल करने के लिए वैज्ञानिक तरीके हैं।

इस वर्ष की शुरुआत में, OpenAI के सह-संस्थापक और मुख्य वैज्ञानिक इलिया सुत्सकेवर ने अपने पद से इस्तीफा देने की घोषणा की, जिसके नेतृत्व में सुरक्षा मुद्दों के लिए जिम्मेदार "सुपर संरेखण" टीम भी भंग कर दी गई। ये सभी परिवर्तन निश्चित रूप से OpenAI की सुरक्षा अनुसंधान के प्रति बाहरी चिंताओं को बढ़ाते हैं।