हाल ही में, OpenAI के CEO सैम अल्टमैन ने घोषणा की कि वह कंपनी के आंतरिक सुरक्षा समिति से इस्तीफा देंगे, जो इस साल मई में स्थापित की गई थी, जिसका उद्देश्य OpenAI के कृत्रिम बुद्धिमत्ता मॉडल के विकास और तैनाती के महत्वपूर्ण सुरक्षा और सुरक्षा निर्णयों की निगरानी करना है। अल्टमैन का यह निर्णय व्यापक ध्यान आकर्षित कर रहा है, और वह इस भूमिका को तीसरे पक्ष के विशेषज्ञों को सौंपना चाहते हैं, ताकि पारदर्शिता, सहयोग और सुरक्षा बढ़ सके।
अल्टमैन के जाने के साथ, यह सुरक्षा समिति "स्थायी निगरानी समिति" में बदल जाएगी, जो सुरक्षा और सुरक्षा मुद्दों पर ध्यान केंद्रित करेगी। नई समिति के अध्यक्ष कार्नेगी मेलन विश्वविद्यालय के कंप्यूटर विज्ञान विद्यालय के मशीन लर्निंग विभाग के निदेशक जिको कोर्ट होंगे। उन्होंने पूर्व अध्यक्ष ब्रेट टेलर का स्थान लिया, जो समिति से भी जा चुके हैं। समिति के अन्य सदस्यों में Quora के सह-संस्थापक और CEO एडलम डांजिलो, अमेरिका के रिटायर्ड आर्मी जनरल पॉल नाकासोनी और पूर्व सोनी कॉर्पोरेशन के कार्यकारी उपाध्यक्ष और जनरल काउंसल निकोल लिगमैन शामिल हैं।
कोर्ट के नेतृत्व में, यह समिति AI द्वारा उपयोग किए जाने वाले नवीनतम बड़े भाषा मॉडल - OpenAI o1 की सुरक्षा और अनुपयुक्तता मानकों की समीक्षा करेगी। OpenAI o1 ने उन्नत तर्क क्षमताओं को पेश किया है, जो भौतिकी, रसायन विज्ञान, जीव विज्ञान जैसे क्षेत्रों में मानव डॉक्टर्स से बेहतर प्रदर्शन का दावा करती है, और गणित और कोडिंग में भी उत्कृष्टता दिखाती है।
OpenAI ने समिति के भविष्य के मिशन की भी पेशकश की है, जिसमें स्वतंत्र AI सुरक्षा और सुरक्षा शासन की स्थापना, सुरक्षा उपायों को बढ़ाना, OpenAI के कार्यों में पारदर्शिता को बढ़ावा देना, और बाहरी संगठनों के साथ सहयोग करना, और मॉडल विकास और निगरानी के मामले में कंपनी के सुरक्षा ढांचे को एकीकृत करना शामिल है। कंपनी ने कहा: "हम उच्च क्षमता और सुरक्षित मॉडलों के जारी करने के तरीके में लगातार सुधार करने के लिए प्रतिबद्ध हैं, सुरक्षा और सुरक्षा समिति OpenAI के भविष्य को आकार देने में महत्वपूर्ण भूमिका निभाएगी।"
हालांकि, अल्टमैन की प्रबंधन शैली ने बाहरी विवाद उत्पन्न किया है, विशेष रूप से पिछले साल के अंत में मजबूर होकर छोड़ने के बाद, और फिर OpenAI में तेजी से लौटने के संदर्भ में। उनके टेस्ला के एलोन मस्क के साथ संबंध भी अपेक्षाकृत तनावपूर्ण हैं, जो OpenAI के संस्थापक बोर्ड में से एक हैं। OpenAI की तकनीकी सुरक्षा को लेकर सवाल उठते रहते हैं, जिसमें यह शामिल है कि क्या कंपनी ने अवैध गोपनीयता समझौतों का उपयोग किया है, और कर्मचारियों से नियामक निकायों के साथ संपर्क की रिपोर्ट करने की मांग की गई है।
अल्टमैन का यह इस्तीफा AI शासन पर किस प्रकार का प्रभाव डालेगा, यह अभी स्पष्ट नहीं है। कुछ लोग यह इंगित कर रहे हैं कि यह संकेत दे सकता है कि OpenAI AI शासन में तटस्थता के महत्व को पहचान रहा है, और AI सुरक्षा और जोखिम के प्रबंधन में अधिक खुलापन चाहता है।
मुख्य बिंदु:
🌐 अल्टमैन ने OpenAI सुरक्षा समिति से इस्तीफा दिया, जिसका उद्देश्य अधिक स्वतंत्र निगरानी तंत्र को बढ़ावा देना है।
🔍 नए अध्यक्ष जिको कोर्ट समिति का नेतृत्व करेंगे, और OpenAI के नए मॉडल की सुरक्षा का मूल्यांकन जारी रखेंगे।
🤝 OpenAI बाहरी संगठनों के साथ सहयोग बढ़ाने, पारदर्शिता और सुरक्षा उपायों को बढ़ाने की योजना बना रहा है।