हाल ही में, OpenAI के सीईओ सैम ऑल्टमैन (Sam Altman) ने बताया कि OpenAI अमेरिकी संघीय सरकार के एक एजेंसी - अमेरिकी AI सुरक्षा संस्थान के साथ मिलकर काम कर रहा है, जिसका उद्देश्य AI प्लेटफार्मों के जोखिम का आकलन और समाधान करना है। वे इसे अपने अगले प्रमुख जनरेटिव AI मॉडल का प्रारंभिक पहुंच प्रदान करेंगे, ताकि सुरक्षा परीक्षण किया जा सके।

OpenAI, ChatGPT, कृत्रिम बुद्धिमत्ता, AI

ऑल्टमैन ने गुरुवार रात को X पर यह जानकारी साझा की, जिसमें ज्यादा विवरण नहीं थे। लेकिन यह कदम, जून में ब्रिटिश AI सुरक्षा एजेंसी के साथ किए गए समान समझौते के साथ, इस बात को खारिज करने के लिए प्रतीत होता है कि OpenAI ने अधिक शक्तिशाली जनरेटिव AI तकनीक के विकास में AI सुरक्षा कार्य को प्राथमिकता नहीं दी है।

इससे पहले, OpenAI ने मई में वास्तव में एक ऐसे विभाग को भंग कर दिया था जो "सुपर इंटेलिजेंट" AI सिस्टम के नियंत्रण उपायों को विकसित करने पर केंद्रित था। संबंधित रिपोर्टों से पता चला है कि OpenAI ने इस टीम के सुरक्षा अनुसंधान को छोड़ दिया और नए उत्पादों को लॉन्च करने की ओर बढ़ा, जिसके परिणामस्वरूप टीम के दो सह-नेता यान लेक (जो अब AI स्टार्टअप एंथ्रोपिक में सुरक्षा अनुसंधान का नेतृत्व कर रहे हैं) और OpenAI के सह-संस्थापक इलिया सुत्स्केवर (जिन्होंने अपनी खुद की सुरक्षा पर केंद्रित AI कंपनी Safe Superintelligence Inc. की स्थापना की) ने इस्तीफा दे दिया।

बढ़ती आलोचनाओं के बीच, OpenAI ने कर्मचारियों के उजागर करने के गैर-निंदा प्रावधानों को समाप्त करने, एक सुरक्षा समिति स्थापित करने और सुरक्षा अनुसंधान के लिए 20% कंप्यूटिंग संसाधनों का आवंटन करने की घोषणा की। (भंग की गई सुरक्षा टीम ने OpenAI के लिए काम करने के लिए 20% कंप्यूटिंग संसाधनों की प्राप्ति का वादा किया था, लेकिन अंततः ऐसा नहीं हुआ।) ऑल्टमैन ने फिर से 20% कंप्यूटिंग संसाधनों के निवेश का वादा किया और पुष्टि की कि OpenAI ने मई में नए और मौजूदा कर्मचारियों के लिए गैर-निंदा प्रावधानों को समाप्त कर दिया है।

हालांकि, ये कदम कुछ पर्यवेक्षकों के संदेह को शांत करने में असफल रहे, विशेष रूप से जब OpenAI ने सुरक्षा समिति के लिए पूरी तरह से आंतरिक लोगों को नियुक्त किया और हाल ही में एक शीर्ष AI सुरक्षा कार्यकारी को अन्य विभाग में स्थानांतरित किया।

हवाई के डेमोक्रेट ब्रायन शात्ज़ सहित पांच सीनेटरों ने हाल ही में ऑल्टमैन को एक पत्र में OpenAI की नीतियों पर सवाल उठाए। OpenAI के मुख्य रणनीतिक अधिकारी जेसन क्वोन (Jason Kwon) ने आज जवाब दिया कि OpenAI "हमारी प्रक्रियाओं के हर चरण में सख्त सुरक्षा प्रोटोकॉल लागू करने के लिए प्रतिबद्ध है।"

OpenAI के इस सप्ताह की शुरुआत में "इनोवेशन फ्यूचर एक्ट" के समर्थन को देखते हुए, अमेरिका AI सुरक्षा संस्थान के साथ उनके समझौते का समय कुछ संदिग्ध प्रतीत होता है। यदि यह विधेयक पारित होता है, तो यह सुरक्षा संस्थान को एक प्रशासनिक एजेंसी के रूप में AI मॉडल के लिए मानकों और दिशानिर्देशों को निर्धारित करने का अधिकार देगा। यह पूरी श्रृंखला की गतिविधियों को नियामक नियंत्रण में लेने के प्रयास के रूप में देखा जा सकता है, या कम से कम OpenAI द्वारा संघीय स्तर पर AI नीति निर्माण पर प्रभाव डालने के प्रयास के रूप में।

यह उल्लेखनीय है कि ऑल्टमैन अमेरिका के घरेलू सुरक्षा विभाग की कृत्रिम बुद्धिमत्ता सुरक्षा और सुरक्षा समिति के सदस्यों में से एक हैं, जो अमेरिका की महत्वपूर्ण अवसंरचना में "AI का सुरक्षित और विश्वसनीय विकास और तैनाती" के लिए सलाह प्रदान करती है। इसके अलावा, OpenAI ने इस वर्ष संघीय लॉबिंग पर खर्च में भारी वृद्धि की है, 2024 के पहले छह महीनों में 800,000 डॉलर खर्च किए हैं, जबकि 2023 में पूरे वर्ष केवल 260,000 डॉलर खर्च किए थे।

अमेरिका AI सुरक्षा संस्थान वाणिज्य विभाग के राष्ट्रीय मानक और प्रौद्योगिकी संस्थान के अधीन है, और एंथ्रोपिक सहित कंपनियों के संघ और गूगल, माइक्रोसॉफ्ट, मेटा, एप्पल, अमेज़न और एनवीडिया जैसे बड़े तकनीकी कंपनियों के साथ सहयोग करता है।

मुख्य बिंदु:

🎯 OpenAI ने अमेरिका AI सुरक्षा संस्थान को अपने अगले मॉडल का पूर्व पहुंच प्रदान करने का वादा किया।

🎯 OpenAI ने संबंधित सुरक्षा विभाग को भंग कर दिया, जिससे कई विवाद उत्पन्न हुए।

🎯 OpenAI और अमेरिकी संस्थानों के साथ सहयोग का समय संदिग्ध है, जबकि संघीय लॉबिंग खर्च में भारी वृद्धि हुई है।