हाल ही में, एक समूह अमेरिकी सीनेटरों ने OpenAI के CEO सैम ऑल्टमैन (Sam Altman) को एक महत्वपूर्ण पत्र भेजा, जिसमें उनसे 2024 के 13 अगस्त से पहले कंपनी की सुरक्षा उपायों और कार्य परिस्थितियों के बारे में विस्तृत जानकारी देने की मांग की गई। इस मांग की पृष्ठभूमि में, मीडिया की रिपोर्टों ने OpenAI के कुछ संभावित सुरक्षा जोखिमों को उजागर किया है, जिसमें कई AI सुरक्षा शोधकर्ताओं का इस्तीफा, सुरक्षा खामियां और कर्मचारियों की चिंताएं शामिल हैं।
छवि स्रोत नोट: चित्र AI द्वारा उत्पन्न, चित्र अधिकार सेवा प्रदाता Midjourney
इस पत्र का प्रारंभ पूर्व कर्मचारियों के खुलासे से संबंधित है, जिन्होंने OpenAI के AI विकास में सुरक्षा उपायों की कड़ी आलोचना की है। रिपोर्टों के अनुसार, OpenAI का नया AI मॉडल GPT-4o केवल एक सप्ताह में सुरक्षा परीक्षण पूरा कर लिया गया, इस तेजी से परीक्षण की पद्धति ने सुरक्षा विशेषज्ञों की चिंताओं को जन्म दिया। इस नए मॉडल में सरल संकेतों के माध्यम से हानिकारक सामग्री उत्पन्न करने की क्षमता होने का खुलासा हुआ है, जैसे बम बनाने के निर्देश।
सीनेटरों ने पत्र में जोर देकर कहा कि जनता को OpenAI पर भरोसा होना चाहिए कि वह अपने सिस्टम के विकास में सुरक्षा बनाए रख सकता है। इसमें कंपनी के शासन की संपूर्णता, सुरक्षा परीक्षण की मानकता, रोजगार प्रथाओं की निष्पक्षता, जनता के प्रति प्रतिबद्धताओं का पालन और साइबर सुरक्षा नीतियों का कार्यान्वयन शामिल है। उन्होंने उल्लेख किया कि OpenAI ने पहले बाइडेन प्रशासन को जो सुरक्षा प्रतिबद्धताएं दी थीं, उन्हें साकार रूप में लागू किया जाना चाहिए।
सीनेटरों की मांग का जवाब देने के लिए, OpenAI ने सोशल मीडिया प्लेटफॉर्म के माध्यम से कुछ घोषणाएँ की हैं, जिसमें हाल ही में स्थापित सुरक्षा और संरक्षण समिति, पांच स्तरीय AGI की नवीनतम प्रगति, तैयारी ढांचे और आलोचना का सामना कर रहे कर्मचारियों के अनुबंध में संशोधन का उल्लेख किया गया है। OpenAI इन उपायों के माध्यम से सुरक्षा और शासन में सुधार को साबित करने की उम्मीद कर रहा है।
**मुख्य बिंदु:**
📧 **सीनेटरों ने OpenAI से विस्तृत जानकारी मांगी**: अमेरिकी सीनेटरों ने OpenAI के CEO से 2024 के 13 अगस्त से पहले, कंपनी की सुरक्षा और कार्य परिस्थितियों के बारे में विस्तृत जानकारी देने की मांग की।
🔍 **पूर्व कर्मचारियों ने सुरक्षा जोखिमों का खुलासा किया**: पूर्व कर्मचारियों ने OpenAI के AI विकास में संभावित सुरक्षा जोखिमों का खुलासा किया, जिसमें नए मॉडल को जल्दी लाने के कारण सुरक्षा खामियां शामिल हैं।
🛡️ **OpenAI ने सुधारात्मक उपायों का जवाब दिया**: OpenAI ने कहा है कि उसने नए समिति के गठन और कर्मचारियों के अनुबंध में संशोधन जैसे उपाय किए हैं, ताकि सुरक्षा और शासन संबंधी चिंताओं का समाधान किया जा सके।