OpenAI के सह-संस्थापक Ilya Sutskever ने हाल ही में घोषणा की कि वह इस वर्ष मई में OpenAI के मुख्य वैज्ञानिक के पद से इस्तीफा देने के बाद एक नए स्टार्टअप प्रोजेक्ट में शामिल होंगे। उन्होंने OpenAI के सहयोगी Daniel Levy और Apple के पूर्व एआई प्रमुख, Cue के सह-संस्थापक Daniel Gross के साथ मिलकर Safe Superintelligence Inc. की स्थापना की है, जिसका उद्देश्य सुरक्षित सुपर इंटेलिजेंस का निर्माण करना है।

image.png

SSI वेबसाइट पर जारी जानकारी के अनुसार, संस्थापकों ने कहा है कि सुरक्षित सुपर इंटेलिजेंस का निर्माण “हमारे युग की सबसे महत्वपूर्ण तकनीकी समस्या” है। इसके अलावा, “हम सुरक्षा और क्षमता को एक ही चीज मानते हैं, जो कि क्रांतिकारी इंजीनियरिंग और वैज्ञानिक breakthroughs के माध्यम से हल की जाने वाली तकनीकी समस्या है। हम जल्दी से क्षमता बढ़ाने की योजना बना रहे हैं, जबकि यह सुनिश्चित करते हैं कि हमारी सुरक्षा हमेशा आगे रहे।”

तो, सुपर इंटेलिजेंस क्या है? यह एक काल्पनिक अवधारणा है, जो एक ऐसे सिद्धांतात्मक प्राणी का प्रतिनिधित्व करती है जो सबसे बुद्धिमान मानवों से कहीं अधिक बुद्धिमत्ता रखता है।

यह पहल Sutskever के OpenAI में काम करने की निरंतरता है। वह कंपनी की सुपर अलाइनमेंट टीम का सदस्य था, जो शक्तिशाली नए एआई सिस्टम को नियंत्रित करने के तरीकों को डिजाइन करने के लिए जिम्मेदार था। लेकिन Sutskever के इस्तीफे के साथ, यह टीम भंग कर दी गई, और इस कदम की पूर्व नेता Jean Leike ने कड़ी आलोचना की।

SSI का दावा है कि वह “सुरक्षित सुपर इंटेलिजेंस के विकास को सीधा आगे बढ़ाएगी, एक लक्ष्य और एक उत्पाद पर ध्यान केंद्रित करेगी।”

बेशक, OpenAI के सह-संस्थापकों ने 2023 के नवंबर में CEO Sam Altman के अस्थायी निष्कासन में महत्वपूर्ण भूमिका निभाई। Sutskever ने बाद में कहा कि वह इस घटना में अपनी भूमिका को लेकर पछताते हैं।

Safe Superintelligence Inc. की स्थापना Sutskever और अन्य लोगों को सुरक्षित सुपर इंटेलिजेंस के मुद्दों को अधिक ध्यान केंद्रित करके हल करने में सक्षम बनाएगी, जिससे एकल लक्ष्य के उत्पाद विकास को प्राप्त किया जा सके।