OpenAI के सह-संस्थापक और पूर्व मुख्य वैज्ञानिक Ilya Sutskever ने एक महीने के भीतर, दो पूर्व सहयोगियों के साथ मिलकर Safe Superintelligence Inc. (SSI) नामक एक नई कंपनी की स्थापना की, जो "सुपर इंटेलिजेंस" कृत्रिम बुद्धिमत्ता प्रणालियों की सुरक्षा समस्याओं को हल करने पर ध्यान केंद्रित कर रही है।
Sutskever ने लंबे समय से AI सुरक्षा के क्षेत्र में काम किया है, और OpenAI के Jan Leike जैसे लोगों के साथ मिलकर कंपनी की AI सुरक्षा बढ़ाने के प्रयासों को आगे बढ़ाया है। लेकिन वह OpenAI के नेतृत्व के साथ इस मुद्दे को संभालने के तरीके पर असहमत थे और मई में नौकरी छोड़ दी, इससे पहले Leike ने भी Anthropic में शामिल हो गए थे।
एक ब्लॉग पोस्ट में, Sutskever और Leike ने भविष्यवाणी की थी कि AI अगले 10 वर्षों में मानव बुद्धिमत्ता को पार कर जाएगा, लेकिन यह जरूरी नहीं कि दयालु हो, इसलिए नियंत्रण और सीमाओं के तरीकों का अध्ययन करने की आवश्यकता है। अब, वह इस लक्ष्य पर ध्यान केंद्रित कर रहे हैं।
छवि स्रोत नोट: छवि AI द्वारा निर्मित है, छवि लाइसेंस सेवा प्रदाता Midjourney
बुधवार को, Sutskever ने सोशल मीडिया पर SSI की स्थापना की घोषणा की, यह कहते हुए कि कंपनी का मिशन, नाम और पूरा उत्पाद रोडमैप "सुपर इंटेलिजेंस" AI की सुरक्षा प्राप्त करने पर केंद्रित है। SSI सुरक्षा को एक तकनीकी चुनौती के रूप में देखता है और इसे इंजीनियरिंग और वैज्ञानिक नवाचारों के माध्यम से हल करने की योजना बनाता है।
उन्होंने खुलासा किया कि SSI AI की क्षमताओं और सुरक्षा को बढ़ाने की योजना बना रहा है, यह सुनिश्चित करते हुए कि सुरक्षा के आधार पर लगातार विस्तार किया जाए, और अल्पकालिक व्यावसायिक दबाव से प्रभावित न हो। गैर-लाभकारी से लाभकारी में परिवर्तित OpenAI के विपरीत, SSI शुरू से ही एक लाभकारी इकाई है।
Sutskever ने SSI की वित्तपोषण स्थिति पर टिप्पणी करने से इनकार कर दिया। लेकिन सह-संस्थापक ग्रॉस ने कहा कि धन जुटाना कोई समस्या नहीं होगी। SSI वर्तमान में पैलो आल्टो और तेल अवीव में कार्यालय स्थापित कर रहा है और तकनीकी प्रतिभाओं की भर्ती कर रहा है।