कृत्रिम बुद्धिमत्ता के तेजी से विकास ने कई लोगों को चिंतित किया है, विशेषकर भविष्य में AI के नियंत्रण से बाहर होने के सवाल पर। इसी चिंता के बीच, एक नई AI सुरक्षा कंपनी — Safe Superintelligence (SSI) का उदय हुआ है, जिसके पीछे OpenAI के पूर्व मुख्य वैज्ञानिक Ilya Sutskever का हाथ है, जिन्होंने एक बार फिर सबका ध्यान आकर्षित किया है।
जानकारी के अनुसार, Ilya Sutskever ने Daniel Gross और Daniel Levy के साथ मिलकर SSI की स्थापना की है, जिसने 10 अरब डॉलर की फंडिंग सफलतापूर्वक जुटाई है, जिसका लक्ष्य सुरक्षित और मानव क्षमताओं से परे AI सिस्टम विकसित करना है।
SSI की स्थापना के केवल तीन महीने में, कई प्रसिद्ध निवेशकों का ध्यान आकर्षित किया है, जिनमें एंडरसन・होरॉविट्ज़ (Andreessen Horowitz), रेडवुड कैपिटल (Sequoia Capital) शामिल हैं। हालांकि इस कंपनी में वर्तमान में केवल 10 कर्मचारी हैं, लेकिन इसका मूल्यांकन 50 अरब डॉलर तक पहुँच गया है। कंपनी इन फंड्स का उपयोग अधिक कंप्यूटिंग क्षमता प्राप्त करने और शीर्ष प्रतिभाओं को आकर्षित करने के लिए करने का इरादा रखती है, टीम के सदस्य मुख्य रूप से कैलिफोर्निया के पालो आल्टो और इजराइल के तेल अवीव में स्थित होंगे।
एक साक्षात्कार में, ग्रॉस ने कहा कि वे उन निवेशकों को खोजने की उम्मीद कर रहे हैं जो कंपनी के मिशन को समझते और समर्थन करते हैं। उनका लक्ष्य सुरक्षित सुपर इंटेलिजेंस के विकास पर ध्यान केंद्रित करना है, न कि जल्दी में उत्पाद को बाजार में लाना। हालाँकि वर्तमान में AI सुरक्षा क्षेत्र में नियामक स्थिति जटिल है, SSI अभी भी दृढ़ विश्वास रखता है कि AI द्वारा संभावित नुकसान को रोकना आवश्यक है।
Sutskever ने कहा कि उन्होंने SSI की स्थापना का निर्णय लिया क्योंकि उन्होंने पहले की नौकरी से अलग दिशा देखी। उन्होंने OpenAI में एक "सुपर संरेखण" नामक टीम का नेतृत्व किया, जिसका उद्देश्य AI के व्यवहार को मानव मूल्यों के साथ संरेखित करना था। हालांकि OpenAI में उनके अनुभव ने उन्हें उद्योग में समृद्ध अनुभव प्रदान किया, वे SSI में तकनीक को एक अलग तरीके से आगे बढ़ाने की उम्मीद करते हैं।
टीम संस्कृति के मामले में, SSI "अच्छे नैतिकता" वाले उम्मीदवारों की भर्ती पर बहुत ध्यान केंद्रित करता है। वे उम्मीदवारों की क्षमता और काम के प्रति उत्साह को प्राथमिकता देते हैं, न कि केवल उनके अनुभव को। Sutskever और उनकी टीम उन लोगों की तलाश कर रहे हैं जो नवोन्मेषी विचार ला सकें, ताकि इस तेजी से विकसित हो रहे उद्योग में सफलता प्राप्त की जा सके。
SSI का लक्ष्य केवल उन्नत AI तकनीक विकसित करना नहीं है, बल्कि यह सुनिश्चित करना भी है कि ये तकनीक भविष्य में मानवता की सेवा सुरक्षित रूप से कर सकें, संभावित जोखिमों से बचते हुए।
मुख्य बिंदु:
1. 💰 SSI का सह-स्थापन OpenAI के पूर्व मुख्य वैज्ञानिक Ilya Sutskever ने किया, जिसने 10 अरब डॉलर की फंडिंग हासिल की और इसका मूल्यांकन 50 अरब डॉलर है।
2. 🌍 कंपनी AI सुरक्षा विकास पर ध्यान केंद्रित करेगी, उत्पाद लॉन्च से पहले पूरी तरह से अनुसंधान और विकास करने का प्रयास करेगी।
3. 🔍 SSI "अच्छे नैतिकता" वाले प्रतिभाओं की भर्ती पर जोर देती है, उम्मीदवारों की क्षमता और कार्य उत्साह पर ध्यान केंद्रित करती है, न कि केवल अनुभव पर।