गैर-लाभकारी अनुसंधान समूह मशीन इंटेलिजेंस रिसर्च इंस्टीट्यूट (MIRI) ने वैश्विक स्तर पर आधारभूत या "सीमा" मॉडल अनुसंधान को रोकने की अपील की है, क्योंकि वे मानव अस्तित्व के लिए सुरक्षा चिंताओं के कारण खतरा बन सकते हैं। आधारभूत मॉडल एक प्रकार की कृत्रिम बुद्धिमत्ता प्रणाली है जो विभिन्न पैटर्नों पर लागू हो सकती है। MIRI का मानना है कि आधारभूत मॉडल मानवों से अधिक बुद्धिमान होंगे और "मानवता का विनाश" कर सकते हैं।

मस्तिष्क बड़े मॉडल

चित्र स्रोत नोट: चित्र AI द्वारा उत्पन्न, चित्र अधिकार सेवा प्रदाता Midjourney

प्रौद्योगिकी क्षेत्र में, एलोन मस्क और स्टीव वोज्नियाक जैसे कुछ प्रमुख व्यक्तियों ने OpenAI के GPT-4 से अधिक शक्तिशाली आधारभूत मॉडल के विकास को रोकने की अपील की है। लेकिन MIRI आगे बढ़कर, हाल ही में जारी की गई संचार रणनीति में किसी भी मानव से अधिक बुद्धिमान प्रणाली बनाने के प्रयास को पूरी तरह से रोकने का आह्वान कर रहा है।

इस समूह ने कहा: "नीति निर्माता मुख्य रूप से समझौते के माध्यम से समस्याओं का समाधान करते हैं: वे एक जगह पर समझौता करके दूसरी तरफ लाभ प्राप्त करते हैं। हमें चिंता है कि मानव अस्तित्व को बनाए रखने के लिए अधिकांश कानून सामान्य राजनीतिक प्रक्रिया के माध्यम से पारित होंगे और बेकार के समझौते में बदल जाएंगे। इस बीच, समय ticking कर रहा है। कृत्रिम बुद्धिमत्ता प्रयोगशालाएँ अधिक शक्तिशाली प्रणालियों के विकास और प्रशिक्षण में निवेश जारी रखती हैं। हम अभी भी आवश्यक व्यापक कानून प्राप्त करने के करीब नहीं हैं।"

MIRI चाहता है कि सरकार आधारभूत मॉडल विकसित करने वाली कंपनियों को "शटडाउन स्विच" स्थापित करने के लिए मजबूर करे, ताकि जब AI प्रणाली दुर्भावनापूर्ण या "x जोखिम" प्रवृत्तियों का विकास करे, तो AI प्रणाली को बंद किया जा सके।

यह गैर-लाभकारी संगठन कहता है कि वे अभी भी बुद्धिमान प्रणालियों के मानव से अधिक बुद्धिमान होने के सिद्धांत के प्रति प्रतिबद्ध हैं, लेकिन "जब हमें पता हो कि इस प्रकार की AI को सुरक्षित रूप से कैसे बनाना है तब ही निर्माण करना चाहते हैं।"

MIRI की स्थापना 2000 में Eliezer Yudkowsky ने की थी, और इसके समर्थकों में Peter Thiel और एथेरियम क्रिप्टोक्यूरेंसी के सह-संस्थापक Vitalik Buterin शामिल हैं। जबकि फ्यूचर ऑफ लाइफ इंस्टीट्यूट (जीवन के भविष्य का संस्थान) भी MIRI का एक प्रमुख योगदानकर्ता है।

AI और डेटा विश्लेषण अनुसंधान कंपनी Omdia के मुख्य विश्लेषक ब्रैडली शिमिन ने कहा कि समर्थन अनुसंधान की कमी के कारण, MIRI के लिए विधायकों को मनाना मुश्किल होगा। उन्होंने कहा: "बाजार ने इन मुद्दों पर विचार किया है और निष्कर्ष निकाला है: ट्रांसफार्मर आधारित GenAI मॉडल की वर्तमान और निकट भविष्य की कला स्थिति जटिल विषयों के उपयोगी प्रतिनिधित्व बनाने के अलावा लगभग कुछ नहीं कर सकती।" शिमिन ने कहा कि MIRI ने कृत्रिम बुद्धिमत्ता के निर्माण और नियमन के बीच ज्ञान के अंतर को सही तरीके से पहचाना है।

मुख्य बिंदु:

- 📣 गैर-लाभकारी अनुसंधान समूह मशीन इंटेलिजेंस रिसर्च इंस्टीट्यूट (MIRI) ने वैश्विक स्तर पर आधारभूत या "सीमा" मॉडल अनुसंधान को रोकने की अपील की है, क्योंकि वे मानव अस्तित्व के लिए सुरक्षा चिंताओं के कारण खतरा बन सकते हैं।

- 🤖 MIRI चाहता है कि सरकार आधारभूत मॉडल विकसित करने वाली कंपनियों को "शटडाउन स्विच" स्थापित करने के लिए मजबूर करे, ताकि जब AI प्रणाली दुर्भावनापूर्ण या "x जोखिम" प्रवृत्तियों का विकास करे, तो AI प्रणाली को बंद किया जा सके।

- 🌐 AI और डेटा विश्लेषण अनुसंधान कंपनी Omdia के मुख्य विश्लेषक ब्रैडली शिमिन ने कहा कि समर्थन अनुसंधान की कमी के कारण, MIRI के लिए विधायकों को मनाना मुश्किल होगा।