ब्लूमबर्ग की खबरों के अनुसार, OpenAI ने एक आंतरिक मापदंड बनाया है, जिसका उपयोग उसके बड़े भाषा मॉडल की सामान्य कृत्रिम बुद्धिमत्ता (AGI) में प्रगति को ट्रैक करने के लिए किया जाएगा। यह पहल न केवल OpenAI की AGI के क्षेत्र में महत्वाकांक्षा को दर्शाती है, बल्कि उद्योग के लिए AI विकास को मापने का एक नया मानक भी प्रदान करती है।

यह मापदंड कुल पांच स्तरों में विभाजित है: 1. पहला स्तर: वर्तमान चैटबॉट, जैसे कि ChatGPT, इस स्तर में आते हैं। 2. दूसरा स्तर: ऐसे सिस्टम जो पीएचडी स्तर पर बुनियादी समस्याओं को हल करने में सक्षम हैं। OpenAI का दावा है कि वह इस स्तर के करीब है। 3. तीसरा स्तर: उपयोगकर्ता की ओर से कार्य करने वाले AI एजेंट। 4. चौथा स्तर: नए नवाचार उत्पन्न करने में सक्षम AI। 5. पांचवां स्तर: पूरे संगठन के काम को करने वाले AI, जिसे AGI प्राप्त करने का अंतिम कदम माना जाता है।

OpenAI ने पहले AGI को "एक अत्यधिक स्वायत्त प्रणाली, जो आर्थिक मूल्य वाले अधिकांश कार्यों में मानवों को पीछे छोड़ देती है" के रूप में परिभाषित किया है। यह परिभाषा कंपनी की विकास दिशा के लिए महत्वपूर्ण है, क्योंकि OpenAI की संरचना और मिशन AGI की प्राप्ति के चारों ओर केंद्रित हैं।

OpenAI, कृत्रिम बुद्धिमत्ता, AI

हालांकि, विशेषज्ञों के बीच AGI की प्राप्ति की समय सीमा पर मतभेद हैं। OpenAI के CEO सैम ऑल्टमैन ने अक्टूबर 2023 में कहा था कि AGI की प्राप्ति में "पाँच वर्षों का समय" है। लेकिन यदि AGI हासिल भी होता है, तो इसके लिए अरबों डॉलर की कंप्यूटिंग संसाधनों की आवश्यकता होगी।

यह ध्यान देने योग्य है कि इस मापदंड के प्रकाशन के साथ-साथ OpenAI ने लॉस अलामोस नेशनल लैब के साथ सहयोग की घोषणा की, ताकि यह पता लगाया जा सके कि कैसे उन्नत AI मॉडल (जैसे GPT-4) का उपयोग जैविक विज्ञान अनुसंधान में सुरक्षित रूप से किया जा सकता है। यह सहयोग अमेरिकी सरकार के लिए सुरक्षा और अन्य मूल्यांकन कारकों का एक सेट स्थापित करने के उद्देश्य से है, जिसे भविष्य में विभिन्न AI मॉडल का परीक्षण करने के लिए उपयोग किया जा सके।

हालांकि OpenAI ने इन आंतरिक स्तरों में मॉडल को कैसे आवंटित किया जाए, इस पर विस्तृत जानकारी देने से इनकार कर दिया, लेकिन ब्लूमबर्ग की रिपोर्ट के अनुसार, कंपनी के नेतृत्व ने हाल ही में GPT-4 AI मॉडल का उपयोग करके एक शोध परियोजना का प्रदर्शन किया, जिसे मानव तर्क क्षमता के कुछ नए कौशल दिखाने का माना गया।

AGI प्रगति को मापने का यह तरीका AI विकास के लिए अधिक सख्त परिभाषा देने में मदद करता है, और व्यक्तिपरक व्याख्या से बचता है। हालाँकि, इसने AI सुरक्षा और नैतिकता के संबंध में कुछ चिंताओं को भी जन्म दिया है। इस वर्ष मई में, OpenAI ने अपनी सुरक्षा टीम को भंग कर दिया, कुछ पूर्व कर्मचारियों ने कहा कि कंपनी की सुरक्षा संस्कृति उत्पाद विकास के लिए जगह छोड़ चुकी है, हालाँकि OpenAI ने इस दावे का खंडन किया है।