हाल ही में, "नेचर" पत्रिका में प्रकाशित एक अध्ययन ने कृत्रिम बुद्धिमत्ता (AI) के विकास में एक चिंताजनक घटना का खुलासा किया है: जैसे-जैसे बड़े भाषा मॉडल (LLMs) में सुधार होता है, वे प्रश्नों के उत्तर देते समय "पूर्ण आत्मविश्वास" के साथ उत्तर देने की प्रवृत्ति बढ़ाते हैं, भले ही ये उत्तर गलत हो सकते हैं। इस घटना ने AI की विश्वसनीयता और उपयोग के जोखिम पर व्यापक चर्चा को जन्म दिया है।
शोध टीम में स्पेन के वालेंसिया में कृत्रिम बुद्धिमत्ता अनुसंधान संस्थान के José Hernández-Orallo और उनके सहयोगी शामिल हैं। उन्होंने AI मॉडल के विकास के दौरान गलत उत्तरों के परिवर्तन के रुझान का गहराई से विश्लेषण किया, और इन गलतियों का मानवों की प्रश्नों की कठिनाई की धारणा और गलत उत्तरों की पहचान की क्षमता के साथ संबंध भी समझा।
शोध के परिणाम बताते हैं कि जैसे-जैसे मॉडल में सुधार होता है, विशेष रूप से मानव फीडबैक लर्निंग जैसे सूक्ष्म समायोजन विधियों के माध्यम से, AI की समग्र प्रदर्शन में वास्तव में सुधार होता है। हालाँकि, एक अप्रत्याशित खोज यह है कि सही उत्तरों की संख्या में वृद्धि के साथ, गलत उत्तरों का अनुपात भी समान रूप से बढ़ता है। Hernández-Orallo ने वर्णन किया: "वे लगभग सभी प्रश्नों के उत्तर देते हैं, जिसका अर्थ है कि उच्च सहीता के साथ अधिक गलत उत्तर भी आते हैं।"
छवि स्रोत नोट: छवि AI द्वारा उत्पन्न, छवि अनुबंध सेवा प्रदाता Midjourney
शोध टीम ने मुख्य रूप से OpenAI के GPT, Meta के LMA और ओपन-सोर्स मॉडल BLOOM जैसे प्रमुख AI मॉडलों पर ध्यान केंद्रित किया। इन मॉडलों के प्रारंभिक संस्करणों और बाद के परिष्कृत संस्करणों की तुलना करके, उन्होंने विभिन्न प्रकार के प्रश्नों पर उनके प्रदर्शन का विश्लेषण किया। परिणाम बताते हैं कि जबकि मॉडल सरल प्रश्नों पर बेहतर प्रदर्शन करते हैं, कठिन प्रश्नों का सामना करते समय, उन्होंने स्पष्ट रूप से बचने की प्रवृत्ति नहीं दिखाई। उदाहरण के लिए, GPT-4 लगभग सभी प्रश्नों का उत्तर देता है, और कई मामलों में, गलत उत्तरों का अनुपात लगातार बढ़ता है, कभी-कभी 60% से अधिक।
और अधिक चिंताजनक बात यह है कि शोध ने पाया कि ये मॉडल कभी-कभी सरल प्रश्नों का भी गलत उत्तर देते हैं, जिसका अर्थ है कि उपयोगकर्ताओं के लिए AI उत्तरों पर उच्च स्तर की विश्वासworthiness का "सुरक्षित क्षेत्र" खोजना मुश्किल है। जब शोध टीम ने स्वयंसेवकों से इन उत्तरों की सहीता का मूल्यांकन करने के लिए कहा, तो परिणाम और भी चिंताजनक थे: प्रतिभागियों द्वारा गलत उत्तरों की गलत वर्गीकरण दर 10% से 40% के बीच थी, चाहे प्रश्न सरल हों या जटिल। Hernández-Orallo ने संक्षेप में कहा: "मानव इन मॉडलों की प्रभावी निगरानी नहीं कर सकते।"
इस चुनौती का सामना करने के लिए, Hernández-Orallo ने AI डेवलपर्स को सलाह दी कि उन्हें सरल प्रश्नों पर मॉडल के प्रदर्शन को बढ़ाने पर ध्यान केंद्रित करना चाहिए और कठिन प्रश्नों का सामना करते समय चैटबॉट्स को उचित रूप से अनिश्चितता व्यक्त करने या उत्तर देने से इनकार करने के लिए प्रोत्साहित करना चाहिए। उन्होंने जोर देकर कहा: "हमें उपयोगकर्ताओं को यह स्पष्ट करना चाहिए: मैं इस क्षेत्र में इसका उपयोग कर सकता हूँ, लेकिन उस क्षेत्र में इसका उपयोग नहीं करना चाहिए।"
हालांकि AI को विभिन्न जटिल प्रश्नों का उत्तर देने में सक्षम बनाना प्रभावशाली लगता है, Hernández-Orallo ने यह बताया कि यह हमेशा फायदेमंद नहीं होता है। उन्होंने कुछ मॉडलों द्वारा सरल गणना प्रश्नों पर गलतियों के लिए आश्चर्य व्यक्त किया, यह मानते हुए कि यह एक ऐसा मुद्दा है जिसे हल किया जा सकता है और किया जाना चाहिए।
दक्षिण कैरोलिना विश्वविद्यालय के कंप्यूटर वैज्ञानिक Vipula Rawte ने बताया कि कुछ मॉडल वास्तव में "मुझे नहीं पता" या "मेरे पास पर्याप्त जानकारी नहीं है" जैसी बातें कहते हैं। विशेष रूप से विशिष्ट उपयोगों (जैसे चिकित्सा) के लिए AI सिस्टम अक्सर ज्ञान की सीमाओं से परे जाने से रोकने के लिए अधिक सख्त समायोजन करते हैं। हालाँकि, उन कंपनियों के लिए जो सामान्य चैटबॉट्स विकसित करने में लगी हैं, न जानने को स्वीकार करना हमेशा एक आदर्श विशेषता नहीं होता।
यह अध्ययन AI विकास में एक महत्वपूर्ण विरोधाभास को उजागर करता है: जैसे-जैसे मॉडल अधिक जटिल और शक्तिशाली होते जाते हैं, वे कुछ पहलुओं में अधिक अविश्वसनीय हो सकते हैं। यह खोज AI डेवलपर्स, उपयोगकर्ताओं और नियामकों के लिए नए चुनौतियाँ प्रस्तुत करती है।
भविष्य में, AI विकास को प्रदर्शन में सुधार और सावधानी बनाए रखने के बीच संतुलन ढूंढने की आवश्यकता है। डेवलपर्स को AI मॉडल के प्रदर्शन का मूल्यांकन करने के तरीकों पर पुनर्विचार करने की आवश्यकता हो सकती है, न केवल सही उत्तरों की संख्या पर ध्यान केंद्रित करते हुए, बल्कि गलत उत्तरों के अनुपात और प्रभाव पर भी विचार करना चाहिए। साथ ही, AI की सीमाओं के प्रति उपयोगकर्ताओं की जागरूकता को बढ़ाना भी越来越 महत्वपूर्ण होता जा रहा है।
सामान्य उपयोगकर्ताओं के लिए, यह अध्ययन हमें याद दिलाता है कि AI उपकरणों का उपयोग करते समय सतर्क रहना आवश्यक है। हालांकि AI सुविधा और दक्षता प्रदान कर सकता है, हमें विशेष रूप से महत्वपूर्ण या संवेदनशील जानकारी से निपटने के दौरान आलोचनात्मक सोच का उपयोग करना चाहिए।