हाल ही में, एक साधारण गणितीय प्रश्न - "13.8 और 13.11 में से कौन बड़ा है?" - न केवल कुछ लोगों को कठिनाई में डाल दिया, बल्कि कई बड़े भाषा मॉडल (LLM) को भी परेशानी में डाल दिया। इस प्रश्न ने AI की सामान्य ज्ञान संबंधी समस्याओं को हल करने की क्षमता पर व्यापक चर्चा को जन्म दिया।
एक प्रसिद्ध टेलीविज़न शो में, इस प्रश्न ने नेटिज़न्स के बीच गर्म बहस छेड़ दी। कई लोगों ने माना कि 13.11% को 13.8% से बड़ा होना चाहिए, लेकिन वास्तव में, 13.8% बड़ा है।
AI2 के शोधकर्ता लिन युचेन ने पाया कि यहां तक कि बड़े भाषा मॉडल, जैसे कि GPT-4o, भी इस साधारण तुलना के प्रश्न पर गलती कर सकते हैं। GPT-4o ने गलत तरीके से माना कि 13.11, 13.8 से बड़ा है, और गलत व्याख्या दी।
लिन युचेन की खोज ने AI समुदाय में तेजी से चर्चा को जन्म दिया। कई अन्य बड़े भाषा मॉडल, जैसे कि जेमिनी, क्लॉड 3.5 सोननेट आदि, ने भी इस साधारण तुलना के प्रश्न पर समान गलतियाँ कीं।
इस प्रश्न का उद्भव इस बात को उजागर करता है कि AI को स्पष्ट संख्या तुलना से संबंधित कार्यों को संभालने में कठिनाई हो सकती है, जो पहली नज़र में साधारण लगते हैं।
हालांकि आर्टिफिशियल इंटेलिजेंस ने कई क्षेत्रों में महत्वपूर्ण प्रगति की है, जैसे कि प्राकृतिक भाषा समझना, छवि पहचानना और जटिल निर्णय लेना, लेकिन मूल गणितीय संचालन और तार्किक तर्क में, वे अभी भी गलतियाँ कर सकते हैं, जो वर्तमान तकनीक की सीमाओं को दर्शाता है।
AI ऐसी गलतियाँ क्यों करता है?
प्रशिक्षण डेटा का偏差: AI मॉडल के प्रशिक्षण डेटा में इस प्रकार के विशेष संख्या तुलना प्रश्नों को सही ढंग से संभालने के लिए पर्याप्त उदाहरण शामिल नहीं हो सकते हैं। यदि मॉडल के प्रशिक्षण के दौरान संपर्क में आए डेटा में बड़े संख्याओं को हमेशा अधिक दशमलव स्थान के रूप में दर्शाया गया है, तो यह संभवतः अधिक दशमलव स्थान को बड़े मान के रूप में गलत तरीके से व्याख्या करेगा।
फ्लोटिंग पॉइंट सटीकता की समस्या: कंप्यूटर विज्ञान में, फ्लोटिंग नंबर का प्रतिनिधित्व और गणना सटीकता की समस्याओं से संबंधित होती है। यहां तक कि छोटे से छोटे भिन्नताएं भी तुलना के समय गलत परिणाम उत्पन्न कर सकती हैं, खासकर जब सटीकता को स्पष्ट रूप से निर्दिष्ट नहीं किया गया हो।
संदर्भ की समझ की कमी: हालांकि इस मामले में संदर्भ की स्पष्टता शायद मुख्य समस्या नहीं है, AI मॉडल को सामान्यतः संदर्भ के अनुसार जानकारी को सही ढंग से व्याख्या करने की आवश्यकता होती है। यदि प्रश्न की प्रस्तुति स्पष्ट नहीं है या AI के प्रशिक्षण डेटा में सामान्य पैटर्न से मेल नहीं खाती है, तो यह गलतफहमी का कारण बन सकता है。
प्रॉम्प्ट डिज़ाइन का प्रभाव: AI को प्रश्न पूछने का तरीका सही उत्तर प्राप्त करने के लिए महत्वपूर्ण है। प्रश्न पूछने के विभिन्न तरीके AI की समझ और उत्तर की सटीकता को प्रभावित कर सकते हैं।
कैसे सुधारें?
प्रशिक्षण डेटा में सुधार: अधिक विविध और सटीक प्रशिक्षण डेटा प्रदान करके, AI मॉडल को संख्या तुलना और अन्य मूल गणितीय अवधारणाओं को बेहतर ढंग से समझने में मदद मिल सकती है।
प्रॉम्प्ट डिज़ाइन को अनुकूलित करना: प्रश्नों की प्रस्तुति को सावधानीपूर्वक डिज़ाइन करने से AI द्वारा सही उत्तर देने की संभावनाएं बढ़ सकती हैं। उदाहरण के लिए, अधिक स्पष्ट संख्या प्रदर्शनों और प्रश्न पूछने के तरीकों का उपयोग करने से अस्पष्टता कम हो सकती है।
संख्या प्रसंस्करण की सटीकता बढ़ाना: ऐसे एल्गोरिदम और तकनीकों का विकास और उपयोग करना जो फ्लोटिंग नंबर गणनाओं को अधिक सटीकता से संभाल सकें, गणना में त्रुटियों को कम करने के लिए।
तार्किक और सामान्य ज्ञान तर्क क्षमताओं को बढ़ाना: तार्किक और सामान्य ज्ञान तर्क पर विशेष प्रशिक्षण के माध्यम से, AI की इन क्षेत्रों में क्षमताओं को बढ़ाना, ताकि यह सामान्य ज्ञान से संबंधित कार्यों को बेहतर ढंग से समझ और संभाल सके।