हाल ही में, एक साधारण गणितीय प्रश्न - "13.8 और 13.11 में से कौन बड़ा है?" - न केवल कुछ लोगों को कठिनाई में डाल दिया, बल्कि कई बड़े भाषा मॉडल (LLM) को भी परेशानी में डाल दिया। इस प्रश्न ने AI की सामान्य ज्ञान संबंधी समस्याओं को हल करने की क्षमता पर व्यापक चर्चा को जन्म दिया।

एक प्रसिद्ध टेलीविज़न शो में, इस प्रश्न ने नेटिज़न्स के बीच गर्म बहस छेड़ दी। कई लोगों ने माना कि 13.11% को 13.8% से बड़ा होना चाहिए, लेकिन वास्तव में, 13.8% बड़ा है।

1.jpg

AI2 के शोधकर्ता लिन युचेन ने पाया कि यहां तक कि बड़े भाषा मॉडल, जैसे कि GPT-4o, भी इस साधारण तुलना के प्रश्न पर गलती कर सकते हैं। GPT-4o ने गलत तरीके से माना कि 13.11, 13.8 से बड़ा है, और गलत व्याख्या दी।

2.jpg

लिन युचेन की खोज ने AI समुदाय में तेजी से चर्चा को जन्म दिया। कई अन्य बड़े भाषा मॉडल, जैसे कि जेमिनी, क्लॉड 3.5 सोननेट आदि, ने भी इस साधारण तुलना के प्रश्न पर समान गलतियाँ कीं।

इस प्रश्न का उद्भव इस बात को उजागर करता है कि AI को स्पष्ट संख्या तुलना से संबंधित कार्यों को संभालने में कठिनाई हो सकती है, जो पहली नज़र में साधारण लगते हैं।

हालांकि आर्टिफिशियल इंटेलिजेंस ने कई क्षेत्रों में महत्वपूर्ण प्रगति की है, जैसे कि प्राकृतिक भाषा समझना, छवि पहचानना और जटिल निर्णय लेना, लेकिन मूल गणितीय संचालन और तार्किक तर्क में, वे अभी भी गलतियाँ कर सकते हैं, जो वर्तमान तकनीक की सीमाओं को दर्शाता है।

QQ截图20240717135712.jpg

AI ऐसी गलतियाँ क्यों करता है?

प्रशिक्षण डेटा का偏差: AI मॉडल के प्रशिक्षण डेटा में इस प्रकार के विशेष संख्या तुलना प्रश्नों को सही ढंग से संभालने के लिए पर्याप्त उदाहरण शामिल नहीं हो सकते हैं। यदि मॉडल के प्रशिक्षण के दौरान संपर्क में आए डेटा में बड़े संख्याओं को हमेशा अधिक दशमलव स्थान के रूप में दर्शाया गया है, तो यह संभवतः अधिक दशमलव स्थान को बड़े मान के रूप में गलत तरीके से व्याख्या करेगा।

फ्लोटिंग पॉइंट सटीकता की समस्या: कंप्यूटर विज्ञान में, फ्लोटिंग नंबर का प्रतिनिधित्व और गणना सटीकता की समस्याओं से संबंधित होती है। यहां तक कि छोटे से छोटे भिन्नताएं भी तुलना के समय गलत परिणाम उत्पन्न कर सकती हैं, खासकर जब सटीकता को स्पष्ट रूप से निर्दिष्ट नहीं किया गया हो।

संदर्भ की समझ की कमी: हालांकि इस मामले में संदर्भ की स्पष्टता शायद मुख्य समस्या नहीं है, AI मॉडल को सामान्यतः संदर्भ के अनुसार जानकारी को सही ढंग से व्याख्या करने की आवश्यकता होती है। यदि प्रश्न की प्रस्तुति स्पष्ट नहीं है या AI के प्रशिक्षण डेटा में सामान्य पैटर्न से मेल नहीं खाती है, तो यह गलतफहमी का कारण बन सकता है。

प्रॉम्प्ट डिज़ाइन का प्रभाव: AI को प्रश्न पूछने का तरीका सही उत्तर प्राप्त करने के लिए महत्वपूर्ण है। प्रश्न पूछने के विभिन्न तरीके AI की समझ और उत्तर की सटीकता को प्रभावित कर सकते हैं।

कैसे सुधारें?

प्रशिक्षण डेटा में सुधार: अधिक विविध और सटीक प्रशिक्षण डेटा प्रदान करके, AI मॉडल को संख्या तुलना और अन्य मूल गणितीय अवधारणाओं को बेहतर ढंग से समझने में मदद मिल सकती है।

प्रॉम्प्ट डिज़ाइन को अनुकूलित करना: प्रश्नों की प्रस्तुति को सावधानीपूर्वक डिज़ाइन करने से AI द्वारा सही उत्तर देने की संभावनाएं बढ़ सकती हैं। उदाहरण के लिए, अधिक स्पष्ट संख्या प्रदर्शनों और प्रश्न पूछने के तरीकों का उपयोग करने से अस्पष्टता कम हो सकती है।

संख्या प्रसंस्करण की सटीकता बढ़ाना: ऐसे एल्गोरिदम और तकनीकों का विकास और उपयोग करना जो फ्लोटिंग नंबर गणनाओं को अधिक सटीकता से संभाल सकें, गणना में त्रुटियों को कम करने के लिए।

तार्किक और सामान्य ज्ञान तर्क क्षमताओं को बढ़ाना: तार्किक और सामान्य ज्ञान तर्क पर विशेष प्रशिक्षण के माध्यम से, AI की इन क्षेत्रों में क्षमताओं को बढ़ाना, ताकि यह सामान्य ज्ञान से संबंधित कार्यों को बेहतर ढंग से समझ और संभाल सके।