हाल के अनुसंधान से पता चला है कि बड़े भाषा मॉडल तर्क संबंधी कार्यों में पूर्वधारणा जानकारी की प्रस्तुति के क्रम से प्रभावित होते हैं, और बेतरतीब क्रम से प्रदर्शन में कमी आ सकती है। गूगल DeepMind और स्टैनफोर्ड के शोधकर्ताओं ने बताया है कि तर्क के प्राकृतिक क्रम में व्यवस्थित पूर्वधारणा मॉडल के प्रदर्शन को बढ़ा सकती है। LLM जैसे मॉडलों के लिए, पूर्वधारणा के क्रम को बदलने से प्रदर्शन में कमी आती है, जिसे हल करने के लिए आगे अनुसंधान की आवश्यकता है। पूर्वधारणा का क्रम बड़े भाषा मॉडल की तर्क प्रदर्शन पर महत्वपूर्ण प्रभाव डालता है, और यह एक चुनौती बनी हुई है। Gemini, GPT-4 जैसे मॉडलों में महत्वपूर्ण खामियां हैं, जिससे LLM का प्रदर्शन गंभीर रूप से गिर गया है。
तर्कीय तर्क में बड़ी गिरावट! GPT-4, Gemini में गंभीर दोष पाए गए, LLM की बुद्धिमत्ता में बड़ी कमी

站长之家
यह लेख AIbase दैनिक से है
【AI दैनिक】 कॉलम में आपका स्वागत है! यहाँ आर्टिफ़िशियल इंटेलिजेंस की दुनिया का पता लगाने के लिए आपकी दैनिक मार्गदर्शिका है। हर दिन हम आपके लिए AI क्षेत्र की हॉट कंटेंट पेश करते हैं, डेवलपर्स पर ध्यान केंद्रित करते हैं, तकनीकी रुझानों को समझने में आपकी मदद करते हैं और अभिनव AI उत्पाद अनुप्रयोगों को समझते हैं।