हाल के अनुसंधान से पता चला है कि बड़े भाषा मॉडल तर्क संबंधी कार्यों में पूर्वधारणा जानकारी की प्रस्तुति के क्रम से प्रभावित होते हैं, और बेतरतीब क्रम से प्रदर्शन में कमी आ सकती है। गूगल DeepMind और स्टैनफोर्ड के शोधकर्ताओं ने बताया है कि तर्क के प्राकृतिक क्रम में व्यवस्थित पूर्वधारणा मॉडल के प्रदर्शन को बढ़ा सकती है। LLM जैसे मॉडलों के लिए, पूर्वधारणा के क्रम को बदलने से प्रदर्शन में कमी आती है, जिसे हल करने के लिए आगे अनुसंधान की आवश्यकता है। पूर्वधारणा का क्रम बड़े भाषा मॉडल की तर्क प्रदर्शन पर महत्वपूर्ण प्रभाव डालता है, और यह एक चुनौती बनी हुई है। Gemini, GPT-4 जैसे मॉडलों में महत्वपूर्ण खामियां हैं, जिससे LLM का प्रदर्शन गंभीर रूप से गिर गया है。