हाल ही में एक अध्ययन से पता चला है कि विशेष प्रशिक्षण के माध्यम से, भाषा मॉडल आंशिक रूप से अधिक कुशल बहु-चरण तर्क क्षमता हासिल कर सकते हैं। यह क्षमता मनोवैज्ञानिक डैनियल काह्नमैन द्वारा वर्णित "सिस्टम 2 तर्क" के समान है, अर्थात् धीरे-धीरे और सचेत तरीके से जानकारी को संसाधित करना।
मेटा कंपनी के शोधकर्ताओं ने एक नई विधि विकसित की है, जो गणना-सघन बहु-चरण तर्क प्रक्रिया को भाषा मॉडल के मापदंडों में "संक्षिप्त" करती है। शोध के परिणाम बताते हैं कि कुछ मामलों में, इस विधि से प्रशिक्षित मॉडल कम गणना लागत पर मूल बहु-चरण प्रक्रिया के समान प्रदर्शन प्राप्त कर सकते हैं।
यह "संक्षिप्त" विधि इस प्रकार काम करती है: पहले बड़े पैमाने पर उदाहरण डेटा पर बहु-चरण तर्क विधि लागू की जाती है, फिर उच्च स्थिरता वाले परिणामों को छानकर रखा जाता है, और अंततः इन डेटा का उपयोग करके भाषा मॉडल को माइक्रो-ट्यूनिंग प्रशिक्षण दिया जाता है। मूल रूप से, यह विधि संश्लेषित प्रशिक्षण डेटा उत्पन्न करके भाषा मॉडल को बिना मध्यवर्ती चरण के सीधे निष्कर्ष निकालने में सक्षम बनाती है।
चित्र स्रोत नोट: चित्र AI द्वारा उत्पन्न, चित्र अधिकार सेवा प्रदाता Midjourney
शोधकर्ताओं ने इस विधि को चार विभिन्न बहु-चरण तर्क तकनीकों और पांच कार्य प्रकारों पर लागू किया। परिणाम बताते हैं कि कई मामलों में यह विधि मॉडल प्रदर्शन को प्रभावी ढंग से बढ़ा सकती है, लेकिन यह सभी परिदृश्यों के लिए उपयुक्त नहीं है।
उदाहरण के लिए, पूर्वाग्रह से बचने और प्रतिक्रिया गुणवत्ता में सुधार जैसे कार्यों में, "संक्षिप्त" मॉडल का प्रदर्शन बहु-चरण विधि के समान है, लेकिन आवश्यक गणना संसाधनों में भारी कमी आई है। हालाँकि, जटिल गणितीय तर्क कार्यों में, यह विधि सफल नहीं हो पाई। शोधकर्ताओं का अनुमान है कि कुछ कार्य एकल चरण तर्क के लिए अत्यधिक जटिल हो सकते हैं।
फिर भी, शोधकर्ताओं का मानना है कि यह विधि अधिक शक्तिशाली भाषा प्रसंस्करण प्रणालियों के विकास के लिए एक आशाजनक दिशा प्रदान करती है। भविष्य में इस विधि को अन्य तकनीकों के साथ संयोजित किया जा सकता है, वास्तविक रूप से चुनौतीपूर्ण समस्याओं को हल करने पर ध्यान केंद्रित करते हुए।
यह अध्ययन भाषा मॉडल की तर्क क्षमता को बढ़ाने के लिए नए रास्ते खोलता है, जो कई अनुप्रयोग क्षेत्रों में प्रगति लाने की उम्मीद करता है।