स्विट्ज़रलैंड के लॉज़ान में स्थित फेडरल पॉलिटेक्निक स्कूल (EPFL) के एक हालिया अध्ययन ने दो प्रमुख बड़े भाषा मॉडल (LLM) अनुकूलन प्रशिक्षण विधियों की तुलना की: संदर्भ शिक्षण (ICL) और निर्देश सूक्ष्मता (IFT)। शोधकर्ताओं ने मॉडल की निर्देशों का पालन करने की क्षमता का मूल्यांकन करने के लिए MT-Bench मानक परीक्षण का उपयोग किया और पाया कि विशेष परिस्थितियों में, दोनों विधियों का प्रदर्शन अलग-अलग लाभ और हानि के साथ होता है।

अध्ययन से पता चला है कि जब उपलब्ध प्रशिक्षण नमूनों की संख्या कम होती है (उदाहरण के लिए 50 से कम), ICL और IFT का प्रभाव बहुत निकट होता है। यह दर्शाता है कि सीमित डेटा के मामले में, ICL शायद IFT का एक विकल्प हो सकता है।

image.png

हालांकि, जैसे-जैसे कार्य की जटिलता बढ़ती है, उदाहरण के लिए, कई राउंड संवाद स्थितियों में, IFT का लाभ स्पष्ट हो जाता है। शोधकर्ताओं का मानना है कि ICL मॉडल एकल नमूने की शैली पर अधिक फिट हो जाता है, जिससे जटिल संवाद को संभालने में प्रदर्शन खराब हो जाता है, कभी-कभी तो मूल मॉडल से भी खराब।

अध्ययन ने URIAL विधि की भी जांच की, जो केवल तीन नमूनों और निर्देश पालन नियमों का उपयोग करके मूल भाषा मॉडल को प्रशिक्षित करती है। हालांकि URIAL ने कुछ प्रभावशीलता हासिल की, लेकिन IFT द्वारा प्रशिक्षित मॉडलों की तुलना में अभी भी एक अंतर है। EPFL के शोधकर्ताओं ने नमूना चयन रणनीति में सुधार करके URIAL के प्रदर्शन को बढ़ाया, जिससे यह सूक्ष्मता मॉडल के निकट पहुँच गया। यह ICL, IFT और मूल मॉडल प्रशिक्षण के लिए उच्च गुणवत्ता वाले प्रशिक्षण डेटा के महत्व को उजागर करता है।

image.png

इसके अलावा, अध्ययन ने पाया कि डिकोडिंग पैरामीटर मॉडल के प्रदर्शन पर महत्वपूर्ण प्रभाव डालते हैं। ये पैरामीटर निर्धारित करते हैं कि मॉडल कैसे पाठ उत्पन्न करता है, और यह मूल LLM और URIAL द्वारा प्रशिक्षित मॉडल दोनों के लिए महत्वपूर्ण है।

शोधकर्ताओं ने指出 किया कि यहां तक कि मूल मॉडल भी उपयुक्त डिकोडिंग पैरामीटर के तहत कुछ हद तक निर्देशों का पालन कर सकता है।

इस अध्ययन का महत्व यह है कि यह दर्शाता है कि संदर्भ शिक्षण भाषा मॉडल को तेजी से और प्रभावी ढंग से अनुकूलित कर सकता है, विशेष रूप से जब प्रशिक्षण नमूने सीमित हों। लेकिन कई राउंड संवाद जैसे जटिल कार्यों के लिए, निर्देश सूक्ष्मता अभी भी बेहतर विकल्प है।

जैसे-जैसे डेटा सेट का आकार बढ़ता है, IFT का प्रदर्शन लगातार बढ़ता रहेगा, जबकि ICL का प्रदर्शन एक निश्चित नमूना संख्या के बाद स्थिर हो जाएगा। शोधकर्ताओं ने जोर दिया कि ICL या IFT का चयन कई कारकों पर निर्भर करता है, जैसे उपलब्ध संसाधन, डेटा की मात्रा और विशिष्ट अनुप्रयोग आवश्यकताएँ। चाहे कोई भी विधि चुनी जाए, उच्च गुणवत्ता वाले प्रशिक्षण डेटा अत्यंत महत्वपूर्ण हैं।