हाल ही में, मेटा के शोधकर्ताओं ने ज्ञान खोज क्षमता को बढ़ाने के लिए एक हल्का माइक्रो-ट्यूनिंग विधि RA-DIT पेश की है। यह विधि दो चरणों में ट्यूनिंग के माध्यम से काम करती है, पहला भाषा मॉडल की खोजी जानकारी का उपयोग करने की क्षमता को बढ़ाना, और दूसरा खोजक को अधिक प्रासंगिक सामग्री प्रदान करने के लिए अनुकूलित करना। प्रयोगात्मक परिणामों से पता चलता है कि RA-DIT65B ज्ञान-घनत्व वाले जीरो-शॉट और कम-शॉट परीक्षणों में मौजूदा मॉडलों से बेहतर है। इसने ज्ञान उपयोग और संदर्भ समझने की आवश्यकता वाले कार्यों के प्रदर्शन में भी महत्वपूर्ण सुधार किया है। अनुसंधान ने दिखाया है कि RA-DIT जैसी हल्की ट्यूनिंग खोज-संवर्धित भाषा मॉडलों के लिए प्रभावी है, विशेष रूप से उन परिदृश्यों में जहां बड़े पैमाने पर ज्ञान स्रोतों तक पहुंच की आवश्यकता होती है।
मेटा शोधकर्ताओं ने भाषा मॉडल के ज्ञान पुनर्प्राप्ति क्षमता को सुधारने के लिए हल्के फाइन-ट्यूनिंग विधि RA-DIT का प्रस्ताव रखा
