गूगल DeepMind के नवीनतम शोध से पता चलता है कि बड़े भाषा मॉडल बिना किसी बाहरी मार्गदर्शन के, अपने तर्क की गलतियों को सुधारने में कठिनाई महसूस करते हैं। शोधकर्ताओं ने पाया कि जब मॉडल केवल अपने विचारों पर भरोसा करते हैं, तो वे अक्सर अपनी प्रारंभिक प्रतिक्रियाओं को सुधारने में गलतियाँ करते हैं। शोध में यह भी पाया गया कि कई मॉडल के वोटों के माध्यम से सहमति प्राप्त करना स्व-संगतता हासिल कर सकता है, लेकिन यह असली स्व-सुधार से अभी भी दूर है। शोधकर्ताओं का कहना है कि यह शोध परिणाम उच्च सुरक्षा आवश्यकताओं वाले अनुप्रयोगों के विकास के लिए महत्वपूर्ण महत्व रखता है। उन्होंने स्व-सुधार की संभावनाओं और सीमाओं को समझने के आधार पर मौजूदा भाषा मॉडलों में सुधार करने के लिए निरंतर प्रयास करने की अपील की।
गूगल अनुसंधान: बड़े भाषा मॉडल अपनी तर्क संबंधी गलतियों को स्वयं सुधारने में कठिनाई महसूस करते हैं
