क्या AI वास्तव में "दिमाग" विकसित कर रहा है?! मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी के नवीनतम शोध से पता चलता है कि बड़े भाषा मॉडल (LLM) की आंतरिक संरचना, मानव मस्तिष्क के साथ आश्चर्यजनक समानताएँ रखती है!

इस अध्ययन नेSparse Autoencoder तकनीक का उपयोग करके LLM के सक्रियण स्थान का गहन विश्लेषण किया, और तीन स्तरों की संरचनात्मक विशेषताओं की खोज की, जो चकित करने वाली हैं:

पहले, सूक्ष्म स्तर पर, शोधकर्ताओं ने "क्रिस्टल" जैसी संरचनाओं की उपस्थिति पाई। ये "क्रिस्टल" के चेहरे समांतर चतुर्भुज या ट्रैपेज़ियम से बने होते हैं, जो हमारे परिचित शब्दों के उपमा जैसे "पुरुष:महिला::राजा:रानी" के समान होते हैं।

image.png

और भी आश्चर्यजनक बात यह है कि, कुछ अप्रासंगिक अवरोधों (जैसे शब्दों की लंबाई) को हटाने के लिए रैखिक विभेदन विश्लेषण तकनीक का उपयोग करने के बाद, ये "क्रिस्टल" संरचनाएँ और भी स्पष्ट हो जाती हैं।

दूसरे, मध्य स्तर पर, शोधकर्ताओं ने पाया कि LLM के सक्रियण स्थान में मानव मस्तिष्क के कार्यात्मक विभाजन के समान एक मॉड्यूलर संरचना है।

image.png

उदाहरण के लिए, गणित और कोड से संबंधित विशेषताएँ एक साथ एकत्रित होती हैं, जो मानव मस्तिष्क के कार्यात्मक लोब के समान एक "मस्तिष्क लोब" बनाती हैं। विभिन्न मापदंडों के माध्यम से मात्रात्मक विश्लेषण करके, शोधकर्ताओं ने इन "मस्तिष्क लोब" की स्थानिक स्थानीयता की पुष्टि की, जो दर्शाती है कि जो विशेषताएँ एक साथ प्रकट होती हैं, वे स्थानिक रूप से अधिक एकत्रित होती हैं, जो यादृच्छिक वितरण की अपेक्षाओं से बहुत अधिक होती हैं।

सूक्ष्म स्तर पर, शोधकर्ताओं ने पाया कि LLM विशेषता बिंदु बादल की समग्र संरचना समदिशीय नहीं है, बल्कि यह एक शक्ति नियम विशेषता मान वितरण प्रस्तुत करती है, और यह वितरण मध्य स्तर पर सबसे स्पष्ट है।

शोधकर्ताओं ने विभिन्न स्तरों की क्लस्टर एंट्रॉपी का मात्रात्मक विश्लेषण भी किया, और पाया कि मध्य स्तर की क्लस्टर एंट्रॉपी कम है, जो दर्शाती है कि विशेषता प्रस्तुति अधिक केंद्रित है, जबकि प्रारंभिक और अंतिम स्तर की क्लस्टर एंट्रॉपी अधिक है, जो दर्शाती है कि विशेषता प्रस्तुति अधिक वितरित है।

यह अध्ययन हमें बड़े भाषा मॉडल की आंतरिक तंत्र को समझने के लिए एक नई दृष्टिकोण प्रदान करता है, और भविष्य में अधिक शक्तिशाली और बुद्धिमान AI सिस्टम विकसित करने के लिए आधार तैयार करता है।