अलीबाबा दामो अकादमी ने एक बहुभाषी बड़ा भाषा मॉडल बेबेल को ओपन सोर्स किया है, जिसका महत्त्वाकांक्षी लक्ष्य भाषा की खाई को पाटना है, ताकि AI दुनिया की 90% से ज़्यादा आबादी की भाषाओं को समझ सके और उनका इस्तेमाल कर सके।
वर्तमान में कई बड़े भाषा मॉडल अक्सर अंग्रेज़ी, फ़्रांसीसी, जर्मन जैसी संसाधन-समृद्ध भाषाओं को प्राथमिकता देते हैं। हालाँकि, वैश्विक सम्मेलनों में कम ही उल्लेखित छोटी भाषाओं के वक्ताओं की तरह, हिंदी, बांग्ला, उर्दू जैसी विशाल उपयोगकर्ता आधार वाली भाषाएँ भी AI क्षेत्र में अक्सर अनदेखी रह जाती हैं।
अलीबाबा का बेबेल इस स्थिति को बदलने के लिए है। यह दुनिया की सबसे ज़्यादा बोली जाने वाली शीर्ष 25 भाषाओं का समर्थन करता है, जो दुनिया की 90% से ज़्यादा आबादी को कवर करता है। ज़्यादा प्रशंसा की बात यह है कि, बेबेल ने स्वाहिली, जावानी, बर्मी जैसी भाषाओं पर भी ध्यान केंद्रित किया है, जिनका ओपन सोर्स LLM में कम ही अध्ययन किया गया है। यह कदम निस्संदेह इन भाषाओं के अरबों वक्ताओं को अधिक सुविधाजनक और बेहतर AI भाषा सेवाएँ प्रदान करेगा।
पारंपरिक निरंतर पूर्व-प्रशिक्षण विधियों के विपरीत, बेबेल ने मॉडल की क्षमता को बढ़ाने के लिए अद्वितीय परत विस्तार तकनीक का उपयोग किया है। इस विधि को मॉडल के मौजूदा आधार पर, एक अधिक कुशल तरीके से "ज्ञान भंडार" जोड़ने के रूप में समझा जा सकता है, जिससे प्रदर्शन में सुधार के साथ-साथ गणना दक्षता भी सुनिश्चित होती है। शोध दल ने दो अलग-अलग मॉडल पेश किए हैं: बेबेल-9B, जिसे कुशल सिंगल-GPU अनुमान और ठीक-ठीक समायोजन के लिए अनुकूलित किया गया है; और बेबेल-83B, जो 83 अरब पैरामीटर वाला एक "महाकाव्य" है जिसका उद्देश्य ओपन सोर्स बहुभाषी LLM का नया मानदंड स्थापित करना है।
बेबेल की क्षमता का परीक्षण करने के लिए, शोध दल ने कई बहुभाषी कार्यों पर कड़ा मूल्यांकन किया। परिणाम उत्साहजनक हैं: चाहे 9 अरब पैरामीटर वाला बेबेल-9B हो या 83 अरब पैरामीटर वाला बेबेल-83B, कई बेंचमार्क परीक्षणों में दोनों ने समान आकार के अन्य ओपन सोर्स मॉडल को पीछे छोड़ दिया। उदाहरण के लिए, बेबेल ने विश्व ज्ञान (MMMLU, M3Exam), तर्क (MGSM, XCOPA), समझ (XNLI) और अनुवाद (Flores-200) जैसे कार्यों में उत्कृष्ट प्रदर्शन किया।
विशेष रूप से उल्लेखनीय यह है कि, संसाधन-सीमित भाषाओं को संसाधित करते समय, बेबेल की सटीकता पिछले बहुभाषी LLM की तुलना में 5% से 10% तक बढ़ गई है। यह स्पष्ट रूप से दर्शाता है कि बेबेल ने भाषा कवरेज में सुधार करते हुए विभिन्न भाषाओं में मॉडल के प्रदर्शन पर भी ध्यान केंद्रित किया है।
और भी आश्चर्यजनक बात यह है कि, दस लाख से ज़्यादा संवाद डेटासेट पर पर्यवेक्षित ठीक-ठीक समायोजन (SFT) करने के बाद, बेबेल के चैट संस्करण बेबेल-9B-चैट और बेबेल-83B-चैट ने शक्तिशाली संवाद क्षमता दिखाई है, जिसका प्रदर्शन कुछ शीर्ष वाणिज्यिक AI मॉडल के बराबर है, उदाहरण के लिए, बेबेल-83B-चैट कुछ कार्यों में GPT-4o से भी आगे निकल गया है। यह निस्संदेह ओपन सोर्स समुदाय में नई ऊर्जा का संचार करता है, यह साबित करता है कि ओपन सोर्स मॉडल बहुभाषी क्षमता में भी अग्रणी स्थान प्राप्त कर सकते हैं।
प्रोजेक्ट:https://babel-llm.github.io/babel-llm/
github:https://github.com/babel-llm/babel-llm