हाल ही में, एलेन आर्टिफिशियल इंटेलिजेंस रिसर्च इंस्टीट्यूट (Ai2) ने Molmo जारी किया है, जो एक नया ओपन-सोर्स मल्टी-मोड AI मॉडल परिवार है, जो उत्कृष्ट प्रदर्शन दिखाता है, और कई तीसरे पक्ष के बेंचमार्क परीक्षणों में OpenAI के GPT-4o, Anthropic के Claude3.5Sonnet और गूगल के Gemini1.5 को भी पीछे छोड़ दिया है।

image.png

Molmo केवल उपयोगकर्ताओं द्वारा अपलोड की गई छवियों का विश्लेषण करने में सक्षम नहीं है, बल्कि "प्रतिस्पर्धियों की तुलना में 1000 गुना कम डेटा" का उपयोग करके प्रशिक्षित किया गया है, जो इसकी अनूठी प्रशिक्षण तकनीक के कारण है।

image.png

इस रिलीज ने Ai2 की ओपन रिसर्च के प्रति प्रतिबद्धता को प्रदर्शित किया है, जिसमें उच्च प्रदर्शन वाले मॉडल और ओपन वेट्स और डेटा प्रदान किए गए हैं, ताकि व्यापक समुदाय और व्यवसाय इसका उपयोग कर सकें। Molmo परिवार में चार मुख्य मॉडल शामिल हैं: Molmo-72B, Molmo-7B-D, Molmo-7B-O और MolmoE-1B, जिनमें से Molmo-72B प्रमुख मॉडल है, जिसमें 72 अरब पैरामीटर हैं और यह विशेष रूप से उत्कृष्ट प्रदर्शन करता है।

विभिन्न आकलनों के अनुसार, Molmo-72B ने 11 महत्वपूर्ण बेंचमार्क परीक्षणों में सर्वोच्च स्कोर प्राप्त किया है, और उपयोगकर्ता प्राथमिकताओं के मामले में केवल -4o से पीछे है। Ai2 ने OLMoE के लिए एक मॉडल भी लॉन्च किया है, जो "छोटे मॉडल के संयोजन" के तरीके का उपयोग करता है, जिसका उद्देश्य लागत लाभ को बढ़ाना है।

Molmo की आर्किटेक्चर को कुशलता और उत्कृष्ट प्रदर्शन के लिए सावधानीपूर्वक डिजाइन किया गया है। सभी मॉडल OpenAI के ViT-L/14336px CLIP मॉडल का उपयोग करते हैं, जो दृश्य एनकोडर के रूप में कार्य करता है, और मल्टी-स्केल छवि को दृश्य संकेत में परिवर्तित करता है। भाषा मॉडल भाग एक डिकोडर ट्रांसफार्मर है, जिसमें विभिन्न क्षमता और खुलापन है।

प्रशिक्षण के मामले में, Molmo ने दो चरणों में प्रशिक्षण प्राप्त किया: पहले मल्टी-मोड पूर्व-प्रशिक्षण, और फिर पर्यवेक्षित माइक्रो-ट्यूनिंग। कई आधुनिक मॉडलों के विपरीत, Molmo ने मानव फीडबैक पर सुदृढ़ीकरण शिक्षा पर निर्भर नहीं किया, बल्कि मॉडल पैरामीटर को अपडेट करने के लिए विस्तृत ट्यूनिंग प्रशिक्षण प्रक्रिया का उपयोग किया।

Molmo ने कई बेंचमार्क परीक्षणों में उत्कृष्ट प्रदर्शन किया है, विशेष रूप से दस्तावेज़ पढ़ने और दृश्य तर्क जैसे जटिल कार्यों में, जिसने इसकी शक्तिशाली क्षमताओं को प्रदर्शित किया है। Ai2 ने Hugging Face पर इन मॉडलों और डेटा सेटों को जारी किया है, और अगले कुछ महीनों में और अधिक मॉडल और विस्तारित तकनीकी रिपोर्ट लॉन्च करने की योजना है, जिसका उद्देश्य शोधकर्ताओं को अधिक संसाधन प्रदान करना है।

यदि आप Molmo की क्षमताओं के बारे में जानना चाहते हैं, तो आप अब Molmo की आधिकारिक वेबसाइट पर सार्वजनिक प्रदर्शन के लिए जा सकते हैं (https://molmo.allenai.org/)।

मुख्य बिंदु:

🌟 Ai2Molmo ओपन-सोर्स मोडाल AI मॉडल उद्योग के शीर्ष उत्पादों को पीछे छोड़ देता है।

📊 Mol-72B ने कई बेंचमार्क परीक्षणों में उत्कृष्ट प्रदर्शन किया है, केवल GPT4o से पीछे।

🔍 उच्च खुलापन, मॉडल और डेटा सेट शोधकर्ताओं और स्वतंत्र उपयोग के लिए उपलब्ध हैं।