深圳元象信息科技有限公司 हाल ही में घोषणा की है कि कंपनी ने चीन का सबसे बड़ा Mixture of Experts (MoE) ओपन-सोर्स बड़े मॉडल - XVERSE-MoE-A36B सफलतापूर्वक जारी किया है। इस मॉडल का विमोचन चीन के AI क्षेत्र में एक बड़ी प्रगति का प्रतीक है, जो देशी ओपन-सोर्स तकनीक को अंतरराष्ट्रीय स्तर पर अग्रणी बनाता है।

XVERSE-MoE-A36B मॉडल में 255B का कुल पैरामीटर और 36B का सक्रिय पैरामीटर है, जिसकी प्रदर्शन क्षमता 100B पैरामीटर से अधिक के बड़े मॉडल के बराबर है, जिससे प्रदर्शन में एक नई छलांग संभव हुई है। इस मॉडल के प्रशिक्षण समय में 30% की कमी आई है, और अनुमानित प्रदर्शन में 100% की वृद्धि हुई है, जिससे प्रति टोकन की लागत में बड़ी कमी आई है, जिससे AI अनुप्रयोगों की कम लागत में तैनाती संभव हो गई है।

微信截图_20240913110614.png

元象XVERSE की "उच्च प्रदर्शन पारिवारिक पैकेज" श्रृंखला के मॉडल पूरी तरह से ओपन-सोर्स हैं, जो व्यावसायिक उपयोग के लिए बिना किसी शर्त के मुफ्त में उपलब्ध हैं, जिससे कई छोटे और मध्यम उद्यमों, शोधकर्ताओं और डेवलपर्स को अधिक विकल्प मिलते हैं। MoE आर्किटेक्चर कई विशिष्ट क्षेत्रों के विशेषज्ञ मॉडलों को संयोजित करके पारंपरिक विस्तार नियमों की सीमाओं को तोड़ता है, मॉडल के आकार को बढ़ाने के साथ-साथ प्रदर्शन को अधिकतम बनाए रखते हुए, प्रशिक्षण और अनुमान के गणना लागत को कम करता है।

कई प्राधिकृत परीक्षणों में, 元象 MoE का प्रदर्शन कई समान मॉडल से काफी बेहतर रहा है, जिसमें देश में 100 अरब MoE मॉडल Skywork-MoE, पारंपरिक MoE का प्रमुख Mixtral-8x22B, और 3140 अरब पैरामीटर का ओपन-सोर्स MoE मॉडल Grok-1-A86B शामिल हैं।

बड़े मॉडल को मुफ्त में डाउनलोड करें

  • Hugging Face: https://huggingface.co/xverse/XVERSE-MoE-A36B

  • 魔搭: https://modelscope.cn/models/xverse/XVERSE-MoE-A36B

  • Github: https://github.com/xverse-ai/XVERSE-MoE-A36B

  • संपर्क: opensource@xverse.cn

  • वेबसाइट: chat.xverse.cn