Qwen1.5-MoE-A2.7B
बड़े पैमाने पर MoE भाषा मॉडल, प्रदर्शन साठ करोड़ पैरामीटर मॉडल के बराबर है
संपादक की सिफारिशप्रोग्रामिंगप्राकृतिक भाषा प्रसंस्करणबड़ा मॉडल
Qwen1.5-MoE-A2.7B एक बड़ा MoE (Mixture of Experts) भाषा मॉडल है, जिसमें केवल 27 करोड़ सक्रिय पैरामीटर हैं, लेकिन इसका प्रदर्शन 70 करोड़ पैरामीटर वाले मॉडल के बराबर है। पारंपरिक बड़े मॉडल की तुलना में, इस मॉडल की प्रशिक्षण लागत 75% कम है, और अनुमान गति 1.74 गुना अधिक है। इसमें एक विशेष MoE आर्किटेक्चर डिज़ाइन है, जिसमें सूक्ष्म विशेषज्ञ, नई इनिशियलाइज़ेशन विधि और रूटिंग तंत्र शामिल हैं, जिससे मॉडल की दक्षता में काफी सुधार हुआ है। इस मॉडल का उपयोग प्राकृतिक भाषा प्रसंस्करण, कोड जेनरेशन जैसे कई कार्यों के लिए किया जा सकता है।
Qwen1.5-MoE-A2.7B नवीनतम ट्रैफ़िक स्थिति
मासिक कुल विज़िट
4314278
बाउंस दर
68.45%
प्रति विज़िट औसत पृष्ठ
1.7
औसत विज़िट अवधि
00:01:08