Qwen1.5-MoE-A2.7B

बड़े पैमाने पर MoE भाषा मॉडल, प्रदर्शन साठ करोड़ पैरामीटर मॉडल के बराबर है

संपादक की सिफारिशप्रोग्रामिंगप्राकृतिक भाषा प्रसंस्करणबड़ा मॉडल
Qwen1.5-MoE-A2.7B एक बड़ा MoE (Mixture of Experts) भाषा मॉडल है, जिसमें केवल 27 करोड़ सक्रिय पैरामीटर हैं, लेकिन इसका प्रदर्शन 70 करोड़ पैरामीटर वाले मॉडल के बराबर है। पारंपरिक बड़े मॉडल की तुलना में, इस मॉडल की प्रशिक्षण लागत 75% कम है, और अनुमान गति 1.74 गुना अधिक है। इसमें एक विशेष MoE आर्किटेक्चर डिज़ाइन है, जिसमें सूक्ष्म विशेषज्ञ, नई इनिशियलाइज़ेशन विधि और रूटिंग तंत्र शामिल हैं, जिससे मॉडल की दक्षता में काफी सुधार हुआ है। इस मॉडल का उपयोग प्राकृतिक भाषा प्रसंस्करण, कोड जेनरेशन जैसे कई कार्यों के लिए किया जा सकता है।
वेबसाइट खोलें

Qwen1.5-MoE-A2.7B नवीनतम ट्रैफ़िक स्थिति

मासिक कुल विज़िट

4314278

बाउंस दर

68.45%

प्रति विज़िट औसत पृष्ठ

1.7

औसत विज़िट अवधि

00:01:08

Qwen1.5-MoE-A2.7B विज़िट प्रवृत्ति

Qwen1.5-MoE-A2.7B विज़िट भौगोलिक वितरण

Qwen1.5-MoE-A2.7B ट्रैफ़िक स्रोत

Qwen1.5-MoE-A2.7B विकल्प