XVERSE-MoE-A36B

बहुभाषीय बड़ा भाषा मॉडल, जो कई क्षेत्रों में पाठ निर्माण का समर्थन करता है।

सामान्य उत्पादप्रोग्रामिंगबहुभाषीयबड़ा भाषा मॉडल
XVERSE-MoE-A36B, शेन्ज़ेन युआनज़ियांग टेक्नोलॉजी द्वारा स्वतंत्र रूप से विकसित बहुभाषीय बड़ा भाषा मॉडल है, जो मिश्रित विशेषज्ञ मॉडल (MoE) संरचना को अपनाता है, जिसमें 255.4 अरब कुल पैरामीटर स्केल और 36 अरब सक्रिय पैरामीटर हैं। यह मॉडल चीनी, अंग्रेजी, रूसी, स्पेनिश सहित 40 से अधिक भाषाओं का समर्थन करता है, विशेष रूप से चीनी और अंग्रेजी द्विभाषी में उत्कृष्ट प्रदर्शन करता है। मॉडल 8K लंबाई के प्रशिक्षण नमूनों का उपयोग करता है, और उच्च गुणवत्ता और विविधता सुनिश्चित करने के लिए परिष्कृत डेटा नमूनाकरण अनुपात और गतिशील डेटा स्विचिंग रणनीति का उपयोग करता है। इसके अलावा, मॉडल ने MoE संरचना के लिए अनुकूलित अनुकूलन किया है, जिससे गणना दक्षता और समग्र थ्रूपुट में सुधार हुआ है।
वेबसाइट खोलें

XVERSE-MoE-A36B नवीनतम ट्रैफ़िक स्थिति

मासिक कुल विज़िट

474564576

बाउंस दर

36.20%

प्रति विज़िट औसत पृष्ठ

6.1

औसत विज़िट अवधि

00:06:34

XVERSE-MoE-A36B विज़िट प्रवृत्ति

XVERSE-MoE-A36B विज़िट भौगोलिक वितरण

XVERSE-MoE-A36B ट्रैफ़िक स्रोत

XVERSE-MoE-A36B विकल्प