XVERSE-MoE-A36B

Mehrsprachiges großes Sprachmodell, das die Textgenerierung in verschiedenen Bereichen unterstützt.

Normales ProduktProgrammierungMehrsprachigGroßes Sprachmodell
XVERSE-MoE-A36B ist ein von Shenzhen Yuanxiang Technology selbst entwickeltes mehrsprachiges großes Sprachmodell. Es verwendet eine Mixture-of-Experts-Architektur (MoE) mit einer Gesamtparametergröße von 255,4 Milliarden und 36 Milliarden aktivierten Parametern. Das Modell unterstützt über 40 Sprachen, darunter Chinesisch, Englisch, Russisch und Spanisch, und zeichnet sich insbesondere durch seine hervorragende Leistung in Chinesisch und Englisch aus. Es wurde mit Trainingsbeispielen der Länge 8K trainiert und durch eine fein abgestimmte Datenabtastungsrate und eine dynamische Datenwechselstrategie wird eine hohe Qualität und Diversität des Modells sichergestellt. Darüber hinaus wurde das Modell speziell für die MoE-Architektur optimiert, um die Rechenleistung und den Gesamtdurchsatz zu verbessern.
Website öffnen

XVERSE-MoE-A36B Neueste Verkehrssituation

Monatliche Gesamtbesuche

474564576

Absprungrate

36.20%

Durchschnittliche Seiten pro Besuch

6.1

Durchschnittliche Besuchsdauer

00:06:34

XVERSE-MoE-A36B Besuchstrend

XVERSE-MoE-A36B Geografische Verteilung der Besuche

XVERSE-MoE-A36B Traffic-Quellen

XVERSE-MoE-A36B Alternativen