Yuan2-M32-hf-int4

Hochleistungsfähiges Mixed-Expert-Sprachmodell

Normales ProduktProgrammierungMixed-ExpertAufmerksamkeitsrouter
Yuan2.0-M32 ist ein Mixed-Expert (MoE)-Sprachmodell mit 32 Experten, von denen 2 aktiv sind. Es wurde ein neues Routing-Netzwerk – der Aufmerksamkeitsrouter – eingeführt, um die Effizienz der Expertenauswahl zu verbessern und die Genauigkeit des Modells im Vergleich zu Modellen mit traditionellen Routing-Netzwerken um 3,8 % zu steigern. Yuan2.0-M32 wurde von Grund auf neu trainiert und verwendet 200 Billionen Token. Der Trainingsaufwand beträgt nur 9,25 % des Aufwands eines dichten Modells mit vergleichbarer Parametergröße. Es zeigt Wettbewerbsfähigkeit in den Bereichen Codierung, Mathematik und verschiedenen Fachgebieten. Bei insgesamt 4 Milliarden Parametern verfügt Yuan2.0-M32 über lediglich 370 Millionen aktive Parameter. Der Vorwärtsrechnungsaufwand pro Token beträgt 7,4 GFLOPS, nur 1/19 des Bedarfs von Llama3-70B. Yuan2.0-M32 übertrifft Llama3-70B in den Benchmark-Tests MATH und ARC-Challenge mit Genauigkeiten von 55,9 % bzw. 95,8 %.
Website öffnen

Yuan2-M32-hf-int4 Neueste Verkehrssituation

Monatliche Gesamtbesuche

29742941

Absprungrate

44.20%

Durchschnittliche Seiten pro Besuch

5.9

Durchschnittliche Besuchsdauer

00:04:44

Yuan2-M32-hf-int4 Besuchstrend

Yuan2-M32-hf-int4 Geografische Verteilung der Besuche

Yuan2-M32-hf-int4 Traffic-Quellen

Yuan2-M32-hf-int4 Alternativen