Yuan2.0-M32

Modèle linguistique performant à routage d'attention expert mixte

Produit OrdinaireProgrammationExperts mixtesRoutage par attention
Yuan2.0-M32 est un modèle linguistique à experts mixtes (MoE) doté de 32 experts, dont 2 actifs. Il introduit un nouveau réseau de routage – le routage par attention – pour une sélection d'experts plus efficace, améliorant ainsi la précision de 3,8 %. Entraîné à partir de zéro sur 2000 milliards de jetons, son coût de calcul est seulement de 9,25 % de celui d'un modèle dense de taille de paramètres équivalente. Il affiche des performances compétitives en codage, en mathématiques et dans divers domaines spécialisés, n'utilisant que 3,7 milliards de paramètres actifs, avec un calcul en passage direct par jeton de seulement 7,4 GFLOPS, soit 1/19ème des besoins de Llama3-70B. Il surpasse Llama3-70B sur les benchmarks MATH et ARC-Challenge, atteignant des précisions de 55,9 % et 95,8 % respectivement.
Ouvrir le site Web

Yuan2.0-M32 Dernière situation du trafic

Nombre total de visites mensuelles

29742941

Taux de rebond

44.20%

Nombre moyen de pages par visite

5.9

Durée moyenne de la visite

00:04:44

Yuan2.0-M32 Tendance des visites

Yuan2.0-M32 Distribution géographique des visites

Yuan2.0-M32 Sources de trafic

Yuan2.0-M32 Alternatives