Yuan2.0-M32-hf-int8

Modèle linguistique expert mixte haute performance

Produit OrdinaireProgrammationModèle expert mixteRouteur d'attention
Yuan2.0-M32-hf-int8 est un modèle linguistique expert mixte (MoE) doté de 32 experts, dont 2 sont actifs simultanément. Ce modèle améliore l'efficacité de la sélection des experts grâce à un nouveau réseau de routage : le routeur d'attention. Cela permet d'obtenir une précision supérieure de 3,8 % par rapport aux modèles utilisant un réseau de routage traditionnel. Yuan2.0-M32 a été entraîné à partir de zéro sur 200 milliards de jetons, avec un coût de calcul représentant seulement 9,25 % de celui d'un modèle dense de taille de paramètres équivalente. Ce modèle fait preuve de compétitivité dans les domaines de la programmation, des mathématiques et divers domaines spécialisés. Il n'utilise que 3,7 milliards de paramètres actifs (sur un total de 4 milliards), et son calcul en avant par jeton n'est que de 7,4 GFLOPS, soit 1/19e des besoins de Llama3-70B. Yuan2.0-M32 surpasse Llama3-70B sur les benchmarks MATH et ARC-Challenge, atteignant respectivement des précisions de 55,9 % et 95,8 %.
Ouvrir le site Web

Yuan2.0-M32-hf-int8 Dernière situation du trafic

Nombre total de visites mensuelles

29742941

Taux de rebond

44.20%

Nombre moyen de pages par visite

5.9

Durée moyenne de la visite

00:04:44

Yuan2.0-M32-hf-int8 Tendance des visites

Yuan2.0-M32-hf-int8 Distribution géographique des visites

Yuan2.0-M32-hf-int8 Sources de trafic

Yuan2.0-M32-hf-int8 Alternatives