XVERSE-MoE-A36B
Modèle linguistique large multilingue, prenant en charge la génération de texte dans plusieurs domaines.
Produit OrdinaireProgrammationMultilingueGrand modèle linguistique
XVERSE-MoE-A36B est un modèle linguistique large multilingue développé par Yuanxiang Technology de Shenzhen. Il adopte une architecture de modèle expert mixte (MoE), avec une taille de paramètre totale de 255,4 milliards et 36 milliards de paramètres activés. Ce modèle prend en charge plus de 40 langues, notamment le chinois, l'anglais, le russe et l'espagnol, et excelle particulièrement dans les langues chinoises et anglaises. Entraîné sur des échantillons de 8 000 jetons, il utilise un échantillonnage de données précis et une stratégie de commutation de données dynamique pour garantir une haute qualité et une grande diversité. De plus, le modèle a été optimisé pour l'architecture MoE, améliorant ainsi l'efficacité du calcul et le débit global.
XVERSE-MoE-A36B Dernière situation du trafic
Nombre total de visites mensuelles
474564576
Taux de rebond
36.20%
Nombre moyen de pages par visite
6.1
Durée moyenne de la visite
00:06:34