Qwen1.5-110B
Premier modèle open source de la série Qwen1.5 avec 110 milliards de paramètres, prenant en charge plusieurs langues et doté d'une architecture de décodeur Transformer efficace.
Sélection NationaleProductivitéIntelligence artificielleMachine learning
Qwen1.5-110B est le modèle le plus grand de la série Qwen1.5, avec 110 milliards de paramètres. Il prend en charge plusieurs langues, utilise une architecture de décodeur Transformer efficace, et intègre l'attention de requête groupée (GQA) pour une inférence plus rapide. Ses performances dans les évaluations de capacités de base sont comparables à celles de Meta-Llama3-70B, et il excelle dans les évaluations de chat, notamment MT-Bench et AlpacaEval 2.0. La publication de ce modèle démontre un potentiel énorme en matière d'extensibilité des modèles et laisse présager des améliorations de performance significatives grâce à l'augmentation des données et de la taille du modèle.
Qwen1.5-110B Dernière situation du trafic
Nombre total de visites mensuelles
4314278
Taux de rebond
68.45%
Nombre moyen de pages par visite
1.7
Durée moyenne de la visite
00:01:08