Qwen1.5-110B

Premier modèle open source de la série Qwen1.5 avec 110 milliards de paramètres, prenant en charge plusieurs langues et doté d'une architecture de décodeur Transformer efficace.

Sélection NationaleProductivitéIntelligence artificielleMachine learning
Qwen1.5-110B est le modèle le plus grand de la série Qwen1.5, avec 110 milliards de paramètres. Il prend en charge plusieurs langues, utilise une architecture de décodeur Transformer efficace, et intègre l'attention de requête groupée (GQA) pour une inférence plus rapide. Ses performances dans les évaluations de capacités de base sont comparables à celles de Meta-Llama3-70B, et il excelle dans les évaluations de chat, notamment MT-Bench et AlpacaEval 2.0. La publication de ce modèle démontre un potentiel énorme en matière d'extensibilité des modèles et laisse présager des améliorations de performance significatives grâce à l'augmentation des données et de la taille du modèle.
Ouvrir le site Web

Qwen1.5-110B Dernière situation du trafic

Nombre total de visites mensuelles

4314278

Taux de rebond

68.45%

Nombre moyen de pages par visite

1.7

Durée moyenne de la visite

00:01:08

Qwen1.5-110B Tendance des visites

Qwen1.5-110B Distribution géographique des visites

Qwen1.5-110B Sources de trafic

Qwen1.5-110B Alternatives