Qwen1.5-110B
Primer modelo de lenguaje abierto de la serie Qwen1.5 con 110 mil millones de parámetros, compatible con múltiples idiomas y con una arquitectura de decodificador Transformer eficiente.
Selección NacionalProductividadInteligencia artificialAprendizaje automático
Qwen1.5-110B es el modelo más grande de la serie Qwen1.5, con 110 mil millones de parámetros. Admite múltiples idiomas, emplea una arquitectura de decodificador Transformer eficiente e incluye atención de consulta agrupada (GQA), lo que lo hace más eficiente en la inferencia del modelo. En las evaluaciones de capacidades básicas, se compara con Meta-Llama3-70B, y destaca en las evaluaciones de chat, incluyendo MT-Bench y AlpacaEval 2.0. El lanzamiento de este modelo muestra un enorme potencial en la escalabilidad del tamaño del modelo y presagia mejoras de rendimiento aún mayores mediante la ampliación de los datos y el tamaño del modelo en el futuro.
Qwen1.5-110B Situación del tráfico más reciente
Total de visitas mensuales
4314278
Tasa de rebote
68.45%
Páginas promedio por visita
1.7
Duración promedio de la visita
00:01:08