Qwen1.5-110B

Primer modelo de lenguaje abierto de la serie Qwen1.5 con 110 mil millones de parámetros, compatible con múltiples idiomas y con una arquitectura de decodificador Transformer eficiente.

Selección NacionalProductividadInteligencia artificialAprendizaje automático
Qwen1.5-110B es el modelo más grande de la serie Qwen1.5, con 110 mil millones de parámetros. Admite múltiples idiomas, emplea una arquitectura de decodificador Transformer eficiente e incluye atención de consulta agrupada (GQA), lo que lo hace más eficiente en la inferencia del modelo. En las evaluaciones de capacidades básicas, se compara con Meta-Llama3-70B, y destaca en las evaluaciones de chat, incluyendo MT-Bench y AlpacaEval 2.0. El lanzamiento de este modelo muestra un enorme potencial en la escalabilidad del tamaño del modelo y presagia mejoras de rendimiento aún mayores mediante la ampliación de los datos y el tamaño del modelo en el futuro.
Abrir sitio web

Qwen1.5-110B Situación del tráfico más reciente

Total de visitas mensuales

4314278

Tasa de rebote

68.45%

Páginas promedio por visita

1.7

Duración promedio de la visita

00:01:08

Qwen1.5-110B Tendencia de visitas

Qwen1.5-110B Distribución geográfica de las visitas

Qwen1.5-110B Fuentes de tráfico

Qwen1.5-110B Alternativas