Yuan2-M32-hf-int4

Modelo de lenguaje de experto mixto de alto rendimiento

Producto ComúnProgramaciónExperto MixtoEnrutador de Atención
Yuan2.0-M32 es un modelo de lenguaje de experto mixto (MoE) con 32 expertos, de los cuales 2 están activos. Se ha introducido una nueva red de enrutamiento, el enrutador de atención, para mejorar la eficiencia de la selección de expertos, lo que permite que el modelo mejore la precisión en un 3,8% en comparación con los modelos que utilizan redes de enrutamiento tradicionales. Yuan2.0-M32 se entrenó desde cero utilizando 200 mil millones de tokens, con un coste computacional de entrenamiento que representa solo el 9,25% del requerido por un modelo denso de igual escala de parámetros. Demuestra competitividad en codificación, matemáticas y diversas áreas especializadas. Yuan2.0-M32, con un total de 4 mil millones de parámetros, solo tiene 370 millones de parámetros activos, con un coste computacional de avance de 7,4 GFLOPS por token, apenas 1/19 de la demanda de Llama3-70B. Yuan2.0-M32 supera a Llama3-70B en los benchmarks MATH y ARC-Challenge, alcanzando una precisión del 55,9% y el 95,8%, respectivamente.
Abrir sitio web

Yuan2-M32-hf-int4 Situación del tráfico más reciente

Total de visitas mensuales

29742941

Tasa de rebote

44.20%

Páginas promedio por visita

5.9

Duración promedio de la visita

00:04:44

Yuan2-M32-hf-int4 Tendencia de visitas

Yuan2-M32-hf-int4 Distribución geográfica de las visitas

Yuan2-M32-hf-int4 Fuentes de tráfico

Yuan2-M32-hf-int4 Alternativas