XVERSE-MoE-A36B

Modelo de lenguaje grande multilingüe, compatible con la generación de texto en múltiples dominios.

Producto ComúnProgramaciónMultilingüeModelo de lenguaje grande
XVERSE-MoE-A36B es un modelo de lenguaje grande multilingüe desarrollado de forma independiente por Shenzhen Yuanxiang Technology. Emplea una arquitectura de modelo de experto mixto (MoE), con un tamaño total de parámetros de 255.400 millones y 36.000 millones de parámetros activos. Este modelo admite más de 40 idiomas, incluyendo chino, inglés, ruso y español, y destaca especialmente en el bilingüismo chino-inglés. El modelo utiliza muestras de entrenamiento de 8K de longitud y, mediante una proporción de muestreo de datos refinada y una estrategia de conmutación de datos dinámica, garantiza la alta calidad y diversidad del modelo. Además, el modelo se ha optimizado a medida para la arquitectura MoE, mejorando la eficiencia computacional y el rendimiento general.
Abrir sitio web

XVERSE-MoE-A36B Situación del tráfico más reciente

Total de visitas mensuales

474564576

Tasa de rebote

36.20%

Páginas promedio por visita

6.1

Duración promedio de la visita

00:06:34

XVERSE-MoE-A36B Tendencia de visitas

XVERSE-MoE-A36B Distribución geográfica de las visitas

XVERSE-MoE-A36B Fuentes de tráfico

XVERSE-MoE-A36B Alternativas