MoE 8x7B

Nuevo modelo base de 8x7B expertos mixtos (MoE) de MistralAI para generación de texto.

Producto ComúnEscrituraGeneración de textoExpertos mixtos
Nuevo modelo base de 8x7B expertos mixtos (MoE) de MistralAI para generación de texto. Este modelo utiliza una arquitectura de expertos mixtos para generar texto de alta calidad. Sus ventajas incluyen la generación de texto de alta calidad aplicable a diversas tareas de generación de texto. El precio se determina según el uso; consulte el sitio web oficial para obtener más detalles. Su objetivo es resolver problemas en tareas de generación de texto.
Abrir sitio web

MoE 8x7B Situación del tráfico más reciente

Total de visitas mensuales

1545596

Tasa de rebote

34.62%

Páginas promedio por visita

7.0

Duración promedio de la visita

00:06:23

MoE 8x7B Tendencia de visitas

MoE 8x7B Distribución geográfica de las visitas

MoE 8x7B Fuentes de tráfico

MoE 8x7B Alternativas