MoE 8x7B
Nuevo modelo base de 8x7B expertos mixtos (MoE) de MistralAI para generación de texto.
Producto ComúnEscrituraGeneración de textoExpertos mixtos
Nuevo modelo base de 8x7B expertos mixtos (MoE) de MistralAI para generación de texto. Este modelo utiliza una arquitectura de expertos mixtos para generar texto de alta calidad. Sus ventajas incluyen la generación de texto de alta calidad aplicable a diversas tareas de generación de texto. El precio se determina según el uso; consulte el sitio web oficial para obtener más detalles. Su objetivo es resolver problemas en tareas de generación de texto.
MoE 8x7B Situación del tráfico más reciente
Total de visitas mensuales
1545596
Tasa de rebote
34.62%
Páginas promedio por visita
7.0
Duración promedio de la visita
00:06:23