Mixtral-8x22B

Un gran modelo de lenguaje basado en un modelo de expertos dispersos.

Producto ComúnProgramaciónModelo de lenguajeGeneración de texto
Mixtral-8x22B es un modelo de lenguaje generativo de expertos dispersos preentrenado. Desarrollado por el equipo de Mistral AI, está diseñado para impulsar el desarrollo abierto de la inteligencia artificial. Este modelo cuenta con 141 mil millones de parámetros y admite varias opciones de implementación optimizadas, como precisión media y cuantificación, para satisfacer las necesidades de diferentes escenarios de hardware y aplicaciones. Mixtral-8x22B se puede utilizar en tareas de procesamiento del lenguaje natural como generación de texto, preguntas y respuestas, y traducción.
Abrir sitio web

Mixtral-8x22B Situación del tráfico más reciente

Total de visitas mensuales

29742941

Tasa de rebote

44.20%

Páginas promedio por visita

5.9

Duración promedio de la visita

00:04:44

Mixtral-8x22B Tendencia de visitas

Mixtral-8x22B Distribución geográfica de las visitas

Mixtral-8x22B Fuentes de tráfico

Mixtral-8x22B Alternativas