Mixtral-8x22B
Un gran modelo de lenguaje basado en un modelo de expertos dispersos.
Producto ComúnProgramaciónModelo de lenguajeGeneración de texto
Mixtral-8x22B es un modelo de lenguaje generativo de expertos dispersos preentrenado. Desarrollado por el equipo de Mistral AI, está diseñado para impulsar el desarrollo abierto de la inteligencia artificial. Este modelo cuenta con 141 mil millones de parámetros y admite varias opciones de implementación optimizadas, como precisión media y cuantificación, para satisfacer las necesidades de diferentes escenarios de hardware y aplicaciones. Mixtral-8x22B se puede utilizar en tareas de procesamiento del lenguaje natural como generación de texto, preguntas y respuestas, y traducción.
Mixtral-8x22B Situación del tráfico más reciente
Total de visitas mensuales
29742941
Tasa de rebote
44.20%
Páginas promedio por visita
5.9
Duración promedio de la visita
00:04:44