Mixtral-8x22B
Un grand modèle linguistique basé sur un modèle d'experts clairsemés
Produit OrdinaireProgrammationModèle linguistiqueGénération de texte
Mixtral-8x22B est un modèle linguistique génératif pré-entraîné et basé sur des experts clairsemés. Développé par l'équipe Mistral AI, il vise à promouvoir le développement ouvert de l'intelligence artificielle. Ce modèle compte 141 milliards de paramètres et supporte plusieurs méthodes d'optimisation du déploiement, telles que la demi-précision et la quantification, afin de répondre aux besoins de différents matériels et scénarios d'application. Mixtral-8x22B peut être utilisé pour des tâches de traitement du langage naturel telles que la génération de texte, la question-réponse et la traduction.
Mixtral-8x22B Dernière situation du trafic
Nombre total de visites mensuelles
29742941
Taux de rebond
44.20%
Nombre moyen de pages par visite
5.9
Durée moyenne de la visite
00:04:44