MoE 8x7B
Nouveau modèle de base 8x7B à experts mixtes (MoE) de MistralAI pour la génération de texte.
Produit OrdinaireÉcritureGénération de texteExperts mixtes
Nouveau modèle de base 8x7B à experts mixtes (MoE) de MistralAI, conçu pour la génération de texte. Ce modèle utilise une architecture à experts mixtes pour produire des textes de haute qualité. Ses avantages résident dans sa capacité à générer des textes de haute qualité, adaptés à diverses tâches de génération de texte. La tarification est à l'usage et peut être consultée sur le site officiel. Ce modèle vise à résoudre les problèmes liés aux tâches de génération de texte.
MoE 8x7B Dernière situation du trafic
Nombre total de visites mensuelles
1545596
Taux de rebond
34.62%
Nombre moyen de pages par visite
7.0
Durée moyenne de la visite
00:06:23