MiniMax a lancé le 16 janvier 2024 abab6, le premier grand modèle linguistique MoE (Mixture of Experts) développé en Chine. Ce modèle, basé sur une architecture MoE, est capable de gérer des tâches complexes et d'entraîner un volume de données plus important par unité de temps.
Les résultats des évaluations montrent qu'abab6 surpasse son prédécesseur, abab5.5, en matière d'obéissance aux instructions, de compréhension du chinois et de l'anglais. Il dépasse également d'autres grands modèles linguistiques tels que GPT-3.5.
abab6 a démontré des capacités remarquables, notamment en expliquant des problèmes de mathématiques aux enfants et en aidant à concevoir un jeu de société fictif sur Shanghai. En tant que premier grand modèle linguistique MoE chinois, abab6 excelle dans le traitement des tâches complexes.