MiniMax 于 2024 年 1 月 16 日发布了国内首个 MoE 大语言模型 abab6,该模型采用 MoE 架构,具备处理复杂任务的能力,并且在单位时间内能够训练更多的数据。评测结果显示,abab6 在指令遵从、中文综合能力和英文综合能力上优于之前的版本 abab5.5,并超过了其他大语言模型如 GPT-3.5。abab6 展现了出色的能力,例如教授儿童数学题目和帮助构建关于上海的虚构桌游。作为国内首个 MoE 大语言模型,abab6 在处理复杂任务方面表现出色。