abab6:国内初のMoE大規模言語モデル

MiniMaxは2024年1月16日、国内初のMoE大規模言語モデル「abab6」を発表しました。このモデルはMoEアーキテクチャを採用しており、複雑なタスクの処理能力を備えています。また、単位時間あたりのデータ学習量も増加しています。

評価結果によると、abab6は命令遵守、中国語総合能力、英語総合能力において、以前のバージョンであるabab5.5を上回り、GPT-3.5などの他の大規模言語モデルをも凌駕しています。

abab6は、子供向けの算数の問題を教えたり、上海をテーマにした架空のボードゲームの構築を支援したりするなど、優れた能力を示しています。国内初のMoE大規模言語モデルとして、複雑なタスク処理において高いパフォーマンスを発揮しています。