MiniMax veröffentlicht abab6

MiniMax hat am 16. Januar 2024 das erste chinesische MoE-Sprachmodell, abab6, veröffentlicht. Dieses Modell nutzt eine MoE-Architektur (Mixture of Experts), die es ihm ermöglicht, komplexe Aufgaben zu bewältigen und in der gleichen Zeitspanne mehr Daten zu verarbeiten.

Tests zeigen, dass abab6 die Vorgängerversion abab5.5 in Bezug auf Anweisungsbefolgung, allgemeine chinesische und englische Sprachkompetenz übertrifft und auch andere große Sprachmodelle wie GPT-3.5 überholt. abab6 demonstriert beeindruckende Fähigkeiten, wie zum Beispiel das Erklären von Mathematikaufgaben für Kinder und die Unterstützung beim Entwickeln eines fiktiven Brettspiels über Shanghai.

Als erstes chinesisches MoE-Sprachmodell zeichnet sich abab6 durch seine hervorragende Leistung bei komplexen Aufgaben aus.