MiniMax-01

Leistungsstarkes Sprachmodell mit 4560 Milliarden Parametern, das Kontexte mit bis zu 4 Millionen Token verarbeiten kann.

Normales ProduktProgrammierungKünstliche IntelligenzSprachmodell
MiniMax-01 ist ein leistungsstarkes Sprachmodell mit 4560 Milliarden Parametern, wobei jeder Token 45,9 Milliarden Parameter aktiviert. Es verwendet eine hybride Architektur, die Flash-Attention, Softmax-Attention und Mixture of Experts (MoE) kombiniert. Durch fortschrittliche Parallelisierungsstrategien und innovative Methoden zur Überlappung von Berechnung und Kommunikation, wie z. B. Linear Attention Sequence Parallelism Plus (LASP+), Varlen-Ring-Attention und Expert Tensor Parallelism (ETP), wurde die Länge des Trainingskontexts auf 1 Million Token erweitert, während im Inferenzmodus Kontexte mit bis zu 4 Millionen Token verarbeitet werden können. In mehreren akademischen Benchmark-Tests hat MiniMax-01 die Leistung von Top-Modellen gezeigt.
Website öffnen

MiniMax-01 Neueste Verkehrssituation

Monatliche Gesamtbesuche

474564576

Absprungrate

36.20%

Durchschnittliche Seiten pro Besuch

6.1

Durchschnittliche Besuchsdauer

00:06:34

MiniMax-01 Besuchstrend

MiniMax-01 Geografische Verteilung der Besuche

MiniMax-01 Traffic-Quellen

MiniMax-01 Alternativen