MAP-NEO

Ein vollständig quelloffenes großes Sprachmodell, das fortschrittliche Fähigkeiten in der Verarbeitung natürlicher Sprache bietet.

Normales ProduktProgrammierungVerarbeitung natürlicher SpracheOpen Source
MAP-NEO ist ein vollständig quelloffenes großes Sprachmodell, das vortrainierte Daten, eine Datenverarbeitungs-Pipeline (Matrix), Vortrainings-Skripte und Alignment-Code umfasst. Das Modell wurde von Grund auf neu trainiert und verwendet 4,5 Billionen englische und chinesische Token. Es zeigt eine vergleichbare Leistung zu LLaMA2 7B. MAP-NEO zeichnet sich in herausfordernden Aufgaben wie Inferenz, Mathematik und Codierung aus und übertrifft Modelle vergleichbarer Größe. Im Interesse der Forschung setzen wir uns für vollständige Transparenz im LLM-Trainingsprozess ein und veröffentlichen daher MAP-NEO umfassend, einschließlich finaler und intermediärer Checkpoints, eines selbsttrainierten Tokenizers, des vortrainierten Korpus und einer effizienten und stabilen optimierten Vortrainings-Codebasis.
Website öffnen

MAP-NEO Neueste Verkehrssituation

Monatliche Gesamtbesuche

474564576

Absprungrate

36.20%

Durchschnittliche Seiten pro Besuch

6.1

Durchschnittliche Besuchsdauer

00:06:34

MAP-NEO Besuchstrend

MAP-NEO Geografische Verteilung der Besuche

MAP-NEO Traffic-Quellen

MAP-NEO Alternativen