YuLan-Mini
Ein hoch effizientes, leichtgewichtiges Sprachmodell mit 240 Millionen Parametern
Normales ProduktProgrammierungSprachmodellNatürliche Sprachverarbeitung
YuLan-Mini ist ein leichtgewichtiges Sprachmodell des AI Box-Teams der Renmin-Universität China mit 240 Millionen Parametern. Trotz der Verwendung von lediglich 1,08 TB an Trainingsdaten erreicht es eine Leistung, die mit branchenführenden Modellen mithalten kann, die mit deutlich mehr Daten trainiert wurden. Das Modell ist besonders gut in Mathematik und Programmierung. Um die Reproduzierbarkeit zu fördern, stellt das Team die relevanten Trainingsressourcen Open Source zur Verfügung.
YuLan-Mini Neueste Verkehrssituation
Monatliche Gesamtbesuche
474564576
Absprungrate
36.20%
Durchschnittliche Seiten pro Besuch
6.1
Durchschnittliche Besuchsdauer
00:06:34