Aria-Base-64K
Multimodales, natives Mixture-of-Experts-Modell
Normales ProduktProduktivitätMultimodalVerarbeitung langer Texte
Aria-Base-64K ist eines der Basismodelle der Aria-Serie und wurde speziell für Forschungszwecke und Weitertrainierung entwickelt. Das Modell entstand nach einer Vorabtrainierung mit langen Texten und wurde mit 33 Milliarden Tokens trainiert (21 Milliarden multimodal, 12 Milliarden sprachbasiert, 69 % lange Texte). Es eignet sich für die Weitertrainierung oder Feinabstimmung mit Datensätzen für die Beantwortung von Fragen zu langen Videos oder langen Dokumenten. Selbst mit begrenzten Ressourcen ist ein Nachtraining mit einem Datensatz für kurze Anweisungen und die Übertragung auf Szenarien mit langen Texten und Fragen möglich. Das Modell versteht bis zu 250 hochauflösende oder bis zu 500 mittelgroße Bilder und behält dabei eine starke Basisleistung in sprachlichen und multimodalen Szenarien.
Aria-Base-64K Neueste Verkehrssituation
Monatliche Gesamtbesuche
29742941
Absprungrate
44.20%
Durchschnittliche Seiten pro Besuch
5.9
Durchschnittliche Besuchsdauer
00:04:44