Aria-Base-64K

Multimodales, natives Mixture-of-Experts-Modell

Normales ProduktProduktivitätMultimodalVerarbeitung langer Texte
Aria-Base-64K ist eines der Basismodelle der Aria-Serie und wurde speziell für Forschungszwecke und Weitertrainierung entwickelt. Das Modell entstand nach einer Vorabtrainierung mit langen Texten und wurde mit 33 Milliarden Tokens trainiert (21 Milliarden multimodal, 12 Milliarden sprachbasiert, 69 % lange Texte). Es eignet sich für die Weitertrainierung oder Feinabstimmung mit Datensätzen für die Beantwortung von Fragen zu langen Videos oder langen Dokumenten. Selbst mit begrenzten Ressourcen ist ein Nachtraining mit einem Datensatz für kurze Anweisungen und die Übertragung auf Szenarien mit langen Texten und Fragen möglich. Das Modell versteht bis zu 250 hochauflösende oder bis zu 500 mittelgroße Bilder und behält dabei eine starke Basisleistung in sprachlichen und multimodalen Szenarien.
Website öffnen

Aria-Base-64K Neueste Verkehrssituation

Monatliche Gesamtbesuche

29742941

Absprungrate

44.20%

Durchschnittliche Seiten pro Besuch

5.9

Durchschnittliche Besuchsdauer

00:04:44

Aria-Base-64K Besuchstrend

Aria-Base-64K Geografische Verteilung der Besuche

Aria-Base-64K Traffic-Quellen

Aria-Base-64K Alternativen