LongLLaMA

Großes Sprachmodell zur Verarbeitung langer Texte

Normales ProduktProgrammierungSprachmodellNatürliche Sprachverarbeitung
LongLLaMA ist ein großes Sprachmodell, das die Verarbeitung langer Texte ermöglicht. Es basiert auf OpenLLaMA und wurde mit der Focused Transformer (FoT)-Methode feinabgestimmt. Es kann Texte mit bis zu 256.000 Token oder sogar mehr verarbeiten. Wir stellen ein kleineres 3B-Basismodell (ohne Anweisungsanpassung) bereit und bieten auf Hugging Face Code für Inferenz mit längerem Kontext. Unsere Modellgewichte können als Ersatz für LLaMA in bestehenden Implementierungen verwendet werden (für kurze Kontexte mit maximal 2048 Token). Darüber hinaus stellen wir Evaluierungsergebnisse und einen Vergleich mit dem ursprünglichen OpenLLaMA-Modell zur Verfügung.
Website öffnen

LongLLaMA Neueste Verkehrssituation

Monatliche Gesamtbesuche

474564576

Absprungrate

36.20%

Durchschnittliche Seiten pro Besuch

6.1

Durchschnittliche Besuchsdauer

00:06:34

LongLLaMA Besuchstrend

LongLLaMA Geografische Verteilung der Besuche

LongLLaMA Traffic-Quellen

LongLLaMA Alternativen