Infini-attention
Erweiterung von Transformer-Modellen zur Verarbeitung beliebig langer Eingaben
Normales ProduktAndereTransformerGroßes Sprachmodell
Die von Google entwickelte „Infini-attention“-Technologie zielt darauf ab, große, auf Transformatoren basierende Sprachmodelle zu erweitern, um beliebig lange Eingaben zu verarbeiten. Dies wird durch einen Kompressionsmechanismus für das Gedächtnis erreicht, der eine Verarbeitung beliebig langer Eingaben ermöglicht und in mehreren Aufgaben mit langen Sequenzen hervorragende Ergebnisse erzielt. Die technischen Methoden umfassen einen Kompressionsmechanismus für das Gedächtnis, die Kombination aus lokaler und langfristiger Aufmerksamkeit und die Fähigkeit zur Stream-Verarbeitung. Die Ergebnisse zeigen Leistungsvorteile bei Aufgaben wie der Sprachmodellierung langer Kontexte, der Suche nach Schlüsselkontextblöcken und der Erstellung von Textzusammenfassungen.
Infini-attention Neueste Verkehrssituation
Monatliche Gesamtbesuche
20415616
Absprungrate
44.33%
Durchschnittliche Seiten pro Besuch
3.1
Durchschnittliche Besuchsdauer
00:04:06