Infini-attention

Erweiterung von Transformer-Modellen zur Verarbeitung beliebig langer Eingaben

Normales ProduktAndereTransformerGroßes Sprachmodell
Die von Google entwickelte „Infini-attention“-Technologie zielt darauf ab, große, auf Transformatoren basierende Sprachmodelle zu erweitern, um beliebig lange Eingaben zu verarbeiten. Dies wird durch einen Kompressionsmechanismus für das Gedächtnis erreicht, der eine Verarbeitung beliebig langer Eingaben ermöglicht und in mehreren Aufgaben mit langen Sequenzen hervorragende Ergebnisse erzielt. Die technischen Methoden umfassen einen Kompressionsmechanismus für das Gedächtnis, die Kombination aus lokaler und langfristiger Aufmerksamkeit und die Fähigkeit zur Stream-Verarbeitung. Die Ergebnisse zeigen Leistungsvorteile bei Aufgaben wie der Sprachmodellierung langer Kontexte, der Suche nach Schlüsselkontextblöcken und der Erstellung von Textzusammenfassungen.
Website öffnen

Infini-attention Neueste Verkehrssituation

Monatliche Gesamtbesuche

20415616

Absprungrate

44.33%

Durchschnittliche Seiten pro Besuch

3.1

Durchschnittliche Besuchsdauer

00:04:06

Infini-attention Besuchstrend

Infini-attention Geografische Verteilung der Besuche

Infini-attention Traffic-Quellen

Infini-attention Alternativen