Infini-attention

Expande modelos de linguagem grandes baseados em Transformer para lidar com entradas infinitamente longas

Produto ComumOutrosTransformerModelo de linguagem grande
A tecnologia "Infini-attention", desenvolvida pelo Google, visa expandir modelos de linguagem grandes baseados em Transformer para lidar com entradas infinitamente longas. Isso é alcançado por meio de um mecanismo de memória comprimida, permitindo o processamento de entradas infinitamente longas e obtendo desempenho superior em várias tarefas de sequências longas. Os métodos técnicos incluem um mecanismo de memória comprimida, a combinação de atenção local e de longo prazo e capacidade de processamento em fluxo. Os resultados experimentais demonstram vantagens de desempenho em modelagem de linguagem de contexto longo, recuperação de blocos de contexto de chave e tarefas de resumo de livros.
Abrir Site

Infini-attention Situação do Tráfego Mais Recente

Total de Visitas Mensais

20415616

Taxa de Rejeição

44.33%

Média de Páginas por Visita

3.1

Duração Média da Visita

00:04:06

Infini-attention Tendência de Visitas

Infini-attention Distribuição Geográfica das Visitas

Infini-attention Fontes de Tráfego

Infini-attention Alternativas