Infini-attention
Expande modelos de linguagem grandes baseados em Transformer para lidar com entradas infinitamente longas
Produto ComumOutrosTransformerModelo de linguagem grande
A tecnologia "Infini-attention", desenvolvida pelo Google, visa expandir modelos de linguagem grandes baseados em Transformer para lidar com entradas infinitamente longas. Isso é alcançado por meio de um mecanismo de memória comprimida, permitindo o processamento de entradas infinitamente longas e obtendo desempenho superior em várias tarefas de sequências longas. Os métodos técnicos incluem um mecanismo de memória comprimida, a combinação de atenção local e de longo prazo e capacidade de processamento em fluxo. Os resultados experimentais demonstram vantagens de desempenho em modelagem de linguagem de contexto longo, recuperação de blocos de contexto de chave e tarefas de resumo de livros.
Infini-attention Situação do Tráfego Mais Recente
Total de Visitas Mensais
20415616
Taxa de Rejeição
44.33%
Média de Páginas por Visita
3.1
Duração Média da Visita
00:04:06