Infini-attention

扩展Transformer模型处理无限长输入

普通产品其他Transformer大语言模型
Google开发的“Infini-attention”技术旨在扩展基于Transformer的大语言模型以处理无限长的输入,通过压缩记忆机制实现无限长输入处理,并在多个长序列任务上取得优异表现。技术方法包括压缩记忆机制、局部与长期注意力的结合和流式处理能力等。实验结果显示在长上下文语言建模、密钥上下文块检索和书籍摘要任务上的性能优势。
打开网站

Infini-attention 最新流量情况

月总访问量

20208007

跳出率

44.64%

平均页面访问数

3.1

平均访问时长

00:04:14

Infini-attention 访问量趋势

Infini-attention 访问地理位置分布

Infini-attention 流量来源

Infini-attention 替代品