Infini-attention
扩展Transformer模型处理无限长输入
普通产品其他Transformer大语言模型
Google开发的“Infini-attention”技术旨在扩展基于Transformer的大语言模型以处理无限长的输入,通过压缩记忆机制实现无限长输入处理,并在多个长序列任务上取得优异表现。技术方法包括压缩记忆机制、局部与长期注意力的结合和流式处理能力等。实验结果显示在长上下文语言建模、密钥上下文块检索和书籍摘要任务上的性能优势。
Infini-attention 最新流量情况
月总访问量
20208007
跳出率
44.64%
平均页面访问数
3.1
平均访问时长
00:04:14