Star-Attention

高效长序列大型语言模型推理技术

普通产品编程NVIDIA大型语言模型
Star-Attention是NVIDIA提出的一种新型块稀疏注意力机制,旨在提高基于Transformer的大型语言模型(LLM)在长序列上的推理效率。该技术通过两个阶段的操作显著提高了推理速度,同时保持了95-100%的准确率。它与大多数基于Transformer的LLM兼容,无需额外训练或微调即可直接使用,并且可以与其他优化方法如Flash Attention和KV缓存压缩技术结合使用,进一步提升性能。
打开网站

Star-Attention 最新流量情况

月总访问量

515580771

跳出率

37.20%

平均页面访问数

5.8

平均访问时长

00:06:42

Star-Attention 访问量趋势

Star-Attention 访问地理位置分布

Star-Attention 流量来源

Star-Attention 替代品