类型 :
- 新闻资讯
- 产品应用
- 变现案例
- AI教程
2025-01-06 11:24:50.AIbase.14.5k
Meta 发布新型记忆层技术:突破参数限制,大幅提升 AI 事实准确性
Meta 公司近日发布了一项突破性的研究成果,他们开发出一种新型的记忆层技术,可以显著提升大型语言模型(LLM)的事实准确性,并在参数规模上实现了前所未有的扩展。这项技术不仅挑战了传统神经网络的扩展方式,还为未来的 AI 架构设计提供了新的方向。这项研究的核心在于利用可训练的键值查找机制,为模型增加额外的参数,而无需增加计算量(FLOPs)。这种方法的核心思想是,通过稀疏激活的记忆层来补充计算密集的前馈层,从而提供专门的存储和检索信息的能力。与传统的稠
2024-07-18 13:54:07.AIbase.10.3k
微软Q-Sparse模型:8B参数性能直逼7B模型 训练微调轻松搞定!
大型语言模型(LLMs)因出色的自然语言处理能力而闻名,但在实践中,它们的推理阶段面临高计算成本和内存占用的挑战。为了提高LLMs效率,研究人员引入了一项名为 Q-Sparse 的技术。Q-Sparse 方法通过在激活中应用 top-K 稀疏化和直通估计器,实现了完全稀疏激活的状态压缩,显著提升推理效率。研究发现,Q-Sparse 能在保持结果与 baseline LLMs相当的条件下,提高推理效率。这种方法适用于全精度和 1 位(如 BitNet b1.58)LLMs。
稀疏激活通过减少矩阵乘法和输入/输出传输量来提高效率。Q-Sparse 在每个线性投影中实现全激活稀疏化,通过 top-K 稀疏化函数实现与反向传播中梯度计算的直通估计器相结合,进一步提高了激活稀疏性。采用平方 ReLU 函数提高激活稀疏性。
实验结果揭示,随着模型大小和稀疏比率的增加,稀疏激活模型的性能提高,这也适用于从头开始训练、已有的 LLMs 继续训练和微调。Q-Sparse 还被应用于包括 BitNet b1.58 和混合专家(MoE)在内的 LLMs,并探索兼容批量模式的优化以增加训练和推理的灵活性。