Memory Layers at Scale 是一种创新的内存层实现方式,通过可训练的键值查找机制,在不增加浮点运算次数的情况下为模型增加额外的参数。这种方法在大规模语言模型中尤为重要,因为它能够在保持计算效率的同时,显著提升模型的存储和检索能力。该技术的主要优点包括高效扩展模型容量、降低计算资源消耗以及提高模型的灵活性和可扩展性。该项目由 Meta Lingua 团队开发,适用于需要处理大规模数据和复杂模型的场景。