Samba

高效无限上下文语言模型的官方实现

优质新品编程自然语言处理机器学习
Samba是一个简单而强大的混合模型,具有无限的上下文长度。它的架构非常简单:Samba = Mamba + MLP + 滑动窗口注意力 + 层级MLP堆叠。Samba-3.8B模型在Phi3数据集上训练了3.2万亿个token,主要基准测试(例如MMLU、GSM8K和HumanEval)上的表现大大超过了Phi3-mini。Samba还可以通过最少的指令调整实现完美的长上下文检索能力,同时保持与序列长度的线性复杂度。这使得Samba-3.8B-instruct在下游任务(如长上下文摘要)上表现出色。
打开网站

Samba 最新流量情况

月总访问量

515580771

跳出率

37.20%

平均页面访问数

5.8

平均访问时长

00:06:42

Samba 访问量趋势

Samba 访问地理位置分布

Samba 流量来源

Samba 替代品