LongLLaMA
处理长文本的大型语言模型
普通产品编程语言模型自然语言处理
LongLLaMA 是一个大型语言模型,能够处理长篇文本。它基于 OpenLLaMA,并使用 Focused Transformer (FoT) 方法进行了微调。它能够处理长达 256k 标记甚至更多的文本。我们提供了一个较小的 3B 基础模型(未经过指令调整),并在 Hugging Face 上提供了支持更长上下文的推断代码。我们的模型权重可以作为现有实现中 LLaMA 的替代品(适用于最多 2048 个标记的短上下文)。此外,我们还提供了评估结果和与原始 OpenLLaMA 模型的比较。
LongLLaMA 最新流量情况
月总访问量
488643166
跳出率
37.28%
平均页面访问数
5.7
平均访问时长
00:06:37