AI21Labs 近日发布了其最新的 Jamba1.6系列大型语言模型,这款模型被称为当前市场上最强大、最高效的长文本处理模型。与传统的 Transformer 模型相比,Jamba 模型在处理长上下文时展现出了更高的速度和质量,其推理速度比同类模型快了2.5倍,标志着一种新的技术突破。
Jamba1.6系列包括 Jamba Mini(12亿参数)和 Jamba Large(94亿参数),并且专门针对商业应用进行了优化,具备函数调用、结构化输出(如 JSON)和基于现实的生成能力。这些模型的应用范围广泛,从企业级的智能助手到学术研究,均能发挥重要作用。
这款模型采用了名为 Jamba Open Model License 的开源许可协议,允许用户在遵循相关条款的前提下进行研究和商业使用。此外,Jamba1.6系列的知识截止日期为2024年3月5日,支持多种语言,包括英语、西班牙语、法语、葡萄牙语、意大利语、荷兰语、德语、阿拉伯语和希伯来语,确保其适应全球用户的需求。
在性能评测方面,Jamba Large1.6在多个基准测试中均表现优异。在 Arena Hard、CRAG 和 FinanceBench 等标准测试中,其分数均超过同类竞争对手,显示出其卓越的语言理解和生成能力。特别是在处理长文本方面,Jamba 模型的表现尤为突出。
为确保高效的推理,使用 Jamba 模型的用户需先安装相关的 Python 库,并且需要 CUDA 设备以支持模型的运行。用户可以通过 vLLM 或 transformers 框架来运行该模型。在大规模 GPU 的支持下,Jamba Large1.6可以处理长达256K 的上下文,这在之前的模型中是无法实现的。
模型:https://huggingface.co/ai21labs/AI21-Jamba-Large-1.6
划重点:
🌟 Jamba1.6模型在长文本处理上速度更快、质量更高,支持多种语言。
🚀 开源许可协议允许研究和商业使用,促进技术共享。
💡 在多项基准测试中表现优异,超越同类竞争产品。