近日,IBM 宣布推出其开源语言模型 Granite 的3.1版本,此次更新带来了诸多重要改进。新版本的模型经过重新设计,采用了更加密集的架构,能够一次处理多达128,000个令牌。这一更新意味着 Granite 在处理复杂文本和任务时的能力得到了显著增强。Granite3.1版本的模型经过了12种语言和116种编程语言的数据集训练,总共处理了12万亿个令牌。这使得模型在语言理解和生成方面的表现更加出色,能够更好地满足用户的需求。IBM 表示,这些新模型在回答使用外部数据的问题(RAG)、从非结构化文本
AMD公司近日宣布,已经正式完成了对Silo AI的收购,后者是欧洲规模最大的私人人工智能实验室之一。此次交易的价值约为6.65亿美元,根据最新汇率计算,折合人民币约47.7亿元,AMD将全部以现金方式支付。
Arcee AI 最近发布了其最新的开源语言模型Arcee-Nova,该模型基于Qwen2-72B-Instruct,性能几乎达到GPT-4水准,展现出色的逻辑推理、创意写作、代码生成、语言理解和客户服务应用等多元功能。经过多样化的通用数据集调优和强化学习优化,Arcee-Nova具备跨领域适应性,在OpenLLM Leaderboard2.0中表现出领先地位。这款模型通过其全面的能力,在客户服务、内容创作、软件开发和个性化教育等领域展现出广泛的应用前景,显著提升行业效率和体验。
苹果公司及其合作伙伴推出了一款名为DCLM的开源大型语言模型,拥有7亿参数,通过使用2.5万亿个数据令牌进行训练,显著提升理解与生成语言的能力。DCLM的核心是一个标准化的数据集优化工具,供研究人员在Hugging Face平台上进行实验,旨在评估不同数据集质量与改进方法。研究表明,利用DCLM建立的基准数据集能够训练出在关键测试中表现出色的模型,尤其是在MMLU基准测试中,5-shot准确率得到了显著提升(达64%),并且在资源消耗上较其他领先模型减少了40%。这一成就表明DCLM不仅为自然语言处理领域提供了重要资源,也展示了优化策略如何在模型性能提升与资源效率之间实现平衡。