近日,IBM 宣布推出其开源语言模型 Granite 的3.1版本,此次更新带来了诸多重要改进。新版本的模型经过重新设计,采用了更加密集的架构,能够一次处理多达128,000个令牌。这一更新意味着 Granite 在处理复杂文本和任务时的能力得到了显著增强。Granite3.1版本的模型经过了12种语言和116种编程语言的数据集训练,总共处理了12万亿个令牌。这使得模型在语言理解和生成方面的表现更加出色,能够更好地满足用户的需求。IBM 表示,这些新模型在回答使用外部数据的问题(RAG)、从非结构化文本
近日,一项新的研究论文揭示了不同 AI 语言模型在合作能力方面的显著差异。研究团队采用了一种经典的 “捐赠者游戏”,测试了 AI 代理在多代合作中如何共享资源。结果显示,Anthropic 的 Claude3.5Sonnet 表现出色,成功建立了稳定的合作模式,获得了更高的资源总量。而谷歌的 Gemini1.5Flash 和 OpenAI 的 GPT-4o 则表现不佳,尤其是 GPT-4o 在测试中逐渐变得不合作,Gemini 代理的合作程度也十分有限。研究团队进一步引入了惩罚机制,以观察不同 AI 模型的表现变化。结果发现,Claude3.5的表现有了显
最近,Answer.AI 和 LightOn 联合发布了开源语言模型 ModernBERT,这是对谷歌 BERT 的重大升级。根据开发者的介绍,ModernBERT 在处理速度、效率和质量上都有了显著提升。该模型可以比其前身快四倍,同时使用更少的内存。ModernBERT 的设计允许它处理长达8192个标记的文本,这比现有编码模型的典型512标记限制提高了16倍。此外,ModernBERT 还是首个经过广泛训练的编程代码编码模型,它在 StackOverflow 问答数据集上的得分超过80,创造了编码模型的新纪录。在通用语言理解评估(GLUE)中,ModernBERT-Large
在2024年12月19日的发布会上,智源研究院与腾讯宣布推出LongBench v2,这是一个专为评估大语言模型(LLMs)在真实世界长文本多任务中的深度理解与推理能力而设计的基准测试。该平台旨在推动长文本模型在理解和推理方面的进步,回应了当前长文本大语言模型在应用中的挑战。