《纽约时报》和《每日新闻》在版权诉讼中遭遇意外转折:OpenAI一名工程师不经意间删除了可能成为关键证据的虚拟机搜索数据,令这起备受关注的法律纠纷再添戏剧性情节。根据周三晚间提交至纽约南区美国地方法院的信件,两家媒体公司的律师和技术专家此前已投入逾150小时搜索OpenAI的AI训练数据集。然而,11月14日,一名OpenAI工程师意外删除了存储在虚拟机上的全部搜索数据。尽管OpenAI随后尝试恢复数据并取得基本成功,但由于文件夹结构和文件名已"无法挽回"地丢失,恢复的数据实际
北京百川智能科技有限公司近日宣布推出其一站式解决方案,旨在帮助企业以低成本实现大模型的私有化部署,并提高效率。这套解决方案包括全链路优质通用训练数据、Baichuan4-Turbo和Baichuan4-Air两款模型,以及全链路领域增强工具链,能够满足企业在不同场景下的需求。
最近,开放源代码倡议组织(OSI)发布了一项新定义,明确什么才算是真正的 “开源” 人工智能。这一新标准引起了科技巨头们的关注,尤其是 Meta 的 Llama 模型,因为它并不符合这些规则。OSI 一直是开放源代码软件的行业标准制定者,但在 AI 系统中,有一些传统许可证未能覆盖的元素,比如模型训练数据。根据 OSI 的新定义,任何被认为是真正开放源代码的 AI 系统必须提供三样东西:首先是有关训练 AI 所用数据的详细信息,以便他人能够理解并重现这些结果;其次是用于构建和运行 AI 的
瑞士洛桑联邦理工学院 (EPFL) 的一项最新研究比较了两种主流的大型语言模型 (LLM) 适应性训练方法:上下文学习 (ICL) 和指令微调 (IFT)。研究人员使用 MT-Bench 基准测试来评估模型遵循指令的能力,发现在特定情况下,两种方法的表现各有优劣。研究发现,当可用的训练样本数量较少时(例如不超过50个),ICL 和 IFT 的效果非常接近。这表明在数据有限的情况下,ICL 或许可以作为 IFT 的替代方案。然而,随着任务复杂度的增加,例如在多轮对话场景中,IFT 的优势就变得明显。研究人员认为,