Hugging Face,这家著名的人工智能开发平台,日前与韩国 AI 初创公司 FriendliAI 达成和解,结束了长达近两年的专利侵权诉讼。FriendliAI 曾指控 Hugging Face 侵犯其关于 “迭代级调度的批处理” 技术的专利,双方在特拉华州北区美国地方法院的文件中确认,已于1月8日达成 “保密协议”,并同意撤回诉讼。图源备注:图片由AI生成,图片授权服务商Midjourney根据法院的文件,FriendliAI 和 Hugging Face 双方同意不再追究本案的任何费用和开支,这意味着此案无法再次提起。尽管 Hugging Face 尚未对媒体的评
OpenAI 近日在 AI 安全领域展示了其更为积极的红队测试策略,超越了其竞争对手,尤其是在多步强化学习和外部红队测试这两个关键领域。公司发布的两篇论文为提升 AI 模型的质量、可靠性和安全性设立了新的行业标准。第一篇论文《OpenAI 的 AI 模型与系统外部红队测试方法》指出,外部专业团队在发现内部测试可能遗漏的安全漏洞方面极为有效。这些外部团队由网络安全和特定领域的专家组成,能够识别模型安全边界的缺陷,以及模型中的偏差和控制问题。第二篇论文《多样化和有效的
OpenAI 公布了一种新的 AI 安全方法,旨在通过改变 AI 系统处理安全规则的方式来提升其安全性。这种新的 o 系列模型不再仅仅依赖于通过示例学习好与坏行为,而是能够理解并积极推理特定的安全指南。OpenAI 的研究中举了一个例子,当用户试图通过加密文本获取非法活动的指示时,模型成功解码了信息,但拒绝了请求,并具体引用了将要违反的安全规则。这种逐步推理的过程显示了模型如何有效地遵循相关的安全准则。这款 o1模型的训练过程分为三个阶段。首先,模型学习如何提供帮助。
近年来,机器学习模型在视觉和语言任务方面的应用需求日益增长,但大多数模型都需要庞大的计算资源,无法在个人设备上高效运行。尤其是像笔记本电脑、消费级 GPU 和移动设备等小型设备,在处理视觉语言任务时面临巨大的挑战。以 Qwen2-VL 为例,虽然其性能卓越,但对硬件的要求较高,限制了其在实时应用中的可用性。因此,开发出轻量化模型以便于在较低资源下运行,成为了一项重要需求。Hugging Face 近期发布了 SmolVLM,这是一款专门为设备端推理设计的2B 参数视觉语言模型。SmolV