JFrog安全团队在Hugging Face平台上发现了至少100个恶意AI ML模型。部分模型可以在受害者机器上执行代码,提供持久后门。安全研究人员发现平台上存在恶意功能的PyTorch和Tensorflow Keras模型,如用户上传的baller423模型能在指定主机上建立反向shell。部分恶意模型可能出于安全研究目的上传,以发现漏洞获取赏金。
JFrog安全团队在Hugging Face平台上发现了至少100个恶意AI ML模型。部分模型可以在受害者机器上执行代码,提供持久后门。安全研究人员发现平台上存在恶意功能的PyTorch和Tensorflow Keras模型,如用户上传的baller423模型能在指定主机上建立反向shell。部分恶意模型可能出于安全研究目的上传,以发现漏洞获取赏金。
最近,一位德国安全研究员本杰明・弗莱施在微软的 GitHub 上发布了一份报告,指出 OpenAI 的 ChatGPT API 存在一个严重的安全漏洞,可能被利用发起分布式拒绝服务(DDoS)攻击。该漏洞使得攻击者可以通过简单的 HTTP 请求,利用 ChatGPT 的爬虫程序,向任意网站发起大规模的网络请求,甚至可能导致目标网站瘫痪。图源备注:图片由AI生成,图片授权服务商Midjourney根据弗莱施的报告,ChatGPT 的 API 在处理指向特定网站的 HTTP POST 请求时,表现出严重的缺陷。当 ChatGPT 引用某个网站时,它会调用一
Hugging Face,这家著名的人工智能开发平台,日前与韩国 AI 初创公司 FriendliAI 达成和解,结束了长达近两年的专利侵权诉讼。FriendliAI 曾指控 Hugging Face 侵犯其关于 “迭代级调度的批处理” 技术的专利,双方在特拉华州北区美国地方法院的文件中确认,已于1月8日达成 “保密协议”,并同意撤回诉讼。图源备注:图片由AI生成,图片授权服务商Midjourney根据法院的文件,FriendliAI 和 Hugging Face 双方同意不再追究本案的任何费用和开支,这意味着此案无法再次提起。尽管 Hugging Face 尚未对媒体的评
一场看似荒诞的黑客实验再次敲响了人工智能安全的警钟。在一个名为Freysa的AI聊天机器人安全挑战赛中,一位代号为"p0pular.eth"的黑客仅通过精心设计的文字提示,成功"骗取"了价值47,000美元的加密货币。这个令人震惊的案例揭示了当前AI系统中存在的严重安全漏洞。黑客的攻击过程堪称教科书式的社会工程学操作:首先,黑客伪装成拥有管理员权限,巧妙地绕过了系统的安全警告机制。通过重新定义"approveTransfer"函数,他让机器人误以为自己正在处理incoming(接收)支付,而非原本被禁止
近年来,机器学习模型在视觉和语言任务方面的应用需求日益增长,但大多数模型都需要庞大的计算资源,无法在个人设备上高效运行。尤其是像笔记本电脑、消费级 GPU 和移动设备等小型设备,在处理视觉语言任务时面临巨大的挑战。以 Qwen2-VL 为例,虽然其性能卓越,但对硬件的要求较高,限制了其在实时应用中的可用性。因此,开发出轻量化模型以便于在较低资源下运行,成为了一项重要需求。Hugging Face 近期发布了 SmolVLM,这是一款专门为设备端推理设计的2B 参数视觉语言模型。SmolV