JFrog安全团队在Hugging Face平台上发现了至少100个恶意AI ML模型。部分模型可以在受害者机器上执行代码,提供持久后门。安全研究人员发现平台上存在恶意功能的PyTorch和Tensorflow Keras模型,如用户上传的baller423模型能在指定主机上建立反向shell。部分恶意模型可能出于安全研究目的上传,以发现漏洞获取赏金。
JFrog安全团队在Hugging Face平台上发现了至少100个恶意AI ML模型。部分模型可以在受害者机器上执行代码,提供持久后门。安全研究人员发现平台上存在恶意功能的PyTorch和Tensorflow Keras模型,如用户上传的baller423模型能在指定主机上建立反向shell。部分恶意模型可能出于安全研究目的上传,以发现漏洞获取赏金。
近日,SambaNova 和 Hugging Face 联合推出了一新工具,使开发者能够仅需点击一下按钮即可部署类似 ChatGPT 的聊天机器人,极大地缩短了部署时间,从原本的数小时减少到几分钟。对于开发者而言,这一过程相当简单,只需访问 SambaNova Cloud 的 API 网站获取访问令牌,接着在 Python 中输入三行代码即可完成部署。具体操作步骤:首先,开发者需要导入所需的库。代码为: ```pythonimport gradio as gr import sambanova_gradio gr.load ("Meta-Llama-3.1-70B-Instruct-8k", src=sambanova_gradio.registry, accept_token=True).launch () ``
Hugging Face今天发布了SmolLM2,一组新的紧凑型语言模型,实现了令人印象深刻的性能,同时所需的计算资源比大型模型少得多。新模型采用Apache2.0许可发布,有三种大小——135M、360M和1.7B参数——适合部署在智能手机和其他处理能力和内存有限的边缘设备上。SmolLM2-1B模型在几个关键基准测试中优于Meta的Llama1B模型,尤其是在科学推理和常识任务中表现出色。该模型在大多数认知基准上的表现都优于大型竞争模型,使用了包括FineWeb-Edu和专门的数学和编码数据集在内的多样化数据集组合。SmolL
就在苹果即将推出其私人 AI 云服务 “私有云计算(Private Cloud Compute)” 之际,这家科技巨头决定向安全研究人员提供高达100万美元的奖励,旨在发现可能危害其云服务安全的漏洞。苹果在其安全博客上发布了一则消息,明确表示任何能够报告远程执行恶意代码的漏洞的研究人员,将有机会获得最高100万美元的奖金。图源备注:图片由AI生成,图片授权服务商Midjourney此外,苹果还为那些私下报告能够提取用户敏感信息或提交给私人云的提示的漏洞提供最高25万美元的奖励。他们特别提到,
最近,AI 初创公司 Hugging Face 正式推出了 Gradio5,这是他们广受欢迎的开源工具的一次重大更新,旨在使 AI 开发变得更加简单。自从2021年收购 Gradio 以来,这个工具已经成为 Hugging Face 产品线中的重要组成部分。Gradio 每月拥有超过200万用户和超过470,000个基于该平台构建的应用程序,已成为 AI 开发生态系统中的关键参与者。项目入口:https://www.gradio.app/Gradio5的目标是将机器学习与 Web 开发之间的鸿沟缩小。Hugging Face 的创始人 Abubakar Abid 表示,许多机器学习开发者对 Python 非常熟悉,但在 Web