Hugging Face AI 平台曝出 100 个恶意代码执行模型
站长之家
16
研究人员在 Hugging Face AI 平台发现 100 个恶意机器学习模型,可能允许攻击者在用户机器上注入恶意代码。恶意 AI 模型利用 PyTorch 等方法执行恶意代码,加剧安全风险。为降低风险,AI 开发者应使用新工具提高 AI 模型安全性。发现的恶意模型凸显了恶意 AI 模型对用户环境的风险,需要持续警惕和加强安全性。
© 版权所有 AIbase基地 2024, 点击查看来源出处 - https://www.aibase.com/zh/news/6182