研究人员在 Hugging Face AI 平台发现 100 个恶意机器学习模型,可能允许攻击者在用户机器上注入恶意代码。恶意 AI 模型利用 PyTorch 等方法执行恶意代码,加剧安全风险。为降低风险,AI 开发者应使用新工具提高 AI 模型安全性。发现的恶意模型凸显了恶意 AI 模型对用户环境的风险,需要持续警惕和加强安全性。