JFrog安全团队在Hugging Face平台上发现了至少100个恶意AI ML模型。部分模型可以在受害者机器上执行代码,提供持久后门。安全研究人员发现平台上存在恶意功能的PyTorch和Tensorflow Keras模型,如用户上传的baller423模型能在指定主机上建立反向shell。部分恶意模型可能出于安全研究目的上传,以发现漏洞获取赏金。