El equipo de seguridad de JFrog ha descubierto al menos 100 modelos de IA y ML maliciosos en la plataforma Hugging Face. Algunos modelos pueden ejecutar código en las máquinas de las víctimas, proporcionando una puerta trasera persistente. Los investigadores de seguridad encontraron modelos PyTorch y Tensorflow Keras con funcionalidades maliciosas en la plataforma, como el modelo baller423 subido por un usuario, que puede establecer un shell inverso en un host especificado. Algunos modelos maliciosos pueden haber sido subidos con fines de investigación de seguridad para descubrir vulnerabilidades y obtener recompensas.