L'équipe de sécurité de JFrog a découvert au moins 100 modèles d'IA et de ML malveillants sur la plateforme Hugging Face. Certains modèles peuvent exécuter du code sur la machine de la victime, offrant une porte dérobée persistante. Les chercheurs en sécurité ont trouvé des modèles PyTorch et TensorFlow Keras avec des fonctionnalités malveillantes sur la plateforme, comme le modèle baller423 téléchargé par un utilisateur, capable d'établir un shell inversé sur un hôte spécifié. Certains modèles malveillants ont peut-être été téléchargés à des fins de recherche en sécurité, afin de découvrir des vulnérabilités et d'obtenir des récompenses.