Das JFrog-Sicherheitsteam hat auf der Hugging Face-Plattform mindestens 100 bösartige KI-ML-Modelle entdeckt. Einige Modelle können Code auf dem Rechner des Opfers ausführen und ein persistentes Backdoor bereitstellen. Sicherheitsforscher fanden auf der Plattform bösartige PyTorch- und TensorFlow-Keras-Modelle, z. B. das vom Benutzer hochgeladene baller423-Modell, das eine Reverse Shell auf einem bestimmten Host einrichten kann. Einige bösartige Modelle wurden möglicherweise zu Sicherheitsforschungszwecken hochgeladen, um Schwachstellen zu finden und Bug Bounties zu erhalten.