Das JFrog-Sicherheitsteam hat auf der Hugging Face-Plattform mindestens 100 bösartige KI-ML-Modelle entdeckt. Einige Modelle können Code auf dem Rechner des Opfers ausführen und ein persistentes Backdoor bereitstellen. Sicherheitsforscher fanden auf der Plattform bösartige PyTorch- und TensorFlow-Keras-Modelle, z. B. das vom Benutzer hochgeladene baller423-Modell, das eine Reverse Shell auf einem bestimmten Host einrichten kann. Einige bösartige Modelle wurden möglicherweise zu Sicherheitsforschungszwecken hochgeladen, um Schwachstellen zu finden und Bug Bounties zu erhalten.
Über hundert bösartige KI-Modelle auf Hugging Face entdeckt

奇客Solidot
50
© Alle Rechte vorbehalten AIbase-Basis 2024, klicken Sie hier, um die Quelle anzuzeigen - https://www.aibase.com/de/news/6130