Forscher haben auf der Hugging Face AI-Plattform 100 bösartige Machine-Learning-Modelle entdeckt, die es Angreifern ermöglichen könnten, schädlichen Code auf den Rechnern der Nutzer einzuschleusen. Diese schädlichen KI-Modelle nutzen Methoden wie PyTorch, um bösartigen Code auszuführen und erhöhen so die Sicherheitsrisiken.
Um das Risiko zu minimieren, sollten KI-Entwickler neue Tools einsetzen, um die Sicherheit ihrer KI-Modelle zu verbessern. Die Entdeckung dieser bösartigen Modelle unterstreicht die Gefahr, die von schädlichen KI-Modellen für die Nutzerumgebung ausgeht, und erfordert ständige Wachsamkeit und verbesserte Sicherheitsmaßnahmen.