Des chercheurs ont découvert 100 modèles d'apprentissage automatique malveillants sur la plateforme Hugging Face AI. Ces modèles pourraient permettre à des attaquants d'injecter du code malveillant sur les machines des utilisateurs.
Ces modèles d'IA malveillants utilisent des méthodes telles que PyTorch pour exécuter du code malveillant, augmentant ainsi les risques de sécurité.
Afin de réduire ces risques, les développeurs d'IA devraient utiliser de nouveaux outils pour améliorer la sécurité de leurs modèles. La découverte de ces modèles malveillants souligne les dangers que représentent les modèles d'IA malveillants pour l'environnement des utilisateurs. Une vigilance constante et un renforcement de la sécurité sont nécessaires.