Modelos de IA Maliciosos Descubiertos en Hugging Face

Investigadores han descubierto 100 modelos de aprendizaje automático maliciosos en la plataforma de IA Hugging Face, los cuales podrían permitir a los atacantes inyectar código malicioso en las máquinas de los usuarios.

Estos modelos de IA maliciosos utilizan métodos como PyTorch para ejecutar código malicioso, aumentando los riesgos de seguridad.

Para reducir estos riesgos, los desarrolladores de IA deberían utilizar nuevas herramientas para mejorar la seguridad de sus modelos. El descubrimiento de estos modelos maliciosos pone de manifiesto los peligros que representan para el entorno del usuario, por lo que es necesaria una vigilancia continua y una mayor seguridad.