Pesquisadores descobriram 100 modelos de aprendizado de máquina maliciosos na plataforma Hugging Face AI. Esses modelos podem permitir que atacantes injetem código malicioso nas máquinas dos usuários.
Os modelos de IA maliciosos usam métodos como PyTorch para executar código malicioso, aumentando os riscos de segurança. Para reduzir esses riscos, os desenvolvedores de IA devem usar novas ferramentas para melhorar a segurança dos modelos de IA.
A descoberta desses modelos destaca os riscos que os modelos de IA maliciosos representam para o ambiente do usuário, exigindo vigilância contínua e segurança reforçada.