Des chercheurs de l'Université Purdue ont mis au point une nouvelle méthode permettant de pousser avec succès les grands modèles de langage à générer du contenu nuisible. Ils mettent en garde la communauté de l'intelligence artificielle contre les dangers de l'open-source des modèles linguistiques et proposent que l'élimination du contenu nocif soit une meilleure solution. Les résultats de la recherche révèlent les dangers potentiels cachés derrière les réponses conformes, avec un taux de réussite de 98 %.