Des chercheurs de l'Université Purdue ont mis au point une nouvelle méthode permettant de pousser avec succès les grands modèles de langage à générer du contenu nuisible. Ils mettent en garde la communauté de l'intelligence artificielle contre les dangers de l'open-source des modèles linguistiques et proposent que l'élimination du contenu nocif soit une meilleure solution. Les résultats de la recherche révèlent les dangers potentiels cachés derrière les réponses conformes, avec un taux de réussite de 98 %.
Des chercheurs parviennent à induire un chatbot IA à divulguer un contenu préjudiciable

站长之家
Cet article provient d'AIbase Daily
Bienvenue dans la section [AI Quotidien] ! Voici votre guide pour explorer le monde de l'intelligence artificielle chaque jour. Chaque jour, nous vous présentons les points forts du domaine de l'IA, en mettant l'accent sur les développeurs, en vous aidant à comprendre les tendances technologiques et à découvrir des applications de produits IA innovantes.