Patronus AI a publié la suite de tests SimpleSafetyTests, révélant des failles de sécurité critiques dans les systèmes d'IA tels que ChatGPT. Les tests ont mis en évidence des faiblesses importantes dans 11 modèles linguistiques de grande taille (LLM), soulignant que des invites de sécurité peuvent réduire les réponses dangereuses. Les résultats montrent que les LLM nécessitent des solutions de sécurité strictes et personnalisées avant d'être utilisés dans des applications du monde réel.
Patronus AI découvre des failles de sécurité « préoccupantes » dans les systèmes d'IA de pointe

站长之家
57
© Tous droits réservés AIbase基地 2024, cliquez pour voir la source -https://www.aibase.com/fr/news/4367