Patronus AI a publié la suite de tests SimpleSafetyTests, révélant des failles de sécurité critiques dans les systèmes d'IA tels que ChatGPT. Les tests ont mis en évidence des faiblesses importantes dans 11 modèles linguistiques de grande taille (LLM), soulignant que des invites de sécurité peuvent réduire les réponses dangereuses. Les résultats montrent que les LLM nécessitent des solutions de sécurité strictes et personnalisées avant d'être utilisés dans des applications du monde réel.