2025-02-12 11:14:46.AIbase.
Les protections de sécurité d'Anthropic sont mises à l'épreuve : un test universel de jailbreak des modèles d'IA révèle des failles
2025-02-05 14:13:18.AIbase.
Anthropic lance un "classificateur de robustesse" : succès dans le blocage de 95 % des tentatives de jailbreak des modèles
2024-10-24 10:03:24.AIbase.
Les chercheurs développent une nouvelle méthode de jailbreak pour les LLM, avec un taux de réussite de 65 %
2024-08-10 18:00:39.AIbase.
Anthropic étend son programme de récompense pour les vulnérabilités afin de tester son système de sécurité IA nouvelle génération
2024-07-19 14:12:29.AIbase.
Nouvelle faille pour « jailbreaker » l'IA ! Des invites au passé contournent instantanément GPT-4o et cinq autres modèles
2023-10-23 11:59:38.AIbase.