Recherchez la dynamique mondiale des produits IA

  • Actualités
  • Applications de produits
  • Études de monétisation
  • Tutoriels IA
2025-02-12 11:14:46.AIbase

Les protections de sécurité d'Anthropic sont mises à l'épreuve : un test universel de jailbreak des modèles d'IA révèle des failles

2025-02-05 14:13:18.AIbase

Anthropic lance un "classificateur de robustesse" : succès dans le blocage de 95 % des tentatives de jailbreak des modèles

2024-10-24 10:03:24.AIbase

Les chercheurs développent une nouvelle méthode de jailbreak pour les LLM, avec un taux de réussite de 65 %

2024-08-10 18:00:39.AIbase

Anthropic étend son programme de récompense pour les vulnérabilités afin de tester son système de sécurité IA nouvelle génération

2024-07-19 14:12:29.AIbase

Nouvelle faille pour « jailbreaker » l'IA ! Des invites au passé contournent instantanément GPT-4o et cinq autres modèles

2023-10-23 11:59:38.AIbase

Faille de sécurité de l'IA ! DALL-E 3 d'OpenAI vulnérable aux attaques de jailbreak, générant des images d'enfants fumant