2025-02-12 11:14:46.AIbase.
Desafios de segurança na Anthropic: Teste de jailbreak universal em modelo de IA revela vulnerabilidades
2025-02-05 14:13:18.AIbase.
Anthropic lança o 'Classificador de Robustez': bloqueia com sucesso 95% das tentativas de jailbreak de modelos
2024-10-24 10:03:24.AIbase.
Pesquisadores desenvolvem novo método de jailbreak para LLMs com taxa de sucesso de 65%
2024-08-10 18:00:39.AIbase.
Anthropic expande o programa de recompensas por vulnerabilidades para testar o sistema de segurança de IA de próxima geração
2024-07-19 14:12:29.AIbase.
Novo método de 'jailbreak' de IA! Prompt no passado contorna GPT-4o e outros seis modelos
2023-10-23 11:59:38.AIbase.