Pesquise as tendências globais de produtos de IA

  • Informação de Notícias
  • Aplicações de Produtos
  • Casos de Monetização
  • Tutoriais de IA
2025-02-12 11:14:46.AIbase

Desafios de segurança na Anthropic: Teste de jailbreak universal em modelo de IA revela vulnerabilidades

2025-02-05 14:13:18.AIbase

Anthropic lança o 'Classificador de Robustez': bloqueia com sucesso 95% das tentativas de jailbreak de modelos

2024-10-24 10:03:24.AIbase

Pesquisadores desenvolvem novo método de jailbreak para LLMs com taxa de sucesso de 65%

2024-08-10 18:00:39.AIbase

Anthropic expande o programa de recompensas por vulnerabilidades para testar o sistema de segurança de IA de próxima geração

2024-07-19 14:12:29.AIbase

Novo método de 'jailbreak' de IA! Prompt no passado contorna GPT-4o e outros seis modelos

2023-10-23 11:59:38.AIbase

Falha de segurança em IA! DALL-E 3 da OpenAI é vulnerável a ataques de jailbreak, gerando imagens de crianças fumando