2025-03-07 10:56:26.AIbase.
Ferramenta de código Claude Code da Anthropic sofre vulnerabilidade crítica; risco de travamento do sistema para alguns usuários
2025-03-04 09:57:21.AIbase.
Cuidado com riscos de segurança! Ferramenta de modelo grande Ollama apresenta vulnerabilidades graves
2025-02-18 09:57:15.AIbase.
Pesquisa revela vulnerabilidades em agentes de IA, expondo dados de usuários a riscos
2025-02-12 11:14:46.AIbase.
Desafios de segurança na Anthropic: Teste de jailbreak universal em modelo de IA revela vulnerabilidades
2025-01-20 10:12:54.AIbase.
API do ChatGPT apresenta vulnerabilidade de segurança, podendo ser usada para ataques DDoS
2025-01-14 16:45:17.AIbase.
Hackers exploram vulnerabilidade do Azure OpenAI para gerar conteúdo prejudicial; Microsoft reage com força!
2024-12-25 11:00:18.AIbase.
Erros de digitação podem 'quebrar' o GPT-4 e o Claude: revelando a vulnerabilidade dos chatbots de IA!
2024-12-02 16:51:45.AIbase.
Chatbot de IA 'rouba' US$ 47.000 em experimento de hacking: vulnerabilidades de segurança chocam
2024-11-21 16:58:31.AIbase.
Ferramenta OSS-Fuzz baseada em IA do Google encontra 26 vulnerabilidades em projetos de código aberto
2024-11-05 17:42:52.AIbase.
Modelo de IA do Google, “Big Sleep”, descobre vulnerabilidade fatal no SQLite; testes tradicionais falham!
2024-10-25 09:15:17.AIbase.
Apple lança serviço de nuvem de IA privada e oferece recompensa de US$ 1 milhão por vulnerabilidades!
2024-10-21 09:21:23.AIbase.
Ferramenta de código aberto Vulnhuntr detecta vulnerabilidades zero-day em Python, usando de forma inteligente o Claude AI
2024-10-16 16:01:18.AIbase.
LatticeFlow expõe vulnerabilidades de conformidade em modelos de IA de grandes empresas de tecnologia como OpenAI
2024-09-25 10:45:33.AIbase.
Alerta! Hackers exploram vulnerabilidade do ChatGPT para implantar memórias falsas e roubar informações do usuário
2024-09-18 10:01:55.AIbase.
ChatGPT envia mensagens não solicitadas a usuários, causando alvoroço; OpenAI corrige vulnerabilidade
2024-09-03 09:37:22.AIbase.
Alerta! Estudo revela vulnerabilidades em sistemas de IA de veículos autônomos, expondo risco de ataques maliciosos
2024-08-10 18:00:39.AIbase.
Anthropic expande o programa de recompensas por vulnerabilidades para testar o sistema de segurança de IA de próxima geração
2024-08-02 16:20:16.AIbase.
EaTVul: Ataque de 'camuflagem' de IA supera sistemas de detecção de vulnerabilidades em mais de 83%
2024-06-27 09:02:44.AIbase.
O queridinho do passado vira um grande buraco! Rabbit é exposto por vulnerabilidade grave de código
2023-12-20 15:09:06.AIbase.