Pesquisadores da Universidade de Sheffield, na Inglaterra, revelaram uma descoberta preocupante: ferramentas de inteligência artificial como o ChatGPT podem ser manipuladas para gerar códigos maliciosos, comprometendo a segurança de bancos de dados. Várias ferramentas de IA comerciais apresentam vulnerabilidades de segurança; um ataque bem-sucedido pode levar ao vazamento de informações confidenciais de bancos de dados e à interrupção de seus serviços.

Os pesquisadores instam os usuários a ficarem atentos aos riscos potenciais e enfatizam a necessidade de se criar uma nova comunidade para garantir que as estratégias de segurança cibernética acompanhem a evolução das ameaças constantes. Algumas empresas já adotaram as recomendações para corrigir as vulnerabilidades, mas o problema requer atenção contínua.