O Google anunciou recentemente que seu mais recente modelo de IA, "Big Sleep", descobriu com sucesso uma vulnerabilidade de segurança de memória no banco de dados SQLite. Essa vulnerabilidade é um problema de estouro de buffer de pilha explorável, que permitiu que o código fosse corrigido antes de seu lançamento oficial. O Big Sleep é o resultado de uma colaboração entre o Project Zero do Google e o DeepMind, sendo considerado uma versão aprimorada do Project Naptime anterior.
Como um mecanismo de banco de dados de código aberto, essa vulnerabilidade no SQLite poderia permitir que atacantes, por meio de um banco de dados malicioso ou injeção de SQL, causassem a falha do SQLite ou até mesmo a execução de código arbitrário. Especificamente, o problema se origina de um valor mágico -1 usado inesperadamente como índice de array. Embora o código contenha uma asserção (assert()) para capturar esse problema, em versões de produção, essa verificação de nível de depuração é removida.
O Google apontou que explorar essa vulnerabilidade não é simples. No entanto, o mais importante é que esta é a primeira vez que uma IA descobre uma vulnerabilidade conhecida em software do mundo real. De acordo com o Google, os métodos tradicionais de fuzzing não conseguiram encontrar esse problema, mas o Big Sleep conseguiu. Após analisar uma série de commits do código-fonte do projeto, o Big Sleep identificou essa vulnerabilidade no início de outubro e a corrigiu no mesmo dia.
Em um anúncio de 1º de novembro, o Google afirmou que essa conquista tem um enorme potencial na área de defesa. Embora o fuzzing já tenha demonstrado resultados significativos, a equipe do Google acredita que é necessário um novo método para ajudar os desenvolvedores a encontrar vulnerabilidades difíceis de detectar por meio de fuzzing, e eles estão otimistas sobre a capacidade da IA nessa área.
Anteriormente, a Protect AI, sediada em Seattle, lançou uma ferramenta de código aberto chamada Vulnhuntr, que afirma poder usar o modelo de IA Claude da Anthropic para encontrar vulnerabilidades de dia zero em bibliotecas de código Python. No entanto, a equipe do Google destaca que as duas ferramentas têm propósitos diferentes, com o Big Sleep focando em vulnerabilidades relacionadas à segurança de memória.
Atualmente, o Big Sleep ainda está em fase de pesquisa, tendo sido testado principalmente em programas menores com vulnerabilidades conhecidas. Esta foi sua primeira experiência em um ambiente real. Para o teste, a equipe de pesquisa coletou algumas das últimas submissões do código-fonte do SQLite e, após a análise, ajustou as instruções do modelo, encontrando finalmente essa vulnerabilidade.
Apesar dessa conquista, a equipe do Google alerta que esses resultados ainda são altamente experimentais e que os testes de fuzzing direcionados a objetivos específicos podem ser igualmente eficazes na descoberta de vulnerabilidades.
Destaques:
🔍 **O modelo de IA Big Sleep do Google descobriu pela primeira vez uma vulnerabilidade de segurança de memória no SQLite.**
🛠️ **A vulnerabilidade foi corrigida antes do lançamento oficial, marcando um novo avanço da IA na detecção de vulnerabilidades.**
📊 **Apesar dos resultados positivos, o Google destaca que os resultados atuais ainda são experimentais e que o fuzzing continua eficaz.**