Recentemente, pesquisadores da Universidade Estadual da Carolina do Norte apresentaram um novo método para extrair modelos de inteligência artificial (IA) captando sinais eletromagnéticos emitidos por computadores, com uma precisão superior a 99%. Essa descoberta pode representar um desafio para o desenvolvimento comercial de IA, especialmente considerando os investimentos significativos de empresas como OpenAI, Anthropic e Google em modelos proprietários. No entanto, especialistas apontam que o impacto real dessa técnica no mundo real e as medidas de defesa ainda não estão claros.

Desenvolvedor, Programador, Hacker, Código, Falha

Lars Nyman, diretor de marketing da CUDO Compute, afirma que o roubo de IA não se limita apenas à perda do modelo em si, mas pode desencadear uma série de reações em cadeia, como a exploração de anos de pesquisa e desenvolvimento por concorrentes, investigações regulatórias sobre má gestão de propriedade intelectual e até mesmo ações judiciais de clientes que descobrem que a "singularidade" de sua IA não é tão única assim. Essa situação pode impulsionar a adoção de auditorias padronizadas na indústria, semelhantes às certificações SOC2 ou ISO, para diferenciar empresas seguras daquelas irresponsáveis.

Nos últimos anos, as ameaças de ataques de hackers a modelos de IA têm aumentado. A dependência comercial da IA torna esse problema ainda mais crítico. Relatórios recentes mostram que milhares de arquivos maliciosos foram carregados no Hugging Face, um repositório crucial de ferramentas de IA, comprometendo gravemente modelos usados em setores como varejo, logística e finanças. Especialistas em segurança nacional alertam que medidas de segurança frágeis podem levar ao roubo de sistemas proprietários, como demonstrado pela vulnerabilidade de segurança da OpenAI. Modelos de IA roubados podem ser revertidos ou vendidos, enfraquecendo os investimentos das empresas e minando a confiança, permitindo que concorrentes alcancem rapidamente uma posição de vantagem.

A equipe de pesquisa da Universidade Estadual da Carolina do Norte revelou informações cruciais sobre a estrutura do modelo analisando os sinais captados por meio de sensores posicionados próximos a uma unidade de processamento de tensor (TPU) de borda do Google. Esse método de ataque não requer acesso direto ao sistema, o que representa um sério risco à segurança da propriedade intelectual de IA. Aydin Aysu, coautor da pesquisa e professor associado de Engenharia Elétrica e de Computação, destaca que a construção de um modelo de IA não apenas é cara, mas também exige muitos recursos computacionais, tornando a prevenção de roubos de modelos crucial.

Com a crescente aplicação da tecnologia de IA, as empresas precisam rever certos dispositivos usados no processamento de IA. Suriel Arellano, consultor de tecnologia, acredita que as empresas podem optar por computação mais centralizada e segura ou considerar tecnologias alternativas menos suscetíveis a roubos. Apesar do risco de roubo, a IA também está aprimorando a segurança cibernética, aumentando a eficiência de resposta por meio da detecção automatizada de ameaças e análise de dados, auxiliando na identificação de ameaças potenciais e aprendendo a lidar com novos ataques.

Destaques:

🔍 Pesquisadores demonstram um método para extrair modelos de IA captando sinais eletromagnéticos, com precisão superior a 99%.

💼 O roubo de modelos de IA pode levar concorrentes a explorarem anos de pesquisa e desenvolvimento de empresas, afetando a segurança comercial.

🔒 As empresas precisam fortalecer a proteção de seus modelos de IA para lidar com a crescente ameaça de ataques de hackers.