Um estudo recente revelou que 63% dos líderes globais de segurança estão considerando proibir o uso de código gerado por inteligência artificial (IA) pelas equipes de desenvolvimento. Esse fenômeno gerou ampla preocupação, especialmente dentro da indústria de tecnologia. Embora a popularização da IA seja vista como uma ajuda para os desenvolvedores em tarefas rotineiras, especialistas em segurança têm suas dúvidas.

Hacker, código, programador

Nota da imagem: Imagem gerada por IA, fornecida pela Midjourney.

De acordo com uma pesquisa da Venafi, 92% dos tomadores de decisão expressaram preocupação com o uso interno de código gerado por IA, principalmente devido à preocupação com a qualidade da saída. Eles acreditam que os modelos de IA podem ser treinados em bibliotecas de código aberto desatualizadas, resultando em código de qualidade inferior. Além disso, os desenvolvedores podem se tornar excessivamente dependentes dessas ferramentas, levando a uma negligência na qualidade do código.

Os líderes de segurança geralmente acreditam que o código gerado por IA não passa por um controle de qualidade tão rigoroso quanto o código escrito manualmente. Eles temem que os desenvolvedores possam se sentir menos responsáveis pela saída do modelo de IA, levando a revisões de código menos cuidadosas. Tariq Shaukat, CEO da Sonar, mencionou que um número crescente de empresas experimentou falhas e problemas de segurança após o uso de código gerado por IA, devido principalmente à falta de revisão de código adequada.

O relatório da Venafi mostra que, apesar das muitas preocupações dos especialistas em segurança com a codificação por IA, 83% das organizações ainda estão usando IA para desenvolvimento de código. Mais da metade dessas empresas já a adotou como prática padrão. Embora muitas empresas considerem proibir a codificação assistida por IA, 72% dos líderes de segurança acreditam que essa prática deve ser permitida para manter a competitividade. De acordo com dados da Gartner, até 2028, 90% dos engenheiros de software corporativos usarão assistentes de código de IA, aumentando assim sua produtividade.

Além disso, o relatório menciona que cerca de 66% dos entrevistados disseram que não conseguem monitorar efetivamente o uso seguro da IA na organização devido à falta de visibilidade necessária. Os líderes de segurança estão preocupados com potenciais vulnerabilidades, com 59% expressando ansiedade e quase 80% acreditando que a proliferação de código de IA levará a um surto de problemas de segurança, forçando as empresas a reverem suas medidas de gestão.

Destaques:

🔍 63% dos líderes globais de segurança estão considerando proibir o uso de código gerado por IA, principalmente devido à preocupação com a qualidade da saída e problemas de segurança.

⚠️ 92% dos tomadores de decisão estão preocupados com o uso de código de IA, acreditando que os desenvolvedores não revisam o código gerado por IA com rigor suficiente.

📈 Apesar das graves preocupações de segurança, 83% das organizações ainda estão usando IA para desenvolvimento de código para manter a competitividade.