Nos últimos anos, o rápido desenvolvimento da inteligência artificial (IA) trouxe inúmeras oportunidades para as empresas, mas, simultaneamente, suas ameaças potenciais também se tornaram cada vez mais evidentes. De acordo com o relatório de riscos de nova geração de 2024, recentemente publicado, uma pesquisa revelou que impressionantes 80% das empresas entrevistadas ainda não elaboraram um plano específico para lidar com os riscos da IA generativa, incluindo ameaças à segurança, como golpes online impulsionados por IA.
A pesquisa foi conduzida pela Riskconnect, uma empresa de software de gestão de riscos, e contou com a participação de 218 profissionais globais de conformidade e resiliência de riscos. Os resultados mostraram que 24% dos entrevistados acreditam que, nos próximos 12 meses, as ameaças à segurança cibernética impulsionadas por IA (como ransomware, phishing e deepfakes) terão um impacto significativo nas empresas. Ao mesmo tempo, 72% dos entrevistados afirmaram que os riscos de segurança cibernética tiveram um impacto significativo ou grave em suas organizações, um aumento em relação aos 47% do ano anterior.
Com o aumento da preocupação com questões éticas, de privacidade e segurança da IA, o relatório destaca que, embora as empresas estejam mais preocupadas com a IA, suas estratégias de gestão de riscos não acompanharam esse desenvolvimento, deixando muitas lacunas cruciais. Por exemplo, 65% das empresas não possuem políticas para o uso de IA generativa por parceiros e fornecedores, apesar de terceiros serem canais de invasão frequentemente usados por golpistas online.
As ameaças internas também não devem ser subestimadas. Considerando o uso da IA generativa pelas empresas para criar conteúdo de marketing, Anthony Miyazaki, especialista em marketing, alerta que, embora a IA generativa se destaque na redação de textos, o conteúdo final ainda precisa ser revisado por humanos para garantir sua persuasão e precisão. Além disso, depender da IA para gerar conteúdo para sites pode ter consequências negativas. O Google, por exemplo, já declarou que reduzirá a classificação de pesquisa de sites que usam conteúdo gerado por IA para manipular os resultados de pesquisa, o que pode afetar seriamente a otimização de mecanismos de busca (SEO) das empresas.
Para enfrentar esses desafios, as empresas precisam garantir que suas políticas internas sejam abrangentes, protejam dados sensíveis e estejam em conformidade com as regulamentações relevantes. John Skimoni, diretor de segurança da Dell Technologies, afirma que eles estabeleceram princípios antes mesmo do boom da IA generativa para garantir que o desenvolvimento de aplicações de IA seja justo, transparente e responsável.
Na Empathy First Media, agência de marketing digital, Ryan Dosser, vice-presidente, também destaca as rigorosas medidas tomadas pela empresa em relação ao uso da IA pelos funcionários, incluindo a proibição da inserção de dados confidenciais de clientes em ferramentas de IA generativa e a revisão humana obrigatória do conteúdo gerado por IA. Essas medidas visam aumentar a transparência e construir a confiança dos clientes.
Pontos importantes:
🌐 80% das empresas não têm um plano específico para os riscos da IA generativa, enfrentando potenciais ameaças à segurança.
🔒 72% das empresas consideram que os riscos de segurança cibernética tiveram um impacto significativo, pedindo um aumento na gestão de riscos.
📈 As empresas devem tomar medidas proativas para garantir a segurança e a conformidade das aplicações de IA, evitando ameaças internas e externas.