De acordo com uma análise recente da Gartner, mais de 40% dos vazamentos de dados relacionados à inteligência artificial (IA) até 2027 serão originários do mau uso da inteligência artificial generativa (IA Generativa). Com a rápida proliferação da tecnologia de IA Generativa, empresas e organizações enfrentam desafios significativos na definição de medidas de governança e segurança de dados. Este problema é particularmente acentuado no contexto da localização de dados, pois essas tecnologias exigem alta capacidade de computação centralizada.

Desenvolvedor Hacker Desenvolvedor Falha Vazamento Segurança

Joerg Fritsch, vice-presidente e analista da Gartner, aponta que as organizações frequentemente carecem de supervisão adequada ao integrar ferramentas de IA Generativa, levando a transferências transfronteiriças de dados acidentais. Ele menciona: "Se os funcionários enviarem prompts sensíveis ao usar ferramentas de IA Generativa, e essas ferramentas e APIs forem hospedadas em locais desconhecidos, isso criará riscos de segurança". Embora essas ferramentas possam ser usadas para aplicativos comerciais aprovados, seus riscos de segurança potenciais não devem ser ignorados.

Em escala global, a falta de práticas recomendadas e padrões de governança de dados consistentes também é um desafio-chave destacado pela Gartner. Essa lacuna resulta em fragmentação do mercado, forçando as empresas a desenvolver estratégias para regiões específicas, o que afeta sua capacidade de utilizar produtos e serviços de IA de forma eficaz em todo o mundo. Fritsch também observa: "A complexidade da gestão do fluxo de dados e os problemas de manutenção da qualidade devido às políticas de IA localizadas podem levar à baixa eficiência operacional."

Para proteger dados sensíveis e garantir a conformidade, as empresas precisam investir em governança e segurança de IA para lidar com esses riscos. A Gartner prevê que, até 2027, a governança de IA será um requisito universal em todo o mundo, especialmente no contexto de leis e regulamentos de IA soberana. As organizações que não integrarem os modelos de governança necessários a tempo enfrentarão desvantagens competitivas.

Para reduzir os riscos associados a vazamentos de dados de IA, a Gartner recomenda que as empresas adotem as seguintes estratégias: primeiro, fortalecer a governança de dados, incluindo o cumprimento de regulamentos internacionais e o monitoramento de transferências transfronteiriças acidentais de dados; segundo, estabelecer um comitê de governança para aumentar a transparência e a supervisão da implantação de IA e do processamento de dados; e terceiro, reforçar a segurança de dados, utilizando tecnologias avançadas, como criptografia e anonimização, para proteger informações sensíveis.

As empresas também são incentivadas a investir em produtos e capacidades de gerenciamento de confiança, risco e segurança (TRiSM) relacionados à tecnologia de IA. Isso inclui governança de IA, governança de segurança de dados, filtragem de prompts e ações de remediação, além da geração sintética de dados não estruturados. A Gartner prevê que, até 2026, as empresas que implementarem controles de TRiSM de IA reduzirão em pelo menos 50% as informações imprecisas, diminuindo assim o risco de decisões incorretas.

Destaques:

🔍 Mais de 40% dos vazamentos de dados de IA serão causados pelo mau uso da IA generativa.

🛡️ As empresas precisam fortalecer a governança de dados para garantir a conformidade e a segurança.

📈 O investimento em produtos de gerenciamento de confiança, risco e segurança relacionados à IA pode reduzir significativamente a geração de informações incorretas.