Recentemente, a Deloitte publicou um relatório que destaca a importância da privacidade de dados na inteligência artificial generativa (IA Generativa). De acordo com a pesquisa, a preocupação dos profissionais com a privacidade de dados aumentou significativamente, saltando de 22% em 2023 para 72% em 2024. Isso indica uma crescente conscientização sobre os riscos potenciais à medida que a tecnologia avança.
Nota da imagem: Imagem gerada por IA, provedor de serviços de licenciamento de imagens Midjourney
Além da privacidade de dados, a transparência e a origem dos dados também são pontos focais de preocupação, com 47% e 40% dos profissionais, respectivamente, incluindo essas questões em suas listas de preocupações. Em comparação, apenas 16% expressaram preocupação com a perda de empregos. A pesquisa mostra que os funcionários estão cada vez mais curiosos sobre como a tecnologia de IA funciona, especialmente quando se trata de dados sensíveis. Um estudo da HackerOne também mostrou que quase metade dos profissionais de segurança considera a IA arriscada, com muitos citando dados de treinamento vazados como uma grande ameaça.
O relatório da Deloitte também menciona que 78% dos líderes empresariais consideram "segurança e proteção" como um de seus três principais princípios éticos de tecnologia, um aumento de 37% em relação a 2023. Isso demonstra a crescente importância das questões de segurança. Cerca de metade dos entrevistados disse que as tecnologias cognitivas, como IA e IA Generativa, representam o maior risco ético entre as tecnologias emergentes, especialmente com eventos de segurança de IA de alto perfil recebendo mais atenção. Por exemplo, o ChatGPT da OpenAI vazou dados pessoais de cerca de 1,2% dos usuários do ChatGPT Plus devido a uma falha, incluindo nomes, endereços de e-mail e algumas informações de pagamento.
Com o aumento do uso de IA generativa pelos funcionários no trabalho, a pesquisa da Deloitte mostra que a porcentagem de profissionais usando internamente essa tecnologia aumentou 20% em relação ao ano anterior. No entanto, muitas empresas ainda estão em fase piloto, com apenas 12% dos entrevistados relatando uso generalizado da tecnologia. Ao mesmo tempo, os tomadores de decisão desejam garantir que o uso da IA não viole leis e regulamentos. Portanto, 34% dos entrevistados citaram a conformidade como a principal razão para estabelecer políticas e diretrizes éticas de tecnologia.
O Ato da UE sobre IA entrou em vigor em 1º de agosto deste ano, estabelecendo requisitos rigorosos para sistemas de IA de alto risco para garantir sua segurança, transparência e uso ético. A não conformidade pode resultar em multas de até € 35 milhões ou 7% do faturamento. Muitas empresas, incluindo Amazon, Google, Microsoft e OpenAI, já assinaram o Pacto de IA da UE para antecipar os requisitos da lei e demonstrar seu compromisso com a implantação responsável da IA.
Destaques:
- 🔒 A privacidade de dados tornou-se a principal preocupação com a IA generativa em 2024, com um aumento de 22% para 72%.
- 📈 78% dos líderes empresariais consideram "segurança e proteção" como um de seus três principais princípios éticos de tecnologia, destacando a importância da segurança.
- ⚖️ A implementação do Ato da UE sobre IA tem um impacto profundo, levando as empresas a fazer os ajustes e a garantir a conformidade necessários no uso da IA.