Ces dernières années, le développement rapide de l'intelligence artificielle (IA) a offert de nombreuses opportunités aux entreprises, mais parallèlement, ses menaces potentielles sont de plus en plus apparentes. Selon le dernier rapport sur les risques de nouvelle génération de 2024, une enquête révèle qu'un nombre impressionnant de 80 % des entreprises interrogées n'ont pas encore élaboré de plan d'action spécifique pour les risques liés à l'IA générative, notamment les menaces de sécurité telles que les escroqueries en ligne pilotées par l'IA.
Cette enquête a été menée par Riskconnect, une société de logiciels de gestion des risques, auprès de 218 professionnels mondiaux de la conformité et de la résilience des risques. Les résultats montrent que 24 % des personnes interrogées estiment que les menaces de cybersécurité pilotées par l'IA (telles que les ransomwares, le phishing et les deepfakes) auront un impact significatif sur les entreprises au cours des 12 prochains mois. Simultanément, 72 % des répondants ont déclaré que les risques de cybersécurité ont eu un impact significatif ou grave sur leur organisation, une augmentation par rapport aux 47 % de l'année dernière.
Avec l'intensification des préoccupations concernant l'éthique, la confidentialité et la sécurité de l'IA, le rapport souligne que, bien que les entreprises soient de plus en plus préoccupées par l'IA, leurs stratégies de gestion des risques n'ont pas suivi le rythme, laissant de nombreuses lacunes importantes. Par exemple, 65 % des entreprises n'ont pas de politique concernant l'utilisation de l'IA générative par leurs partenaires et fournisseurs, bien que les tiers soient des points d'entrée fréquemment utilisés par les escrocs en ligne.
Les menaces internes sont également à prendre au sérieux. Prenons l'exemple des entreprises utilisant l'IA générative pour créer du contenu marketing. Anthony Miyazaki, expert en marketing, rappelle que même si l'IA générative excelle dans la rédaction de textes, le texte final doit toujours être édité par un humain pour garantir sa persuasion et son exactitude. De plus, la dépendance à l'IA pour générer du contenu de site Web peut avoir des conséquences négatives. Google, par exemple, a clairement indiqué que l'utilisation de contenu généré par l'IA pour manipuler les résultats de recherche entraînerait une baisse de son classement dans les résultats de recherche, ce qui aurait un impact négatif important sur le référencement (SEO) des entreprises.
Pour relever ces défis, les entreprises doivent s'assurer que leurs politiques internes sont complètes, qu'elles protègent les données sensibles et qu'elles respectent les réglementations en vigueur. John Skimoni, responsable de la sécurité chez Dell Technologies, explique que son entreprise a établi des principes avant même le boom de l'IA générative, afin de garantir que le développement des applications d'IA soit équitable, transparent et responsable.
Chez Empathy First Media, une agence de marketing numérique, Ryan Dosser, vice-président, souligne également les mesures strictes prises par l'entreprise concernant l'utilisation de l'IA par ses employés, notamment l'interdiction de saisir des données sensibles des clients dans les outils d'IA générative et l'obligation de réviser manuellement le contenu généré par l'IA. Ces mesures visent à améliorer la transparence et à renforcer la confiance des clients.
Points clés :
🌐 80 % des entreprises n'ont pas de plan spécifique pour les risques liés à l'IA générative et sont confrontées à des menaces de sécurité potentielles.
🔒 72 % des entreprises estiment que les risques de cybersécurité ont un impact significatif sur leurs activités, appelant à un renforcement de la gestion des risques.
📈 Les entreprises doivent prendre des mesures proactives pour garantir la sécurité et la conformité des applications d'IA et éviter les menaces internes et externes.