Selon une récente analyse de Gartner, plus de 40 % des fuites de données liées à l'intelligence artificielle (IA) proviendront d'une mauvaise utilisation de l'intelligence artificielle générative (IA générative) d'ici 2027. Avec la rapide adoption de la technologie de l'IA générative, les entreprises et les organisations sont confrontées à des défis importants en matière de gouvernance et de sécurité des données. Ce problème est particulièrement crucial dans le contexte de la localisation des données, car ces technologies nécessitent une puissance de calcul importante et centralisée.

Développeur, hacker, faille de sécurité, fuite de données, sécurité

Joerg Fritsch, vice-président et analyste chez Gartner, souligne que les organisations intègrent souvent les outils d'IA générative sans surveillance suffisante, ce qui entraîne des transferts de données transfrontaliers accidentels. Il précise : « Si les employés envoient des invites sensibles en utilisant des outils et des API d'IA générative hébergés à des emplacements inconnus, cela crée des risques pour la sécurité. » Bien que ces outils puissent être utilisés pour des applications commerciales approuvées, les risques de sécurité potentiels ne doivent pas être négligés.

L'absence de pratiques exemplaires et de normes de gouvernance des données cohérentes à l'échelle mondiale est également un défi majeur soulevé par Gartner. Ce manque crée une fragmentation du marché, obligeant les entreprises à élaborer des stratégies spécifiques à chaque région, ce qui nuit à leur capacité à utiliser efficacement les produits et services d'IA à l'échelle mondiale. Fritsch ajoute : « La complexité de la gestion des flux de données et les problèmes de maintien de la qualité liés aux politiques d'IA locales peuvent entraîner une baisse de l'efficacité opérationnelle. »

Pour protéger les données sensibles et assurer la conformité, les entreprises doivent investir dans la gouvernance et la sécurité de l'IA afin de faire face à ces risques. Gartner prévoit une exigence généralisée de gouvernance de l'IA à l'échelle mondiale d'ici 2027, notamment dans le cadre des lois et réglementations sur l'IA souveraine. Les organisations qui ne mettront pas en place les modèles de gouvernance nécessaires à temps seront désavantagées sur le plan concurrentiel.

Pour réduire les risques liés aux fuites de données liées à l'IA, Gartner recommande aux entreprises d'adopter les stratégies suivantes : premièrement, renforcer la gouvernance des données, notamment en respectant les réglementations internationales et en surveillant les transferts de données transfrontaliers accidentels ; deuxièmement, créer un comité de gouvernance pour améliorer la transparence et la surveillance du déploiement de l'IA et du traitement des données ; et enfin, renforcer la sécurité des données en utilisant des technologies de pointe telles que le chiffrement et l'anonymisation pour protéger les informations sensibles.

Les entreprises sont également encouragées à investir dans des produits et des capacités de gestion des risques, de la confiance et de la sécurité (TRiSM) liés à la technologie de l'IA. Cela comprend la gouvernance de l'IA, la gouvernance de la sécurité des données, le filtrage des invites et les actions correctives, ainsi que la génération synthétique de données non structurées. Gartner prévoit que d'ici 2026, les entreprises qui mettront en œuvre des contrôles AI TRiSM réduiront d'au moins 50 % les informations inexactes, réduisant ainsi le risque de mauvaises décisions.

Points clés :

🔍 Plus de 40 % des fuites de données liées à l'IA seront causées par une mauvaise utilisation de l'IA générative.

🛡️ Les entreprises doivent renforcer la gouvernance des données pour assurer la conformité et la sécurité.

📈 Investir dans des produits de gestion des risques, de la confiance et de la sécurité liés à l'IA peut considérablement réduire la production d'informations erronées.