Une récente étude révèle que 63 % des responsables de la sécurité informatique dans le monde envisagent d'interdire à leurs équipes de développement l'utilisation d'intelligence artificielle pour générer du code. Ce phénomène suscite une vive inquiétude, notamment au sein du secteur technologique. Bien que la popularisation de l'IA soit perçue comme une aide pour les développeurs dans les tâches fastidieuses, les experts en sécurité restent sceptiques.

Hacker, code, programmeur

Source : Image générée par IA, fournisseur : Midjourney

Selon une enquête de Venafi, 92 % des décideurs expriment des préoccupations quant à l'utilisation de l'IA pour générer du code au sein de leur entreprise, principalement en raison de doutes sur la qualité de la production. Ils estiment que les modèles d'IA sont potentiellement entraînés sur des bibliothèques open source obsolètes, conduisant à un code de qualité inférieure. De plus, les développeurs pourraient devenir trop dépendants de ces outils, négligeant ainsi la qualité du code.

Les responsables de la sécurité estiment généralement que le contrôle qualité du code généré par l'IA est moins rigoureux que celui du code écrit par des humains. Ils craignent que les développeurs se sentent moins responsables des résultats des modèles d'IA et, par conséquent, effectuent des revues de code moins approfondies. Tariq Shaukat, PDG de Sonar, mentionne que de plus en plus d'entreprises utilisant l'IA pour générer du code rencontrent des pannes et des problèmes de sécurité, principalement dus à un manque de revue de code adéquate.

Le rapport de Venafi montre que malgré les nombreuses inquiétudes des experts en sécurité concernant le codage par IA, 83 % des organisations utilisent toujours l'IA pour le développement de code. Plus de la moitié d'entre elles l'ont même intégrée à leurs pratiques habituelles. Bien que de nombreuses entreprises envisagent d'interdire l'assistance au codage par IA, 72 % des responsables de la sécurité estiment que cette pratique doit être autorisée pour rester compétitives. Selon Gartner, d'ici 2028, 90 % des ingénieurs logiciels d'entreprise utiliseront des assistants de codage IA, augmentant ainsi leur productivité.

De plus, le rapport indique qu'environ 66 % des personnes interrogées déclarent être incapables de réglementer efficacement l'utilisation sécurisée de l'IA au sein de leur organisation, faute de visibilité suffisante. Les responsables de la sécurité s'inquiètent des failles potentielles : 59 % ressentent de l'anxiété à ce sujet, et près de 80 % estiment que la prolifération du code IA entraînera une augmentation des problèmes de sécurité, obligeant les entreprises à reconsidérer leurs mesures de gestion.

Points clés :

🔍 63 % des responsables de la sécurité informatique mondiale envisagent d'interdire l'utilisation de l'IA pour générer du code, principalement en raison de préoccupations concernant la qualité de la production et la sécurité.

⚠️ 92 % des décideurs sont préoccupés par l'utilisation du code IA, estimant que les développeurs ne vérifient pas suffisamment le code généré par l'IA.

📈 Malgré de sérieuses préoccupations en matière de sécurité, 83 % des organisations utilisent toujours l'IA pour le développement de code afin de rester compétitives.