Selon un récent rapport de Gartner, l'utilisation de l'intelligence artificielle (IA) dans les cyberattaques représente le principal risque pour les entreprises depuis trois trimestres consécutifs.

Ce cabinet de conseil a interrogé 286 hauts responsables de la gestion des risques et de l'audit entre juillet et septembre. Les résultats révèlent que 80 % des répondants expriment de vives inquiétudes concernant les attaques malveillantes augmentées par l'IA. Cette tendance n'est pas surprenante, étant donné les preuves de la croissance des cyberattaques utilisant l'IA.

Hacker, cyberattaque, code

Source : Image générée par IA, fournie par Midjourney

Le rapport mentionne également d'autres risques émergents, notamment la désinformation assistée par l'IA, la polarisation politique croissante et les inadéquations des ressources humaines au sein des organisations. Les attaquants utilisent l'IA pour créer des logiciels malveillants, rédiger des e-mails de phishing, etc. Par exemple, HP a intercepté en juin une campagne de diffusion de logiciels malveillants dont le script semblait avoir été rédigé à l'aide d'une IA générative. La structure du script était claire, chaque commande étant annotée, ce qui est rare dans le cas d'une rédaction manuelle.

Selon Vipre, une société de sécurité, le nombre d'attaques de fraude par e-mail commercial a augmenté de 20 % au deuxième trimestre 2023 par rapport à la même période de l'année précédente, près de la moitié étant générées par l'IA. Les PDG, les responsables des RH et les informaticiens sont les principales cibles. Usman Choudhary, directeur principal des produits et de la technologie chez Vipre, explique que les cybercriminels utilisent des algorithmes d'IA sophistiqués pour créer des e-mails de phishing convaincants, imitant le ton et le style des communications légitimes.

De plus, selon un rapport d'Imperva Threat Research, entre avril et septembre, les sites de commerce en ligne ont subi en moyenne 569 884 attaques pilotées par l'IA par jour. Les chercheurs soulignent que des outils comme ChatGPT, Claude et Gemini, ainsi que des robots conçus pour extraire des données de sites web afin d'entraîner de grands modèles linguistiques, sont utilisés pour des attaques par déni de service distribué et des abus de logique métier.

Un nombre croissant de hackers éthiques admettent également utiliser l'IA générative, passant de 64 % l'année dernière à 77 %. Ces chercheurs indiquent que l'IA peut faciliter les attaques multicanaux, les attaques par injection de pannes et les attaques automatisées, permettant ainsi de cibler simultanément plusieurs appareils. Ainsi, si les « bons » trouvent l'IA utile, les « méchants » l'utiliseront de la même manière.

L'essor de l'IA n'est pas surprenant, car elle abaisse le seuil d'entrée dans la cybercriminalité, permettant même aux criminels moins expérimentés de créer des deepfakes, de scanner les failles de sécurité et d'effectuer des opérations de reconnaissance grâce à l'IA. Des chercheurs de l'École polytechnique fédérale de Zurich ont récemment développé un modèle capable de résoudre à 100 % le problème de Google reCAPTCHA v2. Début d'année, des analystes de la société de sécurité Radware avaient prédit que l'émergence de modèles GPT privés serait utilisée à des fins malveillantes, entraînant une augmentation du nombre de failles de sécurité dites « zero-day » et d'escroqueries par deepfakes.

Gartner souligne également que les problèmes liés aux fournisseurs informatiques clés figurent pour la première fois sur la liste des préoccupations des dirigeants. Zachary Ginsburg, directeur principal de la pratique Risques et Audit chez Gartner, explique que les clients qui dépendent fortement d'un seul fournisseur peuvent être exposés à des risques plus élevés. Comme l'illustre l'incident dStrike de juillet, qui a paralysé 8,5 millions d'ordinateurs Windows dans le monde, impactant gravement les services d'urgence, les aéroports et les forces de l'ordre.