Une étude récente a révélé que des robots conversationnels alimentés par l'intelligence artificielle sont capables de réussir des examens de hacker éthique certifié, mais les chercheurs mettent en garde contre une dépendance exclusive à ces outils pour la cybersécurité. Cette étude, menée par le chercheur Prasad Calyam de l'Université du Missouri et ses collaborateurs de l'Université Amrita en Inde, a testé deux outils de génération d'IA de pointe : ChatGPT d'OpenAI et Bard (désormais Gemini) de Google.
Source : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney
Un hacker éthique certifié est un professionnel de la cybersécurité qui utilise les mêmes techniques et outils que les hackers malveillants pour détecter et corriger les failles de sécurité. Ces examens évaluent la connaissance des différents types d'attaques et la capacité à protéger les systèmes et à répondre aux failles de sécurité.
Dans le cadre de l'étude, Calyam et son équipe ont utilisé des questions standard d'examens de hacker éthique certifié pour tester ces robots. Par exemple, ils ont mis les outils d'IA au défi d'expliquer une attaque de type « homme du milieu », une attaque où un tiers intercepte les communications entre deux systèmes. L'étude a révélé que ChatGPT et Bard étaient capables d'expliquer ce type d'attaque et de proposer des mesures de prévention.
Les chercheurs ont constaté que Bard était légèrement meilleur que ChatGPT en termes de précision, tandis que ChatGPT excellait en termes de globalité, de clarté et de concision du contenu.
Le professeur Calyam souligne que si ces outils peuvent fournir une aide rapide aux particuliers ou aux petites entreprises, ils ne peuvent pas remplacer les experts humains en cybersécurité qui possèdent une expérience en résolution de problèmes et peuvent mettre en place des mesures de cybersécurité plus robustes.
Bien que les modèles d'IA montrent un potentiel dans le domaine du hacking éthique, les chercheurs estiment que des efforts supplémentaires sont nécessaires pour exploiter pleinement leurs capacités et garantir leur exactitude afin d'améliorer la cybersécurité globale.
Points clés :
🤖 Robots conversationnels IA réussissent les examens : Une étude de l'Université du Missouri et de l'Université Amrita montre que les robots conversationnels IA peuvent réussir les examens de hacker éthique.
🔒 Rôle du hacker éthique : Les hackers éthiques utilisent les mêmes techniques et outils que les hackers malveillants pour détecter et corriger les failles de sécurité.
📝 Limitations des outils IA : Bien que les robots conversationnels IA aient bien performé lors des tests, ils ne peuvent pas entièrement remplacer le travail des experts humains dans le domaine de la cybersécurité.