Des chercheurs de l'Université de Sheffield au Royaume-Uni ont fait une découverte inquiétante : des outils d'intelligence artificielle comme ChatGPT peuvent être manipulés pour générer du code malveillant, compromettant ainsi la sécurité des bases de données.
De nombreuses IA commerciales présentent des failles de sécurité. Une attaque réussie pourrait entraîner la fuite d'informations confidentielles stockées dans les bases de données et perturber leur fonctionnement normal.
Les chercheurs exhortent les utilisateurs à être conscients de ces risques potentiels et soulignent la nécessité de créer une nouvelle communauté pour garantir que les stratégies de cybersécurité suivent le rythme de l'évolution constante des menaces.
Certaines entreprises ont déjà adopté des mesures pour corriger ces failles de sécurité, mais le problème reste un sujet de préoccupation constant.