Une faille de sécurité découverte dans le modèle GPT-3.5-turbo d'OpenAI

Une récente étude de Google a révélé une méthode efficace et peu coûteuse (environ 150 yuans) pour attaquer le modèle OpenAI GPT-3.5-turbo. L'attaque, simple et efficace, permet d'obtenir des informations cruciales en moins de 2000 requêtes API.

Cette expérience met en évidence la vulnérabilité même des grands modèles de langage aux menaces de sécurité. OpenAI a déjà pris des mesures pour modifier l'API du modèle afin de prévenir de futures attaques.