Une étude d'IBM révèle qu'il est facile de tromper les grands modèles linguistiques comme GPT-4 pour générer du code malveillant ou fournir de faux conseils de sécurité. Les chercheurs ont constaté qu'une simple connaissance de base de l'anglais et des données d'entraînement du modèle suffisait à tromper facilement les robots conversationnels IA.
La sensibilité à la tromperie varie selon les modèles d'IA, GPT-3.5 et GPT-4 étant les plus vulnérables. Le niveau de menace posé par ces failles nouvellement découvertes pour les grands modèles linguistiques est considéré comme modéré. Cependant, si des pirates mettent ces modèles à disposition sur internet, les robots conversationnels pourraient être utilisés pour fournir des conseils de sécurité dangereux ou collecter des informations personnelles des utilisateurs.