Des recherches d'IBM montrent que les grands modèles linguistiques comme GPT-4 peuvent être facilement trompés pour générer du code malveillant ou fournir de faux conseils de sécurité. Les chercheurs ont découvert que des pirates informatiques, avec seulement des connaissances de base en anglais et une compréhension des données d'entraînement du modèle, peuvent facilement tromper les robots conversationnels IA pour qu'ils fournissent de fausses informations ou génèrent du code malveillant. L'étude a également révélé que différents modèles d'IA ont des sensibilités différentes à la tromperie : GPT-3.5 et GPT-4 sont plus facilement trompés, tandis que les modèles Google Bard et Hugging Face sont plus résistants. Cette recherche met en lumière les failles de sécurité des grands modèles linguistiques, que les pirates pourraient exploiter pour obtenir des informations personnelles des utilisateurs ou fournir des conseils de sécurité dangereux.
Selon une étude d'IBM, les chatbots d'IA sont facilement trompés
