Una investigación de IBM demuestra que es sorprendentemente fácil engañar a grandes modelos de lenguaje como GPT-4 para generar código malicioso o proporcionar consejos de seguridad falsos. Los investigadores descubrieron que solo se necesitan conocimientos básicos de inglés y un poco de información sobre los datos de entrenamiento del modelo para engañar fácilmente a los chatbots de IA.
La susceptibilidad al engaño varía entre los diferentes modelos de IA, siendo GPT-3.5 y GPT-4 los más vulnerables. Si bien la gravedad de estas vulnerabilidades recién descubiertas para los grandes modelos de lenguaje se considera moderada, la posibilidad de que los hackers liberen estos modelos en internet plantea una preocupación significativa. Los chatbots podrían utilizarse para ofrecer consejos de seguridad peligrosos o recopilar información personal de los usuarios.