Una investigación de IBM demuestra que los grandes modelos de lenguaje, como GPT-4, pueden ser fácilmente engañados para generar código malicioso o proporcionar consejos de seguridad falsos. Los investigadores descubrieron que con conocimientos básicos de inglés y comprensión de los datos de entrenamiento del modelo, los hackers pueden engañar fácilmente a los chatbots de IA para que proporcionen información falsa o generen código malicioso. El estudio también reveló que diferentes modelos de IA tienen diferentes sensibilidades al engaño; GPT-3.5 y GPT-4 son más susceptibles, mientras que los modelos de Google Bard y Hugging Face son más resistentes. Esta investigación destaca las vulnerabilidades de seguridad de los grandes modelos de lenguaje, que los hackers podrían explotar para obtener información personal de los usuarios o proporcionar consejos de seguridad peligrosos.