Con la creciente aplicación de los grandes modelos de lenguaje (LLM) en el ámbito de la productividad, también se hacen más evidentes los riesgos de seguridad asociados. Los ataques de inyección de prompts son un tipo de ataque adversarial que puede inducir a los LLM a generar contenido peligroso, representando una seria amenaza para la seguridad del sistema. Este artículo analiza en profundidad 12 estrategias de ataque de inyección de prompts y propone una solución para mejorar la seguridad de los LLM mediante el uso de conjuntos de datos de "red team". Cada usuario de internet debe mantenerse alerta y contribuir a la seguridad colectiva en línea.