Com a ampla aplicação de modelos de linguagem grandes (LLMs) na área de produtividade, os riscos de segurança associados a eles também se tornaram cada vez mais evidentes. Ataques de prompt são um tipo de ataque adversário que pode induzir LLMs a gerar conteúdo perigoso, representando uma séria ameaça à segurança do sistema. Este artigo analisa profundamente 12 estratégias de ataque de prompt adversário e propõe uma solução para melhorar a segurança do LLM usando conjuntos de dados de equipe vermelha (red team). Cada usuário da internet deve manter-se vigilante e trabalhar em conjunto para manter a segurança online.