Mit der zunehmenden Verbreitung großer Sprachmodelle (LLMs) im Produktivitätsbereich werden auch die damit verbundenen Sicherheitsrisiken immer deutlicher. Prompt-Injection-Angriffe sind eine Art von gegnerischen Angriffen, die LLMs dazu verleiten können, gefährliche Inhalte zu generieren und so die Systemsicherheit ernsthaft zu gefährden. Dieser Artikel analysiert eingehend 12 gegnerische Prompt-Injection-Angriffsstrategien und schlägt vor, die Sicherheit von LLMs durch die Verwendung von Red-Team-Datensätzen zu verbessern. Jeder Internetnutzer sollte wachsam bleiben und gemeinsam für die Cybersicherheit sorgen.