Neue Jailbreak-Technik für ChatGPT entdeckt

Ausländische Internetnutzer haben eine völlig neue Jailbreak-Technik entdeckt, die mit Hilfe durcheinandergewürfelter Eingabeaufforderungen (Prompts) traditionelle Sicherheitsfilter umgeht und es ChatGPT ermöglicht, Ransomware zu generieren. Der Forscher Jim Fan zeigte sich überrascht, dass das GPT-Modell durcheinandergeworfene Wörter verstehen kann. Diese Technik nutzt die Fähigkeit des menschlichen Gehirns, auch ungeordnete Satzteile und Wörter zu verstehen, und hat erfolgreich einen Jailbreak ermöglicht, der die Aufmerksamkeit der Community auf sich gezogen hat.