Ausländische Internetnutzer haben eine völlig neue Jailbreak-Technik entdeckt, die mit Hilfe durcheinandergewürfelter Eingabeaufforderungen (Prompts) traditionelle Sicherheitsfilter umgeht und es ChatGPT ermöglicht, Ransomware zu generieren. Der Forscher Jim Fan zeigte sich überrascht, dass das GPT-Modell durcheinandergeworfene Wörter verstehen kann. Diese Technik nutzt die Fähigkeit des menschlichen Gehirns, auch ungeordnete Satzteile und Wörter zu verstehen, und hat erfolgreich einen Jailbreak ermöglicht, der die Aufmerksamkeit der Community auf sich gezogen hat.
Ein chaotischer Prompt lässt ChatGPT ausbrechen! Zufällig angeordnete Eingabeaufforderungen führen zur schnellen Erzeugung von Ransomware, Jim Fan ist verblüfft

新智元
43
© Alle Rechte vorbehalten AIbase-Basis 2024, klicken Sie hier, um die Quelle anzuzeigen - https://www.aibase.com/de/news/643