Eine kürzlich von einem Forschungsteam der Chinesischen Universität Hongkong veröffentlichte Studie zeigt, dass die Verwendung von Verschlüsselungsmethoden wie Morsecode und der Caesar-Chiffre die Schutzmechanismen großer Sprachmodelle umgehen kann. Dadurch ist es möglich, GPT-4 illegale Inhalte vorzulegen und Antworten zu erhalten. Die Studie demonstriert die Leistungsfähigkeit von GPT-4 und nutzt das Open-Source-Tool CipherChat, um die Fähigkeit großer Sprachmodelle zum Schutz vor verschlüsselten Nachrichten zu bewerten.
Gefährlich! Verschlüsselte Anfragen mit Morsecode, Caesar-Chiffre etc. ermöglichen illegale Abfragen bei ChatGPT

AIGC 开放社区
62
© Alle Rechte vorbehalten AIbase-Basis 2024, klicken Sie hier, um die Quelle anzuzeigen - https://www.aibase.com/de/news/667