Große Sprachmodelle wie ChatGPT speichern während ihres Trainings eine bestimmte Menge an ursprünglichen Trainingsdaten. Angreifer können durch spezielle Angriffsmethoden große Mengen an Trainingsdaten aus dem Modell extrahieren und so die Privatsphäre der Datenbesitzer gefährden. Forscher empfehlen, beim Entwickeln und Verwenden großer Sprachmodelle geeignete Datenschutzmaßnahmen zu ergreifen, um Datenlecks zu verhindern.
Risikoforschung zur Datenleckage bei ChatGPT-Trainingsdaten

AIGC开放社区
Dieser Artikel stammt aus dem AIbase-Tagesbericht
Willkommen im Bereich [KI-Tagesbericht]! Hier ist Ihr Leitfaden, um jeden Tag die Welt der künstlichen Intelligenz zu erkunden. Jeden Tag präsentieren wir Ihnen die Hotspots im KI-Bereich, konzentrieren uns auf Entwickler und helfen Ihnen, technologische Trends zu erkennen und innovative KI-Produktanwendungen zu verstehen.