Große Sprachmodelle wie ChatGPT speichern während ihres Trainings eine bestimmte Menge an ursprünglichen Trainingsdaten. Angreifer können durch spezielle Angriffsmethoden große Mengen an Trainingsdaten aus dem Modell extrahieren und so die Privatsphäre der Datenbesitzer gefährden. Forscher empfehlen, beim Entwickeln und Verwenden großer Sprachmodelle geeignete Datenschutzmaßnahmen zu ergreifen, um Datenlecks zu verhindern.