ChatGPT जैसे बड़े भाषा मॉडल प्रशिक्षण के दौरान कुछ मात्रा में मूल प्रशिक्षण डेटा को याद रखते हैं, हमलावर विशिष्ट हमलावर तरीकों के माध्यम से मॉडल से बड़ी मात्रा में प्रशिक्षण डेटा निकाल सकते हैं, जो डेटा मालिकों की गोपनीयता के लिए खतरा बनता है। शोधकर्ताओं का सुझाव है कि बड़े भाषा मॉडल के विकास और उपयोग के दौरान, डेटा सुरक्षा उपायों को लागू किया जाना चाहिए ताकि डेटा लीक से बचा जा सके।
ChatGPT डेटा रिसाव जोखिम अध्ययन
