ChatGPT等大型语言模型在训练过程中会记住一定数量的原始训练数据,攻击者可以通过特定的攻击方法,从模型中提取大量训练数据,威胁数据所有者的隐私。研究人员建议开发和使用大型语言模型时,应做好数据安全保护措施,防止数据泄漏。