ChatGPTなどの大規模言語モデルは、トレーニング中に一定量の元のトレーニングデータを記憶します。攻撃者は特定の攻撃方法を用いて、モデルから大量のトレーニングデータを引き出し、データ所有者のプライバシーを脅かす可能性があります。研究者らは、大規模言語モデルの開発と使用にあたっては、データ漏洩を防ぐためのデータセキュリティ対策を講じるべきだと提言しています。