Los grandes modelos de lenguaje, como ChatGPT, memorizan una cierta cantidad de datos de entrenamiento originales durante su proceso de entrenamiento. Los atacantes pueden utilizar métodos específicos para extraer una gran cantidad de datos de entrenamiento de estos modelos, lo que amenaza la privacidad de los propietarios de los datos. Los investigadores recomiendan que, al desarrollar y utilizar grandes modelos de lenguaje, se tomen medidas de protección de datos para prevenir fugas de información.
Estudio de riesgos de filtración de datos de entrenamiento de ChatGPT
