Una investigación reciente ha revelado una vulnerabilidad crítica en los modelos de lenguaje extenso (LLM) que podría provocar la filtración de información privada y ataques dirigidos. Este método de ataque, denominado "parasitismo del modelo", permite la replicación de modelos a bajo coste y su transferencia exitosa entre modelos de aprendizaje automático de código abierto y de código cerrado.
A pesar del enorme potencial de los modelos de lenguaje extenso, las empresas deben considerar seriamente los riesgos para la ciberseguridad.