De nouvelles recherches révèlent une faille critique dans les grands modèles de langage, susceptible d'entraîner des fuites d'informations privées et des attaques ciblées. Cette méthode d'attaque, appelée "parasitisme du modèle", permet de reproduire le modèle à faible coût et de le transférer avec succès entre modèles d'apprentissage automatique open source et propriétaires.

Malgré l'énorme potentiel des grands modèles de langage, les entreprises doivent sérieusement prendre en compte les risques liés à la cybersécurité.