Neueste Forschungsergebnisse zeigen eine kritische Sicherheitslücke in großen Sprachmodellen auf, die zur Offenlegung privater Informationen und gezielten Angriffen führen kann. Diese als „Modellparasitismus“ bezeichnete Angriffsmethode ermöglicht die kostengünstige Replikation von Modellen und deren erfolgreichen Transfer zwischen Closed-Source- und Open-Source-Machine-Learning-Modellen.
Obwohl große Sprachmodelle ein enormes Potenzial bieten, sollten Unternehmen die damit verbundenen Cybersicherheitsrisiken sorgfältig abwägen.