हालिया शोध ने बड़े भाषा मॉडल में महत्वपूर्ण खामियों का खुलासा किया है, जो निजी जानकारी के लीक और लक्षित हमलों का कारण बन सकती हैं। इस हमले के तरीके को "मॉडल परजीवी" कहा जाता है, जो कम लागत पर मॉडल की नकल करने और बंद स्रोत और ओपन-सोर्स मशीन लर्निंग मॉडल के बीच सफलतापूर्वक प्रसारित करने की अनुमति देता है। हालांकि बड़े भाषा मॉडल में विशाल संभावनाएँ हैं, कंपनियों को साइबर सुरक्षा जोखिमों पर गंभीरता से विचार करना चाहिए।