बड़े भाषा मॉडल के उत्पादकता के क्षेत्र में व्यापक उपयोग के साथ, इसके सामने सुरक्षा जोखिम भी बढ़ते जा रहे हैं। संकेत शब्द हमले एक प्रतिकूलता हमला तकनीक है, जो LLM को खतरनाक सामग्री उत्पन्न करने के लिए प्रेरित कर सकती है, जिससे सिस्टम की सुरक्षा पर गंभीर खतरा पैदा होता है। इस लेख में 12 प्रकार की प्रतिकूलता संकेत शब्द हमले की रणनीतियों का गहराई से विश्लेषण किया गया है, और LLM की सुरक्षा को बढ़ाने के लिए लाल टीम डेटा सेट का उपयोग करने के सुझाव दिए गए हैं। हर इंटरनेट उपयोगकर्ता को सतर्क रहना चाहिए और सामूहिक रूप से साइबर सुरक्षा बनाए रखनी चाहिए।