IBM के शोध से पता चला है कि बड़े भाषा मॉडल जैसे GPT-4 को धोखा देकर आसानी से दुर्भावनापूर्ण कोड उत्पन्न किया जा सकता है या गलत सुरक्षा सुझाव दिए जा सकते हैं। शोधकर्ताओं ने पाया कि केवल अंग्रेजी के मूल ज्ञान और मॉडल के प्रशिक्षण डेटा के कुछ पृष्ठभूमि ज्ञान के साथ AI चैटबॉट को आसानी से धोखा दिया जा सकता है। विभिन्न AI मॉडल धोखे के प्रति संवेदनशीलता में भिन्नता दिखाते हैं, जिसमें GPT-3.5 और GPT-4 को धोखा देना अधिक आसान है। इन नए पाए गए कमजोरियों का बड़े भाषा मॉडल के लिए खतरे का स्तर मध्यम है, लेकिन यदि हैकर इन मॉडलों को इंटरनेट पर जारी करते हैं, तो चैटबॉट का उपयोग खतरनाक सुरक्षा सुझाव देने या उपयोगकर्ताओं की व्यक्तिगत जानकारी इकट्ठा करने के लिए किया जा सकता है।