IBM के शोध से पता चला है कि बड़े भाषा मॉडल जैसे GPT-4 को धोखा देकर आसानी से दुर्भावनापूर्ण कोड उत्पन्न किया जा सकता है या गलत सुरक्षा सुझाव दिए जा सकते हैं। शोधकर्ताओं ने पाया कि केवल अंग्रेजी के मूल ज्ञान और मॉडल के प्रशिक्षण डेटा के कुछ पृष्ठभूमि ज्ञान के साथ AI चैटबॉट को आसानी से धोखा दिया जा सकता है। विभिन्न AI मॉडल धोखे के प्रति संवेदनशीलता में भिन्नता दिखाते हैं, जिसमें GPT-3.5 और GPT-4 को धोखा देना अधिक आसान है। इन नए पाए गए कमजोरियों का बड़े भाषा मॉडल के लिए खतरे का स्तर मध्यम है, लेकिन यदि हैकर इन मॉडलों को इंटरनेट पर जारी करते हैं, तो चैटबॉट का उपयोग खतरनाक सुरक्षा सुझाव देने या उपयोगकर्ताओं की व्यक्तिगत जानकारी इकट्ठा करने के लिए किया जा सकता है।
आईबीएम अनुसंधान: एआई चैटबॉट्स को दुर्भावनापूर्ण कोड उत्पन्न करने के लिए आसानी से धोखा दिया जा सकता है
