IBM के शोध से पता चलता है कि लोग बड़े भाषा मॉडल जैसे GPT-4 को आसानी से धोखा देकर दुर्भावनापूर्ण कोड उत्पन्न कर सकते हैं या झूठी सुरक्षा सलाह दे सकते हैं। शोधकर्ताओं ने पाया कि हैकर्स को केवल अंग्रेजी का बुनियादी ज्ञान और मॉडल प्रशिक्षण डेटा के बारे में जानकारी होने से ही AI चैटबॉट को आसानी से धोखा दिया जा सकता है, जिससे वह झूठी जानकारी प्रदान करे या दुर्भावनापूर्ण कोड उत्पन्न करे। शोध में यह भी पाया गया कि विभिन्न AI मॉडल धोखे के प्रति अलग-अलग संवेदनशील होते हैं, GPT-3.5 और GPT-4 को धोखा देना आसान है, जबकि Google का Bard और Hugging Face मॉडल धोखा देने में मुश्किल हैं। यह शोध बड़े भाषा मॉडल की सुरक्षा कमजोरियों को उजागर करता है, जिसका उपयोग हैकर्स उपयोगकर्ताओं की व्यक्तिगत जानकारी प्राप्त करने या खतरनाक सुरक्षा सलाह देने के लिए कर सकते हैं।
IBM के शोध के अनुसार, AI चैटबॉट को बेवकूफ बनाना बहुत आसान है
