ब्रिटेन के शेफील्ड विश्वविद्यालय के शोधकर्ताओं ने एक चिंताजनक खोज का खुलासा किया है: ChatGPT जैसे कृत्रिम बुद्धिमत्ता उपकरणों को हानिकारक कोड उत्पन्न करने के लिए हेरफेर किया जा सकता है, जिससे डेटाबेस की सुरक्षा को खतरा होता है। कई व्यावसायिक एआई उपकरणों में सुरक्षा कमजोरियाँ हैं, और सफल हमले के परिणामस्वरूप गोपनीय डेटाबेस जानकारी का लीक होना और डेटाबेस की सामान्य सेवाओं का विघटन हो सकता है। शोधकर्ताओं ने उपयोगकर्ताओं को संभावित खतरों के प्रति सचेत रहने की सलाह दी है और जोर देकर कहा है कि नई समुदायों की स्थापना की आवश्यकता है ताकि साइबर सुरक्षा नीतियों को लगातार बढ़ती हुई खतरों के विकास के साथ समन्वयित किया जा सके। कुछ कंपनियों ने सुरक्षा कमजोरियों को ठीक करने के लिए सुझावों को अपनाया है, लेकिन इस समस्या पर निरंतर ध्यान देने की आवश्यकता है।
अनुसंधान में पाया गया कि ChatGPT में दुर्भावनापूर्ण कोड हेरफेर का जोखिम है
