शोधकर्ताओं ने Hugging Face AI प्लेटफ़ॉर्म पर 100 दुर्भावनापूर्ण मशीन लर्निंग मॉडल पाए हैं, जो हमलावरों को उपयोगकर्ता की मशीन पर दुर्भावनापूर्ण कोड इंजेक्ट करने की अनुमति दे सकते हैं। दुर्भावनापूर्ण AI मॉडल PyTorch जैसी विधियों का उपयोग करके दुर्भावनापूर्ण कोड निष्पादित करते हैं, जिससे सुरक्षा जोखिम बढ़ता है। जोखिम को कम करने के लिए, AI डेवलपर्स को AI मॉडल की सुरक्षा बढ़ाने के लिए नए उपकरणों का उपयोग करना चाहिए। पाए गए दुर्भावनापूर्ण मॉडल उपयोगकर्ता वातावरण के लिए दुर्भावनापूर्ण AI मॉडल के जोखिम को उजागर करते हैं, जिसके लिए सतत सतर्कता और सुरक्षा को मजबूत करने की आवश्यकता है।
हगिंग फेस एआई प्लेटफ़ॉर्म पर 100 दुर्भावनापूर्ण कोड निष्पादन मॉडल का खुलासा
