हाल ही में, इंटरनेट वॉच फाउंडेशन (IWF) ने चेतावनी दी है कि कृत्रिम बुद्धिमत्ता (AI) द्वारा उत्पन्न बाल यौन शोषण चित्र (CSAM) के खुली नेटवर्क पर आने की घटनाएं बढ़ रही हैं और यह एक "संवेदनशील बिंदु" पर पहुँच गई हैं। इस सुरक्षा निगरानी संस्था ने बताया कि पिछले छह महीनों में, उन्होंने जो AI द्वारा बनाए गए अवैध सामग्री की संख्या पाई है, वह पिछले वर्ष के कुल से अधिक है।
चित्र स्रोत नोट: चित्र AI द्वारा उत्पन्न, चित्र अधिकार सेवा प्रदाता Midjourney
IWF के अस्थायी CEO डेरिक रे-हिल (Derek Ray-Hill) ने कहा कि इन चित्रों की जटिलता यह दर्शाती है कि उपयोग किए गए AI उपकरण संभवतः वास्तविक पीड़ितों की तस्वीरों और वीडियो पर आधारित हैं। उन्होंने बताया: "पिछले कुछ महीनों की स्थिति यह दर्शाती है कि यह समस्या कम नहीं हो रही है, वास्तव में यह और बढ़ रही है।" विश्लेषकों का कहना है कि AI द्वारा उत्पन्न सामग्री की स्थिति एक "संवेदनशील बिंदु" पर पहुँच गई है, जिससे सुरक्षा निगरानी संस्थाएं और अधिकारी यह तय करने में भ्रमित हो जाते हैं कि क्या कुछ चित्रों में वास्तविक बच्चों की मदद की आवश्यकता है।
पिछले छह महीनों में, IWF ने AI द्वारा उत्पन्न 74 बाल यौन शोषण सामग्री की रिपोर्टों पर कार्रवाई की है, जो पिछले वर्ष मार्च में 70 की तुलना में बढ़ी है। ध्यान देने योग्य बात यह है कि ये AI द्वारा उत्पन्न सामग्री मुख्य रूप से सार्वजनिक रूप से उपलब्ध नेटवर्क पर दिखाई देती है, न कि डार्क वेब पर। IWF ने बताया कि 50% से अधिक AI द्वारा उत्पन्न सामग्री रूस और अमेरिका के सर्वरों पर होस्ट की गई है, जबकि जापान और नीदरलैंड में भी कई संबंधित सामग्री है।
IWF ने रिपोर्टों को संभालते समय "डीपफेक" (deepfake) वीडियो के कुछ मामलों का पता लगाया, जिनमें वयस्क अश्लील सामग्री को बाल यौन शोषण सामग्री में बदल दिया गया था। इसके अलावा, कुछ AI उपकरणों का उपयोग सामान्य कपड़े पहने बच्चों की तस्वीरों को "नग्न" करने के लिए किया गया। संगठन ने यह भी कहा कि जनता द्वारा फोरम या AI गैलरी जैसे सार्वजनिक वेबसाइटों पर रिपोर्ट किए गए अवैध AI द्वारा उत्पन्न चित्रों में से 80% रिपोर्ट साधारण उपयोगकर्ताओं से आई हैं।
इस बीच, सोशल मीडिया प्लेटफॉर्म Instagram ने "सेक्सटॉर्शन" (sextortion) समस्या से निपटने के लिए नए उपायों की घोषणा की है। यह प्लेटफॉर्म एक नई सुविधा पेश करेगा, जो उपयोगकर्ताओं को निजी संदेशों में प्राप्त किसी भी नग्न चित्र को धुंधला करेगा और उपयोगकर्ताओं को चेतावनी देगा कि वे किसी भी नग्न चित्र वाले निजी संदेश भेजते समय सतर्क रहें। यह सुविधा डिफ़ॉल्ट रूप से सक्रिय है, किशोर खातों के लिए लागू है, और उपयोगकर्ताओं को धुंधले चित्र देखने का विकल्प चुनने की अनुमति देती है।
मुख्य बिंदु:
🔍 पिछले छह महीनों में, IWF ने पाया कि AI द्वारा उत्पन्न बाल यौन शोषण चित्रों की संख्या पिछले वर्ष के कुल से अधिक है, समस्या गंभीर होती जा रही है।
⚖️ AI द्वारा उत्पन्न चित्रों की जटिलता उच्च है, संभवतः यह वास्तविक पीड़ितों की जानकारी पर आधारित है, जिससे निगरानी संस्थाओं को पहचानने में कठिनाई होती है।
📱 Instagram ने नग्न चित्रों को धुंधला करने के लिए नई सुविधा शुरू की, जिससे उपयोगकर्ताओं को सेक्सटॉर्शन के जोखिमों से बचाने में मदद मिल सके।