हाल ही में, एक ध्यान आकर्षित करने वाला मामला ब्रिटेन में व्यापक ध्यान का कारण बना। एक 27 वर्षीय पुरुष ह्यू・नेल्सन (Hugh Nelson) को बच्चों की सामान्य तस्वीरों को यौन शोषण के चित्रों में बदलने के लिए कृत्रिम बुद्धिमत्ता का उपयोग करने के लिए 18 साल की सजा सुनाई गई।
चित्र स्रोत नोट: चित्र AI द्वारा उत्पन्न, चित्र लाइसेंस सेवा प्रदाता Midjourney
नेल्सन बोल्टन से हैं, उन्होंने Daz3D नामक एक एप्लिकेशन का उपयोग किया, जिससे उन्होंने 3D "पात्र" बनाए, जो निर्दोष बच्चों की तस्वीरों पर आधारित थे।
चौंकाने वाली बात यह है कि नेल्सन अकेले नहीं थे, उन्होंने दूसरों से委托 की गई छवियों को भी प्राप्त किया। कुछ लोग तो अपने बच्चों की तस्वीरें भी उन्हें प्रदान करते थे, उनसे ये चित्र बनाने का अनुरोध करते थे। गार्जियन की रिपोर्ट के अनुसार, नेल्सन ने 18 महीनों में इन委托 द्वारा बनाए गए बच्चों के यौन शोषण के चित्रों को बेचकर लगभग 5000 पाउंड (लगभग 6494 डॉलर) कमाए। उन्होंने ऑनलाइन फोरम के माध्यम से लेन-देन किया, और उनकी गिरफ्तारी का कारण तब बना जब उन्होंने एक अंडरकवर पुलिस अधिकारी को बताया कि वह ग्राहकों के लिए नए पात्र बनाने के लिए 80 पाउंड (लगभग 103 डॉलर) चार्ज करते हैं।
अंततः, नेल्सन को कई आरोपों में दोषी ठहराया गया, जिसमें 13 वर्ष से कम उम्र के बच्चों के साथ बलात्कार के लिए उकसाने, 16 वर्ष से कम उम्र के लड़के को यौन संबंध के लिए ललचाने की कोशिश, अश्लील चित्रों का वितरण और निर्माण, और प्रतिबंधित चित्रों का रखने जैसे आरोप शामिल हैं। उनके कार्यों ने प्रौद्योगिकी के माध्यम से अपराध के उपयोग पर समाज में गहरी सोच को प्रेरित किया। कानून की कड़ी सजा न केवल उनके लिए एक दंड है, बल्कि सभी संभावित अपराधियों के लिए एक चेतावनी भी है।
इस मामले का फैसला सार्वजनिक रूप से साइबर सुरक्षा और बच्चों की सुरक्षा पर ध्यान आकर्षित करता है, और यह याद दिलाता है कि इंटरनेट की दुनिया में हमें हमेशा सतर्क रहना चाहिए और बच्चों की सुरक्षा की रक्षा करनी चाहिए।
मुख्य बिंदु:
🔍 ह्यू・नेल्सन ने AI तकनीक का उपयोग करके बच्चों के यौन शोषण के चित्र बनाए, परिणामस्वरूप 18 साल की सजा मिली।
💰 उन्होंने इन चित्रों को बेचकर लगभग 5000 पाउंड कमाए, और ग्राहकों ने उनसे चित्र बनाने का委托 किया।
🚨 नेल्सन को कई आरोपों में दोषी ठहराया गया, जिसमें बलात्कार के लिए उकसाने और अश्लील चित्रों का वितरण शामिल है।