एडोब, एक ऐसा नाम जो रचनात्मक उद्योग में प्रतिष्ठित है, अपने कॉपीराइट संरक्षण के रुख के लिए "कॉपीराइट गार्डियन" के रूप में जाना जाता है। लेकिन हाल ही में, यह कंपनी एक चुपचाप अपडेट की गई सेवा शर्तों के कारण विवाद में पड़ गई है।

इस साल फरवरी में, एडोब ने अपने उत्पाद सेवा शर्तों को चुपचाप अपडेट किया, जिसमें एक ध्यान खींचने वाला नया बिंदु जोड़ा गया: उपयोगकर्ताओं को सहमत होना होगा कि एडोब उनके कामों तक स्वचालित और मैनुअल तरीके से पहुँच सकता है, जिसमें वे सामग्री भी शामिल हैं जो गोपनीयता समझौतों से सुरक्षित हैं। एडोब इन कामों का उपयोग मशीन लर्निंग जैसी तकनीकों के माध्यम से अपनी सेवाओं और सॉफ़्टवेयर में सुधार करने के लिए करेगा। यदि उपयोगकर्ता इन नए शर्तों से सहमत नहीं होते हैं, तो वे एडोब के सॉफ़्टवेयर का उपयोग नहीं कर पाएंगे।

इस बदलाव का हाल ही में खुलासा हुआ, जिससे एडोब के मुख्य उपयोगकर्ताओं जैसे रचनात्मक व्यक्तियों, डिजिटल कलाकारों और डिज़ाइनरों में तीव्र विरोध उत्पन्न हुआ। उनका मानना है कि यह एक बाध्यकारी लाइसेंसिंग है, जो वास्तव में "एकतरफा शर्त" है, जिसका असली उद्देश्य एडोब के जनरेटिव AI मॉडल "फायरफ्लाई" को प्रशिक्षित करना है। एक ब्लॉगर, जिसका नाम सैम सैंटाला है, ने इस शर्त पर ट्विटर पर सवाल उठाया, और उसके ट्वीट की दृश्यता करोड़ों तक पहुँच गई है।

image.png

कई उपयोगकर्ताओं ने अपनी चिंताओं को व्यक्त किया है, वे अपनी गोपनीयता और कॉपीराइट को लेकर चिंतित हैं, इसलिए उन्होंने एडोब के उत्पादों का उपयोग बंद करने का निर्णय लिया। इस बीच, मेटा कंपनी ने भी समान कदम उठाए हैं, अपनी गोपनीयता नीति को अपडेट किया है, जिससे उपयोगकर्ताओं द्वारा मेटा उत्पादों और सेवाओं पर साझा की गई जानकारी का उपयोग AI को प्रशिक्षित करने के लिए किया जा सके। यदि उपयोगकर्ता नई गोपनीयता नीति से सहमत नहीं होते हैं, तो उन्हें फेसबुक और इंस्टाग्राम जैसे सोशल मीडिया उत्पादों का उपयोग बंद करने पर विचार करना चाहिए।

AI तकनीक के तेजी से विकास के साथ, प्रौद्योगिकी कंपनियों और उपयोगकर्ताओं के बीच डेटा गोपनीयता, सामग्री स्वामित्व और नियंत्रण के लिए संघर्ष और भी तेज हो गया है। एडोब का कहना है कि उसके फायरफ्लाई मॉडल के प्रशिक्षण डेटा में एडोब छवि पुस्तकालय में मौजूद करोड़ों छवियाँ, कुछ सार्वजनिक रूप से लाइसेंस प्राप्त छवियाँ और कॉपीराइट संरक्षण समाप्त हो चुकी सार्वजनिक छवियाँ शामिल हैं। हालांकि, अन्य AI छवि जनरेशन उपकरण जैसे स्टेबिलिटी AI का स्टेबल डिफ्यूजन, ओपनAI का डॉल-ई2 और मिडजर्नी, पहले कॉपीराइट मुद्दों के कारण विवाद में रहे हैं।

एडोब इस क्षेत्र में एक भिन्नता की मार्केटिंग स्थिति अपनाने की कोशिश कर रहा है, AI दौड़ में "सफेद घोड़े की सवारी" करने का दावा कर रहा है, अपने मॉडल प्रशिक्षण डेटा की वैधता पर जोर दे रहा है, और एडोब फायरफ्लाई द्वारा उत्पन्न छवियों के कारण उत्पन्न होने वाले कॉपीराइट विवादों के लिए मुआवजे का भुगतान करने का वादा कर रहा है। लेकिन इस रणनीति ने सभी उपयोगकर्ताओं की चिंताओं को समाप्त नहीं किया है। कुछ उपयोगकर्ता, जैसे वरिष्ठ डिज़ाइनर अजय, खुद को "एडोब के असली पीड़ित" कहकर मजाक करते हैं, यह मानते हुए कि एडोब अपने विशाल रचनात्मक पारिस्थितिकी तंत्र का उपयोग AI को प्रशिक्षित करने के लिए कर रहा है, हालाँकि यह एक स्मार्ट व्यापार रणनीति है, लेकिन उपयोगकर्ताओं के लिए, प्लेटफ़ॉर्म और रचनाकारों के बीच लाभ वितरण और उपयोगकर्ता की जानकारी का अधिकार गायब है।

इसके अलावा, विदेशों में भी एडोब से संबंधित कॉपीराइट विवादों की कई खबरें आई हैं, जिससे उपयोगकर्ताओं को यह सवाल उठाने पर मजबूर किया गया है कि क्या एडोब वास्तव में रचनाकारों के कॉपीराइट का सम्मान करता है। उदाहरण के लिए, कलाकार ब्रायन केसिंजर ने पाया कि उसकी अनुमति के बिना, एडोब छवि पुस्तकालय में उसकी शैली के समान AI जनित छवियाँ बेची जा रही थीं। फोटोग्राफर एन्सेल एडम्स की विरासत प्रबंधन संस्था ने भी एडोब पर आरोप लगाया है कि वह मृत फोटोग्राफर के कामों के जनरेटिव AI नकल के उत्पाद बेचने का आरोप लगा रही है।

जनता के दबाव में, एडोब ने 19 जून को सेवा शर्तों को संशोधित किया, यह स्पष्ट करते हुए कि वह उपयोगकर्ताओं द्वारा स्थानीय या क्लाउड में संग्रहीत सामग्री का उपयोग AI मॉडल को प्रशिक्षित करने के लिए नहीं करेगा। लेकिन इस स्पष्टीकरण ने रचनाकारों की चिंताओं को पूरी तरह से समाप्त नहीं किया है। कुछ विदेशों के AI समुदाय के प्रमुख ब्लॉगर ने बताया कि एडोब के संशोधित सेवा शर्तें अभी भी उपयोगकर्ताओं के निजी क्लाउड डेटा का उपयोग गैर-जनरेटिव AI उपकरणों के मशीन लर्निंग मॉडल को प्रशिक्षित करने की अनुमति देती हैं। हालांकि उपयोगकर्ता "सामग्री विश्लेषण" से बाहर निकलने का विकल्प चुन सकते हैं, लेकिन जटिल रद्दीकरण प्रक्रिया अक्सर कई उपयोगकर्ताओं को हतोत्साहित कर देती है।

विभिन्न देशों और क्षेत्रों में उपयोगकर्ता डेटा संरक्षण के कानूनों में भिन्नता है, जो सोशल मीडिया प्लेटफार्मों के उपयोगकर्ता सेवा शर्तों को निर्धारित करने की रणनीतियों को प्रभावित करता है। उदाहरण के लिए, सामान्य डेटा संरक्षण विनियमन (GDPR) के ढांचे के तहत, ब्रिटेन और यूरोपीय संघ के उपयोगकर्ताओं को "विरोध का अधिकार" है, जिससे वे स्पष्ट रूप से चुन सकते हैं कि उनका व्यक्तिगत डेटा मेटा कंपनी के AI मॉडल को प्रशिक्षित करने के लिए उपयोग नहीं किया जाएगा। हालाँकि, अमेरिकी उपयोगकर्ताओं को समान जानकारी का अधिकार प्राप्त नहीं है, मेटा की मौजूदा डेटा साझा करने की नीति के अनुसार, अमेरिका के उपयोगकर्ताओं द्वारा मेटा के सोशल मीडिया उत्पादों पर साझा की गई सामग्री, बिना स्पष्ट सहमति के AI को प्रशिक्षित करने के लिए उपयोग की जा सकती है।

डेटा को AI युग का "नया तेल" कहा जाता है, लेकिन संसाधनों की "खुदाई" में अभी भी कई ग्रे क्षेत्र हैं। कुछ प्रौद्योगिकी कंपनियाँ उपयोगकर्ता डेटा प्राप्त करने में अस्पष्ट तरीके अपनाती हैं, जिससे उपयोगकर्ताओं के व्यक्तिगत जानकारी के अधिकारों की दोहरी दुविधा उत्पन्न होती है: डिजिटल कॉपीराइट स्वामित्व और डेटा गोपनीयता मुद्दे, जो उपयोगकर्ताओं के प्लेटफ़ॉर्म पर विश्वास को गंभीर रूप से नुकसान पहुँचाते हैं।

वर्तमान में, प्लेटफ़ॉर्म जनरेटिव AI के माध्यम से रचनाकारों के अधिकारों का उल्लंघन न होने की सुनिश्चितता में अभी भी बड़ी कमी है, और पर्याप्त निगरानी की कमी है। कुछ डेवलपर्स और रचनाकारों ने पहले ही कार्रवाई की है, "एंटी AI" उपकरणों की एक श्रृंखला पेश की है, जैसे कि कामों की सुरक्षा उपकरण ग्लेज़ से लेकर AI डेटा जहर उपकरण नाइटशेड तक, और एंटी AI समुदाय कारा, टेक कंपनियों द्वारा उपयोगकर्ता/रचनाकार की सहमति के बिना संबंधित डेटा को AI मॉडल को प्रशिक्षित करने के लिए खींचने के खिलाफ लोगों का गुस्सा बढ़ता जा रहा है।

AI तकनीक के तेजी से विकास के इस दौर में, प्रौद्योगिकी नवाचार और उपयोगकर्ता गोपनीयता सुरक्षा के बीच संतुलन बनाना, रचनाकारों के अधिकारों की सुरक्षा करना, उद्योग के आगे के विकास और कानूनी निगरानी उपायों के निरंतर सुधार की आवश्यकता है। साथ ही, उपयोगकर्ताओं को भी अपनी डेटा अधिकारों के प्रति अधिक सतर्क रहना चाहिए और आवश्यकतानुसार अपनी रचनाओं और गोपनीयता की रक्षा के लिए कदम उठाना चाहिए।