हाल ही में, गूगल के शोधकर्ताओं ने चेतावनी दी है: जनरेटिव आर्टिफिशियल इंटेलिजेंस (GenAI) इंटरनेट को झूठी सामग्री से बर्बाद कर रहा है। यह केवल एक चेतावनी नहीं है, बल्कि यह एक आत्म-परावर्तन की तरह है।

विडंबना यह है कि गूगल इस "सत्य और असत्य की लड़ाई" में दोहरी भूमिका निभा रहा है। एक ओर, यह जनरेटिव AI का एक महत्वपूर्ण प्रवर्तक है, और दूसरी ओर, यह झूठी जानकारी का निर्माता भी है। गूगल के AI सारांश कार्य ने "पिज्जे पर गोंद लगाना", "पत्थर खाना" जैसे बेतुके सुझाव दिए हैं, जिनमें से ये गलत सूचनाएं अंततः मैन्युअल रूप से हटानी पड़ीं।

image.png

गूगल की शोध टीम ने जनरेटिव AI के दुरुपयोग पर 200 समाचार रिपोर्टों की गहराई से जांच की और पाया कि मानव छवियों में छेड़छाड़ और सबूतों की जाली बनाना सबसे सामान्य दुरुपयोग के तरीके हैं। इन कार्यों का उद्देश्य केवल जन राय को प्रभावित करना, धोखाधड़ी करना या लाभ कमाना है। जनरेटिव AI का जोखिम हालांकि "जीवित रहने के खतरे" तक नहीं पहुंचा है, लेकिन यह वर्तमान में हो रहा है और भविष्य में और भी बुरा हो सकता है।

शोधकर्ताओं ने पाया कि अधिकांश GenAI दुरुपयोग के मामले सिस्टम के सामान्य उपयोग के खिलाफ नहीं थे, और इनमें कोई "जेलब्रेक" व्यवहार नहीं था। इस प्रकार के "सामान्य संचालन" का हिस्सा 90 प्रतिशत है। GenAI की व्यापक उपलब्धता, पहुंच और अलौकिकता ने निम्न स्तर के दुरुपयोग के रूपों को संभव बना दिया है। झूठी जानकारी उत्पन्न करने की लागत वास्तव में बहुत कम है!

image.png

गूगल का शोध सामग्री मुख्य रूप से मीडिया रिपोर्टों से आता है, क्या इसका मतलब यह है कि शोध निष्कर्षों में मीडिया का पूर्वाग्रह शामिल है? मीडिया अक्सर चौंकाने वाली घटनाओं की रिपोर्ट करने की प्रवृत्ति रखती है, जो विशेष प्रकार के दुरुपयोग की ओर डेटा सेट को झुका सकती है। 404Media ने बताया कि अभी भी बहुत से जनरेटिव आर्टिफिशियल इंटेलिजेंस के दुरुपयोग हैं जिनका हमें अभी तक एहसास नहीं हुआ है।

AI उपकरणों के "फेंस" को कुछ संकेतों से चालाकी से पार किया जा सकता है। उदाहरण के लिए, ElevenLabs का AI वॉयस क्लोनिंग उपकरण सहकर्मियों या सितारों की आवाज़ को बेहद वास्तविकता के साथ अनुकरण कर सकता है। Civitai उपयोगकर्ता AI द्वारा उत्पन्न सेलिब्रिटी चित्र बना सकते हैं, हालांकि इस प्लेटफॉर्म पर NCII (अनुमति के बिना निजी चित्र) के लिए प्रतिबंधित नीति है, फिर भी उपयोगकर्ताओं को अपने मशीनों पर ओपन-सोर्स उपकरणों का उपयोग करके NCII उत्पन्न करने से कोई रोक नहीं सकता।

जब झूठी जानकारी फैलती है, तो इंटरनेट पर अराजकता लोगों की सत्य और असत्य को पहचानने की क्षमता पर एक बड़ा परीक्षण लाती है। हम एक निरंतर संदेह में पड़ सकते हैं, "क्या यह सच है?" यदि इसे हल नहीं किया गया, तो AI द्वारा उत्पन्न सामग्री सार्वजनिक डेटा को प्रदूषित कर सकती है और सूचना खोज को बाधित कर सकती है, समाज के राजनीतिक वास्तविकता या वैज्ञानिक सहमति की सामूहिक समझ को विकृत कर सकती है।

जनरेटिव AI द्वारा लाई गई झूठी सामग्री की बाढ़ में, गूगल ने एक सहायक भूमिका निभाई है। कई साल पहले छोड़ी गई गोली आज अंततः अपनी भृकुटी पर लग गई। गूगल का यह शोध शायद आत्म-उद्धार की शुरुआत है, और यह पूरे इंटरनेट समाज के लिए एक चेतावनी भी है।

पत्र का पता: https://arxiv.org/pdf/2406.13843