OpenAI हाल ही में नॉर्वे से एक गोपनीयता शिकायत का सामना कर रहा है, जो मुख्य रूप से इसके कृत्रिम बुद्धिमत्ता चैटबॉट ChatGPT द्वारा अक्सर गलत जानकारी उत्पन्न करने के मुद्दे पर केंद्रित है। यह मामला गोपनीयता अधिकारों के समर्थन में काम करने वाले संगठन Noyb द्वारा समर्थित है, और शिकायतकर्ता एक व्यक्ति है जिसका नाम आल्फ हर्मल होल्मेन है। उन्हें ChatGPT द्वारा यह दावा करने पर बहुत आश्चर्य और गुस्सा हुआ कि उन्हें दो बच्चों की हत्या और तीसरे बच्चे की हत्या के प्रयास के लिए दोषी ठहराया गया था, जो पूरी तरह से गलत था।

अतीत में ChatGPT के संबंध में गोपनीयता संबंधी शिकायतें मुख्य रूप से कुछ बुनियादी व्यक्तिगत डेटा त्रुटियों से संबंधित थीं, जैसे कि जन्म तिथि या जीवनी संबंधी जानकारी में गलतियाँ। एक महत्वपूर्ण मुद्दा यह है कि OpenAI ने व्यक्तियों के लिए AI द्वारा उत्पन्न गलत जानकारी को ठीक करने का कोई प्रभावी तरीका नहीं दिया है। आमतौर पर, OpenAI इस तरह की गलत जानकारी वाली प्रतिक्रियाओं को उत्पन्न करने से रोकता है। हालाँकि, यूरोपीय संघ के सामान्य डेटा संरक्षण विनियमन (GDPR) के अनुसार, यूरोपीय लोगों के पास कई डेटा एक्सेस अधिकार हैं, जिसमें व्यक्तिगत डेटा को सही करने का अधिकार भी शामिल है।

Noyb ने बताया कि GDPR में कहा गया है कि व्यक्तिगत डेटा सटीक होना चाहिए, और यदि जानकारी गलत है, तो उपयोगकर्ता को सुधार की मांग करने का अधिकार है। Noyb के वकील जोकिम सोडरबेरी का कहना है कि OpenAI केवल नीचे एक अस्वीकरण जोड़कर बच नहीं सकता है जिसमें कहा गया है कि "ChatGPT गलतियाँ कर सकता है"। GDPR के अनुसार, AI डेवलपर्स के लिए यह सुनिश्चित करना ज़रूरी है कि वे गंभीर रूप से गलत जानकारी न फैलाएँ।

GDPR का उल्लंघन करने पर वैश्विक वार्षिक राजस्व के 4% तक का जुर्माना लग सकता है। 2023 के वसंत में, इटली के डेटा संरक्षण नियामक ने ChatGPT तक पहुँच को अस्थायी रूप से अवरुद्ध कर दिया था, जिससे OpenAI को अपनी उपयोगकर्ता जानकारी के खुलासे में समायोजन करने पड़े। इसके बावजूद, हाल के वर्षों में यूरोपीय गोपनीयता नियामक प्राधिकरणों ने उपयुक्त नियामक ढाँचे की तलाश में जनरेटिव आर्टिफिशियल इंटेलिजेंस के प्रति अधिक सतर्क रवैया अपनाया है।

Noyb की नई शिकायत का उद्देश्य नियामक प्राधिकरणों का ध्यान AI द्वारा उत्पन्न गलत जानकारी के संभावित खतरों की ओर आकर्षित करना है। उन्होंने ChatGPT के साथ बातचीत का एक स्क्रीनशॉट साझा किया है जिसमें दिखाया गया है कि AI ने होल्मेन के बारे में पूछे गए सवाल के जवाब में एक पूरी तरह से गलत और परेशान करने वाला इतिहास उत्पन्न किया है। यह घटना अकेली नहीं है, Noyb ने अन्य उपयोगकर्ताओं के ऐसे ही गलत जानकारी से होने वाले नुकसान के मामलों की ओर भी इशारा किया है।

हालांकि OpenAI ने अपने मॉडल को अपडेट करने के बाद होल्मेन के खिलाफ गलत आरोपों को रोक दिया है, लेकिन Noyb और होल्मेन को अभी भी चिंता है कि गलत जानकारी AI मॉडल के अंदर बनी रह सकती है। Noyb ने नॉर्वेजियन डेटा प्रोटेक्शन अथॉरिटी को शिकायत दर्ज कराई है और उम्मीद है कि नियामक प्राधिकरण इस पर जाँच करेंगे।

मुख्य बातें:  

🌐 Noyb ने एक नॉर्वेजियन व्यक्ति द्वारा ChatGPT के खिलाफ गोपनीयता शिकायत दर्ज करने का समर्थन किया है, जिसमें गलत जानकारी उत्पन्न करने का आरोप लगाया गया है।  

⚖️ GDPR के अनुसार, व्यक्तिगत डेटा सटीक होना चाहिए, और OpenAI इस आवश्यकता को पूरा करने में विफल रहा है।  

🔍 Noyb को उम्मीद है कि इस शिकायत से नियामक प्राधिकरणों का ध्यान AI द्वारा फैलाई जा रही गलत जानकारी के मुद्दे पर जाएगा।