हाल ही में, ब्रिटिश ब्रॉडकास्टिंग कॉर्पोरेशन (BBC) के एक अध्ययन ने खुलासा किया है कि प्रमुख आर्टिफिशियल इंटेलिजेंस सहायक समाचार और वर्तमान मामलों से संबंधित प्रश्नों के उत्तर देते समय अक्सर भ्रामक और गलत सामग्री उत्पन्न करते हैं। अध्ययन से पता चला है कि ChatGPT, Gemini और Perplexity जैसे चार प्रमुख AI उपकरणों द्वारा उत्पन्न उत्तरों में से आधे से अधिक को "महत्वपूर्ण समस्याओं" के रूप में माना गया है।
चित्र स्रोत नोट: चित्र AI द्वारा निर्मित, चित्र लाइसेंस सेवा प्रदाता Midjourney
शोधकर्ताओं ने इन चार जनरेटिव AI उपकरणों से BBC के समाचार लेखों का उपयोग करके 100 संबंधित प्रश्नों के उत्तर देने के लिए कहा। इसके बाद, इन उत्तरों का मूल्यांकन पेशेवर BBC पत्रकारों द्वारा किया गया। परिणामों से पता चला कि लगभग एक-पांचवे उत्तरों में संख्या, तिथि या तथ्यों में गलतियाँ थीं, जबकि 13% उद्धरण संशोधित या उद्धृत लेख में बिल्कुल नहीं थे।
उदाहरण के लिए, जब दोषी ठहराए गए नवजात शिशु नर्स लुसी लेटबी (Lucy Letby) के मामले का उल्लेख किया गया, तो Gemini का उत्तर उसके हत्या और प्रयास हत्या के पृष्ठभूमि को नजरअंदाज कर दिया, यह कहते हुए कि "हर किसी की अपनी राय होती है कि लुसी लेटबी निर्दोष है या दोषी।" इसके अलावा, माइक्रोसॉफ्ट का Copilot फ्रांस की बलात्कारी पीड़िता गिसेल पेलेट (Gisèle Pelicot) के अनुभव को गलत तरीके से प्रस्तुत करता है, जबकि ChatGPT ने गलत तरीके से उल्लेख किया कि इजरायल के हमास नेता इस्माइल हानिये (Ismail Haniyeh) हत्या के कई महीने बाद भी नेतृत्व में हैं।
और भी चिंताजनक बात यह है कि इस अध्ययन से पता चलता है कि वर्तमान में ये AI उपकरण वर्तमान मामलों की जानकारी को संभालने में व्यापक गलतियों का सामना कर रहे हैं। BBC न्यूज़ के CEO डेबोरा टर्नेस (Deborah Turness) ने इस पर चेतावनी दी है कि "जनरेटिव AI उपकरण आग से खेल रहे हैं," जो तथ्य पर जनता की "कमजोर विश्वास" को कमजोर कर सकता है। उन्होंने AI कंपनियों से BBC के साथ सहयोग करने का आह्वान किया ताकि अधिक सटीक उत्तर उत्पन्न किए जा सकें और भ्रम और भ्रामकता को बढ़ने से रोका जा सके।
इस अध्ययन ने सामग्री उपयोग नियंत्रण के मुद्दे को भी उठाया, BBC के जनरेटिव AI प्रोजेक्ट के निदेशक पीटर आर्चर (Peter Archer) ने कहा कि मीडिया कंपनियों को अपनी सामग्री के उपयोग के तरीके पर नियंत्रण रखना चाहिए, जबकि AI कंपनियों को अपने सहायक द्वारा समाचार को संभालने के तरीके और उत्पन्न हुई गलतियों के पैमाने को प्रदर्शित करना चाहिए। उन्होंने इस बात पर जोर दिया कि यह मीडिया और AI कंपनियों के बीच मजबूत सहयोग की आवश्यकता है ताकि जनता के लिए अधिकतम मूल्य उत्पन्न किया जा सके।
मुख्य बिंदु:
🔍 अध्ययन से पता चलता है कि AI द्वारा उत्पन्न उत्तरों में से आधे से अधिक में महत्वपूर्ण गलतियाँ हैं।
📰 AI सहायक अक्सर वर्तमान मामलों के प्रश्नों के उत्तर देते समय भ्रामक सामग्री उत्पन्न करते हैं, जिससे जनता का विश्वास प्रभावित होता है।
🤝 BBC ने AI कंपनियों से सहयोग बढ़ाने का आह्वान किया है ताकि जानकारी की सटीकता और विश्वसनीयता को बढ़ाया जा सके।