हाल ही में, दो शोध टीमों द्वारा प्रकाशित पेपर ने व्यापक ध्यान आकर्षित किया, स्पष्ट रूप से कहता है कि जनरेटिव आर्टिफिशियल इंटेलिजेंस (AI) उत्पादों की सामग्री को मूल रूप से "बकवास" के रूप में देखा जा सकता है। "ChatGPT Is Bunk" शीर्षक वाला यह पेपर बताता है कि जनरेटिव AI जब जानकारी उत्पन्न करता है, तो सटीकता की अनदेखी करने के कारण सार्वजनिक सेवकों के लिए कई चुनौतियाँ पैदा होती हैं, विशेष रूप से उन अधिकारियों के लिए जिनकी कानूनी जिम्मेदारी होती है कि वे सच बोलें।

ChatGPT OpenAI आर्टिफिशियल इंटेलिजेंस (1)

लेखक माइकल टाउनसेन हिक्स, जेम्स हम्फ्रीज और जो स्लेटर ने जोर दिया कि जनरेटिव AI द्वारा उत्पन्न गलत जानकारी को केवल "झूठ" या "幻觉" के रूप में नहीं वर्णित किया जा सकता। जानबूझकर धोखा देने वाले झूठ के विपरीत, बकवास एक ऐसी अभिव्यक्ति का संदर्भ देती है जो सत्य की परवाह नहीं करती, जो लोगों को एक विशेष प्रभाव देने का प्रयास करती है। वे मानते हैं कि AI की गलतियों को "幻觉" के रूप में संदर्भित करना केवल जनता को भ्रमित करेगा, जिससे यह महसूस होगा कि ये मशीनें किसी न किसी हद तक उन चीजों को "विश्वास" करने की कोशिश कर रही हैं।

उन्होंने कहा: "इन गलतियों को 'बकवास' कहना न कि '幻觉', न केवल अधिक सटीक है, बल्कि यह तकनीक के प्रति जनता की समझ को भी बढ़ाने में मदद करता है।" यह वाक्य AI की गलतियों का वर्णन करने के लिए अधिक सटीक शब्दों का उपयोग करने के महत्व को उजागर करता है, विशेष रूप से वर्तमान में तकनीकी संचार में सुधार की आवश्यकता के संदर्भ में।

इसी बीच, एक और पेपर जो बड़े भाषा मॉडल (LLMs) पर केंद्रित है, ने इस मुद्दे पर यूरोपीय संघ के कानूनी और नैतिक वातावरण की जांच की। पेपर का निष्कर्ष है कि वर्तमान में AI के लिए कानून और नियम अभी भी अपर्याप्त हैं, जो इन AI द्वारा उत्पन्न "बकवास" के नुकसान को प्रभावी रूप से रोकने में असमर्थ हैं। लेखकों सैंड्रा वाच्टर, ब्रेंट मित्तेलस्टैट और क्रिस रसेल ने प्रकाशन क्षेत्र के नियमों के समान नियमों को लागू करने का सुझाव दिया, जिससे संभावित सामाजिक नुकसान को "मनमानी बात" से बचने पर जोर दिया गया।

उन्होंने指出 किया कि यह दायित्व इस बात पर जोर देता है कि कोई भी एकल संस्था, चाहे वह सार्वजनिक हो या निजी क्षेत्र, सत्य का एकमात्र निर्णयकर्ता नहीं होनी चाहिए। उन्होंने यह भी कहा कि जनरेटिव AI की "मनमानी बात" सत्य को आवृत्ति और बहुसंख्यक राय के प्रश्न में बदल सकती है, न कि वास्तविक तथ्यों में।

मुख्य बिंदु:

📌 शोध टीमों ने कहा कि जनरेटिव AI की गलतियों को "बकवास" कहा जाना चाहिए, न कि "幻觉"।  

📌 वर्तमान कानून और नियम AI द्वारा उत्पन्न गलत जानकारी के समाज पर प्रभावी रोक नहीं लगा सकते।  

📌 नए नियमों की आवश्यकता का आह्वान, "मनमानी बात" से बचने पर जोर दिया, यह सुनिश्चित करते हुए कि सत्य बहुसंख्यक राय का उत्पाद न हो।