1950 में, एक व्यक्ति जिसका नाम एलेन ट्यूरिंग था, ने यह परीक्षण करने के लिए एक चतुर तरीका खोजा कि क्या मशीन में बुद्धिमत्ता है, जिसे प्रसिद्ध ट्यूरिंग टेस्ट कहा जाता है। सरल शब्दों में, यदि एक मशीन文字交流 में यह सुनिश्चित कर सके कि वह मशीन है या मानव, तो वह परीक्षण पास कर लेती है और इसे बुद्धिमान माना जाता है।
लेकिन, प्रौद्योगिकी के विकास के साथ, हम एक नए प्रश्न पर विचार करने लगे: यदि हम सीधे AI के साथ बातचीत नहीं कर रहे हैं, बल्कि AI और अन्य लोगों के बीच बातचीत के पाठ रिकॉर्ड पढ़ रहे हैं, तो क्या हम सही ढंग से पहचान सकते हैं कि कौन मानव है और कौन मशीन?
हाल ही में, कैलिफोर्निया विश्वविद्यालय, सैन डिएगो के एक समूह के वैज्ञानिकों ने इस प्रश्न पर गहन अध्ययन किया। उन्होंने एक सुधारित ट्यूरिंग परीक्षण डिज़ाइन किया, जिसे "इनवर्टेड ट्यूरिंग टेस्ट" और "शिफ्टेड ट्यूरिंग टेस्ट" कहा जाता है, ताकि इस प्रश्न का अन्वेषण किया जा सके।
चित्र स्रोत नोट: चित्र AI द्वारा उत्पन्न, चित्र लाइसेंस प्रदाता Midjourney
इनवर्टेड ट्यूरिंग टेस्ट में, AI अब परीक्षण का विषय नहीं है, बल्कि एक न्यायाधीश बन गया है। वैज्ञानिकों ने GPT-3.5 और GPT-4 जैसे दो बड़े भाषा मॉडल को वास्तविक मानव और AI के बीच बातचीत के रिकॉर्ड को पढ़ने के लिए कहा, और फिर बातचीत में भाग लेने वालों का निर्धारण किया कि वे मानव हैं या AI।
परिणाम आश्चर्यजनक थे: इन AI न्यायाधीशों की पहचान सटीकता केवल सीधे बातचीत में शामिल मानव न्यायाधीशों से कम थी, और कई मामलों में, उन्होंने गलत तरीके से AI को मानव मान लिया। विशेष रूप से, सबसे अच्छे प्रदर्शन करने वाले GPT-4 मॉडल के लिए, AI न्यायाधीशों ने इसे मानव के रूप में पहचानने की आवृत्ति वास्तविक मानव प्रतिभागियों से भी अधिक थी।
वैज्ञानिकों ने शिफ्टेड ट्यूरिंग टेस्ट भी किया, इस बार मानव न्यायाधीशों ने AI और मानव के बीच बातचीत के रिकॉर्ड को पढ़ा। परिणामों ने दिखाया कि यहां तक कि मानव न्यायाधीशों की पहचान की सटीकता भी सीधे बातचीत में शामिल मानव न्यायाधीशों से कम थी।
ये निष्कर्ष हमें बताते हैं कि चाहे मानव हो या AI, बिना सीधे संवाद के, एक-दूसरे को पहचानना बहुत कठिन है। यह हमारे दैनिक जीवन में ऑनलाइन संचार के लिए महत्वपूर्ण है, क्योंकि हम अक्सर दूसरों की बातचीत पढ़कर उनके बारे में समझते हैं।
इसका मतलब यह भी है कि यदि हम AI पर निर्भर करते हैं कि वह ऑनलाइन फर्जी जानकारी या मानव का अनुकरण करने वाले AI का पता लगाए, तो हमें शायद अधिक सटीक उपकरणों की आवश्यकता होगी। क्योंकि वर्तमान AI मॉडल इस कार्य में मानवों से बेहतर प्रदर्शन नहीं कर रहे हैं।
यह अध्ययन न केवल हमें AI की गहरी समझ देता है, बल्कि AI के विकास में एक महत्वपूर्ण चुनौती भी उजागर करता है: AI द्वारा उत्पन्न सामग्री और मानव द्वारा उत्पन्न सामग्री का पता लगाने और अलग करने के लिए बेहतर उपकरण कैसे डिज़ाइन करें।
जैसे-जैसे AI प्रौद्योगिकी में लगातार प्रगति हो रही है, यह प्रश्न越来越 महत्वपूर्ण हो जाएगा। हमें यह सुनिश्चित करने की आवश्यकता है कि हम AI द्वारा प्रदान की गई सुविधाओं का आनंद लेते समय, अपने डेटा की सुरक्षा और ऑनलाइन वातावरण की वास्तविकता की भी रक्षा कर सकें।
पत्र का पता: https://arxiv.org/pdf/2407.08853