कृत्रिम बुद्धिमत्ता के विकास के इतिहास में, ट्यूरिंग टेस्ट हमेशा एक महत्वपूर्ण मील का पत्थर रहा है। हाल ही में, सैन डिएगो कैलिफोर्निया विश्वविद्यालय के संज्ञानात्मक विज्ञान विभाग के शोधकर्ताओं ने GPT-4 पर एक ट्यूरिंग टेस्ट का पुनर्निर्माण प्रयोग किया, जिसका परिणाम ध्यान देने योग्य था।

उन्होंने 500 प्रतिभागियों को भर्ती किया, जो चार एजेंटों के साथ बातचीत कर रहे थे, जिनमें एक असली मानव और तीन एआई मॉडल शामिल थे: 1960 के दशक का ELIZA प्रोग्राम, GPT-3.5 और GPT-4। पांच मिनट की बातचीत के बाद, प्रतिभागियों को यह判断 करना था कि वे मानव या एआई के साथ संवाद कर रहे हैं।

image.png

प्रयोग के परिणामों ने दिखाया कि GPT-4 को मानव के रूप में पहचानने की संभावना 54% थी, जबकि ELIZA केवल 22% थी, GPT-3.5 के लिए यह 50% थी, और असली मानव की सही पहचान की संभावना 67% थी। यह परिणाम पहली बार प्रयोगात्मक साक्ष्य प्रदान करता है कि इंटरएक्टिव डुअल ट्यूरिंग टेस्ट में कृत्रिम बुद्धिमत्ता प्रणाली का प्रदर्शन इतना अच्छा है कि यह मानव को धोखा दे सकता है।

1.jpg

शोधकर्ताओं ने यह भी पाया कि प्रतिभागी निर्णय लेते समय छोटी बातचीत और सामाजिक भावनात्मक रणनीतियों का उपयोग करने के लिए अधिक प्रवृत्त थे। वे बातचीत की सामग्री और एजेंट के प्रदर्शन के आधार पर, मुख्य रूप से भाषा शैली और सामाजिक भावनात्मक कारकों के आधार पर निर्णय लेते थे। यह खोज मशीन बुद्धिमत्ता पर चर्चा के लिए महत्वपूर्ण प्रभाव डालती है, यह दर्शाती है कि एआई प्रणाली वास्तविक अनुप्रयोगों में मानव को धोखा दे सकती है।

यह अध्ययन बहुत महत्वपूर्ण है, यह न केवल यह संकेत करता है कि वर्तमान एआई प्रणाली वास्तविक अनुप्रयोगों में मानव को धोखा दे सकती है, बल्कि मशीन बुद्धिमत्ता पर चर्चा पर भी गहरा प्रभाव डालता है। जब लोग एआई के साथ संवाद करते हैं, तो उनके लिए यह पहचानना increasingly कठिन हो सकता है कि क्या सामने वाला मानव है, जो कृत्रिम बुद्धिमत्ता के नैतिकता, गोपनीयता और सुरक्षा जैसे मुद्दों के लिए नई चुनौतियाँ प्रस्तुत करता है।