आज के समाज में, मनुष्यों और कृत्रिम बुद्धिमत्ता (AI) के बीच भावनात्मक और रोमांटिक संबंध होना असामान्य नहीं है। कुछ लोग अपने AI साथी से "विवाह" भी कर लेते हैं, जबकि अन्य कठिन समय में इन मशीनों से सांत्वना चाहते हैं - कभी-कभी विनाशकारी परिणामों के साथ। इस दीर्घकालिक संपर्क से एक गंभीर प्रश्न उठता है: क्या हम भावनात्मक रूप से निवेशित मशीनों के संभावित मनोवैज्ञानिक और नैतिक निहितार्थों से निपटने के लिए तैयार हैं?
मिसौरी यूनिवर्सिटी ऑफ़ साइंस एंड टेक्नोलॉजी के मनोवैज्ञानिक चेतावनी दे रहे हैं। एक नए ओपिनियन पीस में, उन्होंने चर्चा की है कि ये संबंध कैसे सीमाओं को धुंधला करते हैं, मानव व्यवहार को प्रभावित करते हैं और नए संभावित नुकसान पैदा करते हैं। उनकी चिंता केवल व्यक्तिगत उदाहरणों तक ही सीमित नहीं है, बल्कि इन भावनात्मक संबंधों के आम लोगों पर दूरगामी प्रभावों पर केंद्रित है।
चित्र कैप्शन: यह चित्र AI द्वारा बनाया गया है, और इमेज लाइसेंसिंग सेवा प्रदाता Midjourney द्वारा प्रदान किया गया है।
AI आराम और चिंता दोनों लाता है। AI के साथ संक्षिप्त बातचीत आम हो गई है, लेकिन जब यह बातचीत हफ़्तों या महीनों तक चलती है तो क्या होता है? ये मशीनें, जो सहानुभूति और ध्यान देने की नकल करने के लिए डिज़ाइन की गई हैं, लोगों के लिए स्थिर साथी बन सकती हैं। कुछ लोगों के लिए, ये AI साथी मानवीय संबंधों की तुलना में अधिक सुरक्षित और सरल हैं, लेकिन इस सुविधा की अपनी कीमत है।
इस अध्ययन के प्रमुख लेखक डैनियल बी. शैंक का कहना है: "AI अब मनुष्यों की तरह कार्य करने और लंबी बातचीत करने में सक्षम है, यह वास्तव में एक नया पेंडोरा का डिब्बा खोलता है। अगर लोग मशीनों के साथ प्रेम संबंध में पड़ जाते हैं, तो हमें वास्तव में मनोवैज्ञानिकों और सामाजिक वैज्ञानिकों की आवश्यकता है।" शैंक मिसौरी यूनिवर्सिटी ऑफ़ साइंस एंड टेक्नोलॉजी में सामाजिक मनोविज्ञान और प्रौद्योगिकी अनुसंधान पर ध्यान केंद्रित करते हैं।
जब AI सांत्वना या रोमांटिक लगाव का स्रोत बन जाता है, तो यह प्रभावित करता है कि लोग वास्तविक रिश्तों को कैसे देखते हैं। अवास्तविक अपेक्षाएँ, कम सामाजिक प्रेरणा और वास्तविक मनुष्यों के साथ संवाद करने में बाधाएँ कुछ जोखिम हैं। शैंक ने आगे कहा: "एक वास्तविक चिंता यह है कि लोग AI संबंधों से अपेक्षाओं को पारस्परिक संबंधों में ले जा सकते हैं। कुछ मामलों में, यह वास्तव में पारस्परिक संबंधों को नुकसान पहुँचा रहा है, लेकिन यह स्पष्ट नहीं है कि क्या यह घटना व्यापक हो जाएगी।"
AI चैटबॉट दोस्त या यहाँ तक कि चिकित्सक की तरह लग सकते हैं, लेकिन वे बिलकुल परिपूर्ण नहीं हैं। ये सिस्टम "भ्रम" उत्पन्न करने के लिए जाने जाते हैं, अर्थात् आत्मविश्वास से भरी हुई गलत जानकारी उत्पन्न करना। भावनात्मक परिस्थितियों में, यह बेहद खतरनाक हो सकता है।
शैंक ने स्पष्ट किया: "रिश्तेदार AI की समस्या यह है कि यह एक ऐसा इकाई है जिस पर लोगों को विश्वास होता है: यह 'कोई' है जो परवाह दिखाता है और उस व्यक्ति को गहराई से जानता प्रतीत होता है, हम मान लेते हैं कि 'हमें बेहतर जानने वाला' बेहतर सलाह देगा। अगर हम AI को इस तरह देखना शुरू कर देते हैं, तो हम उन पर विश्वास करना शुरू कर देते हैं कि वे हमारे सर्वोत्तम हित में काम कर रहे हैं, जबकि वास्तव में, वे सामग्री गढ़ रहे हो सकते हैं या बेहद खराब तरीके से सलाह दे रहे हो सकते हैं।"
यह प्रभाव विनाशकारी हो सकता है। दुर्लभ लेकिन चरम मामलों में, किसी ने AI साथी से परेशान करने वाली सलाह प्राप्त करने के बाद अपनी जान ले ली है। लेकिन समस्या केवल आत्महत्या तक ही सीमित नहीं है, ये संबंध हेरफेर, धोखे और यहां तक कि धोखाधड़ी का द्वार खोल सकते हैं।
शोधकर्ताओं ने चेतावनी दी है कि AI के साथ लोगों द्वारा विकसित विश्वास का उपयोग दुर्भावनापूर्ण अभिनेताओं द्वारा किया जा सकता है। AI सिस्टम व्यक्तिगत जानकारी एकत्र कर सकते हैं, जिसे बेचा जा सकता है या हानिकारक तरीके से उपयोग किया जा सकता है। और भी चिंताजनक बात यह है कि चूँकि ये बातचीत निजी स्थान पर होती हैं, इसलिए दुरुपयोग का पता लगाना लगभग असंभव हो जाता है। शैंक बताते हैं: "अगर AI लोगों को उन पर भरोसा करने के लिए प्रेरित कर सकता है, तो दूसरे लोग इसका उपयोग AI उपयोगकर्ताओं का फायदा उठाने के लिए कर सकते हैं। यह कुछ हद तक आंतरिक गुप्त एजेंट की तरह है। AI विश्वास हासिल करने के लिए गहरे संबंध विकसित करता है, लेकिन उनकी वफादारी वास्तव में कुछ अन्य मानवीय समूहों की ओर होती है जो उपयोगकर्ताओं में हेरफेर करने का प्रयास करते हैं।"
शोधकर्ताओं का मानना है कि AI साथी विश्वासों और विचारों को आकार देने में वर्तमान सोशल मीडिया प्लेटफॉर्म या समाचार स्रोतों की तुलना में अधिक प्रभावी हो सकते हैं। ट्विटर या फेसबुक के विपरीत, AI बातचीत एक बंद स्क्रीन के पीछे होती है। शैंक कहते हैं: "इन AI को बहुत ही सुखद और मिलनसार होने के लिए डिज़ाइन किया गया है, जो स्थिति को बदतर बना सकता है क्योंकि वे किसी भी बुनियादी सच्चाई या सुरक्षा पर ध्यान देने के बजाय अच्छे वार्तालाप करने पर अधिक ध्यान केंद्रित करते हैं। इसलिए, अगर कोई व्यक्ति आत्महत्या या साजिश के सिद्धांतों के बारे में बताता है, तो AI इन चीजों पर चर्चा करने के लिए एक इच्छुक और मिलनसार वार्तालाप साथी के रूप में कार्य करेगा।"
अनुसंधान दल ने शोध समुदाय से आगे बढ़ने का आग्रह किया है। जैसे-जैसे AI मनुष्यों की तरह अधिक होता जा रहा है, मनोवैज्ञानिकों की मशीनों के साथ लोगों के संपर्क को समझने और मार्गदर्शन करने में महत्वपूर्ण भूमिका है। "इस मानसिक प्रक्रिया को समझने से हमें हस्तक्षेप करने और लोगों को दुर्भावनापूर्ण AI की सलाह मानने से रोकने में मदद मिल सकती है," शैंक कहते हैं। "मनोवैज्ञानिक AI के शोध के लिए तेजी से उपयुक्त होते जा रहे हैं क्योंकि AI मनुष्यों की तरह अधिक होता जा रहा है, लेकिन भूमिका निभाने के लिए, हमें अधिक शोध करना होगा और तकनीकी विकास के साथ तालमेल बिठाना होगा।"
वर्तमान में, ये चिंताएँ काफी हद तक सैद्धांतिक हैं - लेकिन तकनीक तेजी से विकसित हो रही है। अधिक जागरूकता और शोध के बिना, लोग सांत्वना प्रदान करने वाली मशीनों की ओर रुख कर सकते हैं, केवल यह पता लगाने के लिए कि इस सांत्वना के साथ छिपे हुए जोखिम जुड़े हुए हैं।