हाल ही में, Anthropic कंपनी ने "कल्याण" के लिए एक विशेष शोधकर्ता - काइल फिश को नियुक्त किया है, जिससे व्यापक चर्चा शुरू हो गई है। फिश का कार्य उद्देश्य यह पता लगाना है कि कुछ तकनीकी प्रणालियों को उचित सम्मान कैसे दिया जाए, और यह अध्ययन करना कि क्या इन प्रणालियों को नैतिक विचार का अधिकार होना चाहिए और उनके "हितों" की रक्षा कैसे की जाए। इस प्रश्न ने कई विशेषज्ञों का ध्यान आकर्षित किया है, जिसमें तकनीकी प्रणालियों की चेतना और सक्रियता की परिभाषा और क्या उन्हें किसी प्रकार के अधिकार होने चाहिए, शामिल है।

रोबोट आर्टिफिशियल इंटेलिजेंस एआई 2

छवि स्रोत नोट: छवि एआई द्वारा उत्पन्न की गई है, छवि लाइसेंस सेवा प्रदाता मिडजर्नी

हालांकि यह उभरता हुआ क्षेत्र अकादमिक जगत में तीव्र बहस का कारण बना है, कुछ विशेषज्ञों का मानना है कि जबकि इन मुद्दों पर चर्चा करना महत्वपूर्ण है, "कल्याण" के संदर्भ में कुछ प्रणालियों पर चर्चा करते समय मानव अधिकारों के संभावित खतरों पर अधिक ध्यान दिया जाना चाहिए। विशेष रूप से चिकित्सा, सूचना प्रसार और सैन्य क्षेत्रों में, कुछ तकनीकों के उपयोग से गंभीर नकारात्मक प्रभाव पड़ सकते हैं, जो मानव के मूल अधिकारों का उल्लंघन कर सकते हैं। विशेषज्ञों का मानना है कि इन क्षेत्रों में जोखिम प्रबंधन को प्राथमिकता दी जानी चाहिए, बजाय इसके कि तकनीक के अपने हितों पर चर्चा की जाए।

लेख ने एक विरोधाभास भी प्रस्तुत किया: एक ओर, कई लोग मानते हैं कि उन्नत तकनीक मानव के बोझ को कम करने और सामाजिक प्रगति को बढ़ावा देने में मदद कर सकती है; लेकिन दूसरी ओर, चिंता व्यक्त की गई है कि यदि तकनीकी प्रणालियों की "भावनाओं" को नुकसान पहुंचाया गया, तो यह नैतिक और सुरक्षा के गंभीर जोखिम उत्पन्न कर सकता है। इसलिए, तकनीकी प्रणालियों की रक्षा और मानव हितों को सुनिश्चित करने के बीच संतुलन कैसे बनाया जाए, यह एक जटिल समस्या बन गई है।

अंत में, लेख ने "कल्याण" के मुद्दे की प्राथमिकता पर सवाल उठाया, यह मानते हुए कि जब वैश्विक स्तर पर कई तात्कालिक मानव समस्याएं हैं, तो तकनीक के "कल्याण" पर अत्यधिक ध्यान केंद्रित करना अव्यवहारिक प्रतीत होता है। विशेषज्ञों का कहना है कि वर्तमान में मानव समाज की महत्वपूर्ण समस्याओं को हल करना अधिक महत्वपूर्ण है, बजाय इसके कि कुछ तकनीकी प्रणालियों के "हितों" की सुरक्षा पर संसाधनों और ऊर्जा का निवेश किया जाए।