गूगल ने हाल ही में अपने जनरेटिव एआई के उपयोग की शर्तों को अपडेट किया है, जिसमें स्पष्ट रूप से ग्राहकों को "उच्च जोखिम" क्षेत्रों, जैसे कि स्वास्थ्य और रोजगार, में अपने जनरेटिव एआई उपकरणों का उपयोग "स्वचालित निर्णय" लेने की अनुमति दी गई है, बशर्ते कि मानव निगरानी हो। यह परिवर्तन कंपनी की नवीनतम जारी की गई जनरेटिव एआई उपयोग पर प्रतिबंध नीति में दर्शाया गया है।

एआई स्वास्थ्य चिकित्सा डॉक्टर आर्टिफिशियल इंटेलिजेंस

चित्र स्रोत नोट: चित्र एआई द्वारा उत्पन्न, चित्र अधिकार सेवा प्रदाता Midjourney

अपडेट की गई नीति के अनुसार, ग्राहक निगरानी के तहत गूगल के जनरेटिव एआई का उपयोग कर सकते हैं जिससे व्यक्तिगत अधिकारों पर "महत्वपूर्ण प्रतिकूल प्रभाव" पड़ सकता है। इन उच्च जोखिम क्षेत्रों में रोजगार, आवास, बीमा, सामाजिक कल्याण आदि शामिल हैं। पहले की शर्तें उच्च जोखिम वाले स्वचालित निर्णयों पर पूर्ण प्रतिबंध लगाती थीं, लेकिन गूगल ने कहा है कि वास्तव में शुरू से ही मानव निगरानी के तहत इस प्रकार के निर्णय लेने की अनुमति थी।

गूगल के प्रवक्ता ने मीडिया के सामने कहा: "मानव निगरानी की आवश्यकता हमारी नीति में हमेशा रही है, जो सभी उच्च जोखिम क्षेत्रों को कवर करती है। हमने केवल कुछ शर्तों को फिर से वर्गीकृत किया है और उपयोगकर्ताओं की समझ के लिए कुछ उदाहरण अधिक स्पष्ट रूप से सूचीबद्ध किए हैं।"

गूगल के दृष्टिकोण की तुलना में, गूगल के प्रमुख प्रतिस्पर्धियों जैसे OpenAI और Anthropic ने उच्च जोखिम स्वचालित निर्णयों के लिए अधिक सख्त नियम बनाए हैं। OpenAI अपने सेवा का उपयोग करके क्रेडिट, रोजगार, आवास, शिक्षा, सामाजिक स्कोरिंग और बीमा से संबंधित स्वचालित निर्णय लेने पर प्रतिबंध लगाता है। जबकि Anthropic अपने एआई को कानून, बीमा, स्वास्थ्य आदि उच्च जोखिम क्षेत्रों में स्वचालित निर्णय लेने की अनुमति देता है, लेकिन केवल "योग्य पेशेवरों" की निगरानी में, और ग्राहकों को यह स्पष्ट रूप से सूचित करने की आवश्यकता होती है कि वे एआई का उपयोग ऐसे निर्णय लेने के लिए कर रहे हैं।

स्वचालित निर्णय लेने वाले एआई सिस्टम के बारे में, नियामक संस्थाएं इस पर चिंता व्यक्त कर रही हैं, क्योंकि ऐसी तकनीकें परिणाम पूर्वाग्रह का कारण बन सकती हैं। उदाहरण के लिए, शोध से पता चला है कि एआई ऋण और बंधक आवेदन अनुमोदन में ऐतिहासिक भेदभाव को जारी रख सकता है।

मानवाधिकार अवलोकन जैसे गैर-लाभकारी संगठनों ने विशेष रूप से "सामाजिक स्कोरिंग" सिस्टम पर प्रतिबंध लगाने की अपील की है, क्योंकि वे लोगों को सामाजिक सुरक्षा प्राप्त करने के अवसर को खतरे में डालते हैं और यह गोपनीयता का उल्लंघन कर सकते हैं, पूर्वाग्रहित चित्रण कर सकते हैं।

यूरोपीय संघ में, "एआई अधिनियम" के तहत, उच्च जोखिम एआई सिस्टम, जिसमें व्यक्तिगत क्रेडिट और रोजगार निर्णय लेने वाले सिस्टम शामिल हैं, को सबसे कड़े नियमों का सामना करना पड़ता है। इन सिस्टम के प्रदाताओं को डेटाबेस में पंजीकरण कराना होता है, गुणवत्ता और जोखिम प्रबंधन करना होता है, मानव पर्यवेक्षकों को नियुक्त करना होता है, और संबंधित अधिकारियों को घटनाओं की रिपोर्ट करनी होती है।

संयुक्त राज्य अमेरिका में, कोलोराडो राज्य ने हाल ही में एक कानून पारित किया है, जिसमें एआई डेवलपर्स को "उच्च जोखिम" एआई सिस्टम के बारे में जानकारी प्रकट करने और सिस्टम की क्षमताओं और सीमाओं का सारांश जारी करने की आवश्यकता होती है। इस बीच, न्यूयॉर्क शहर ने नियोक्ताओं को स्वचालित उपकरणों का उपयोग करके उम्मीदवारों को छांटने से मना किया है, जब तक कि वह उपकरण पिछले वर्ष में पूर्वाग्रह ऑडिट से नहीं गुजरा हो।

मुख्य बिंदु:

🌟 गूगल उच्च जोखिम क्षेत्रों में जनरेटिव एआई के उपयोग की अनुमति देता है, लेकिन मानव निगरानी की आवश्यकता है।  

🛡️ अन्य एआई कंपनियां जैसे OpenAI और Anthropic उच्च जोखिम निर्णयों पर अधिक सख्त सीमाएं हैं।  

⚖️ विभिन्न देशों के नियामक स्वचालित निर्णय लेने वाले एआई सिस्टम की समीक्षा कर रहे हैं, ताकि परिणाम पूर्वाग्रह से बचा जा सके।