हाल ही में, ऑस्ट्रेलियाई संसद की विशेष समिति ने राष्ट्रीय कृत्रिम बुद्धिमत्ता (AI) अनुप्रयोगों पर एक जांच रिपोर्ट जारी की, जिसमें बताया गया कि OpenAI, मेटा और गूगल जैसे बड़े तकनीकी कंपनियों के बड़े भाषा मॉडल (LLM) में कई समस्याएँ हैं। यह रिपोर्ट आठ महीने की जांच के बाद आई है, जिसमें वैश्विक तकनीकी कंपनियों द्वारा ऑस्ट्रेलियाई प्रशिक्षण डेटा के उपयोग में पारदर्शिता की कमी का खुलासा किया गया है, और उनकी उत्पादों को नए उच्च जोखिम AI कानूनों के तहत लाने की मांग की गई है।
चित्र स्रोत नोट: चित्र AI द्वारा उत्पन्न किया गया, चित्र लाइसेंस सेवा प्रदाता Midjourney
विशेष समिति की जांच का दायरा व्यापक है, जिसमें AI द्वारा लाए गए आर्थिक लाभ से लेकर संभावित पूर्वाग्रह और पर्यावरणीय प्रभाव शामिल हैं। रिपोर्ट में जोर दिया गया है कि इन बड़े तकनीकी कंपनियों के सामान्य AI मॉडल की संरचना, विकास और इसके प्रभाव में गंभीर पारदर्शिता की कमी है। समिति ने इन कंपनियों की बाजार शक्ति, नियामक अनुपालन से बचने के रिकॉर्ड, और ऑस्ट्रेलियाई कॉपीराइट धारकों के खिलाफ स्पष्ट उल्लंघनों पर चिंता व्यक्त की। इसके अलावा, रिपोर्ट में कुछ अन्य मुद्दों का भी उल्लेख किया गया है, जिसमें अनैच्छिक रूप से व्यक्तिगत और निजी जानकारी को खींचने का मामला शामिल है।
हालांकि समिति मानती है कि AI प्रौद्योगिकी आर्थिक उत्पादकता को बढ़ा सकती है, लेकिन उसने यह भी指出 किया है कि स्वचालन से बड़ी संख्या में नौकरियों का नुकसान हो सकता है, विशेषकर उन पदों पर जिनके लिए शिक्षा और प्रशिक्षण की आवश्यकताएँ कम हैं, या जो महिलाओं और निम्न आय समूहों पर अधिक प्रभाव डाल सकती हैं। रिपोर्ट में विशेष रूप से उल्लेख किया गया है कि कार्यस्थल में AI सिस्टम के उपयोग से श्रमिकों के अधिकारों और कार्य स्थितियों पर नकारात्मक प्रभाव पड़ सकता है, ये सिस्टम पहले से ही कई बहुराष्ट्रीय कंपनियों में लागू किए गए हैं।
इस पर, समिति ने ऑस्ट्रेलियाई सरकार को कई सिफारिशें की हैं, जिसमें श्रमिकों के अधिकारों को प्रभावित करने वाले उच्च जोखिम AI अनुप्रयोगों को कानूनी ढांचे में स्पष्ट रूप से शामिल करना, AI अनुप्रयोगों के कारण कार्यस्थल के जोखिमों से निपटने के लिए मौजूदा कार्य स्वास्थ्य और सुरक्षा कानूनों का विस्तार करना, और AI उपयोग से संबंधित निर्णयों में नियोक्ताओं और कर्मचारियों के बीच पर्याप्त संवाद और परामर्श सुनिश्चित करना शामिल है।
हालांकि सरकार को तुरंत कार्रवाई करने की आवश्यकता नहीं हो सकती है, लेकिन रिपोर्ट ने स्थानीय IT नेताओं से AI प्रौद्योगिकी के उपयोग के समय विभिन्न प्रभावों पर व्यापक रूप से विचार करने का आग्रह किया है, ताकि उत्पादकता में वृद्धि के साथ-साथ कर्मचारियों के अधिकारों और कार्य स्थितियों का सम्मान किया जा सके।
मुख्य बिंदु:
🌐 बड़े तकनीकी कंपनियों के AI मॉडल के उपयोग में पारदर्शिता की कमी है, समिति ने इसे उच्च जोखिम वाले उत्पाद के रूप में वर्गीकृत करने की मांग की।
📉 स्वचालन से बड़ी संख्या में नौकरियों का नुकसान हो सकता है, विशेषकर निम्न कौशल वाली नौकरियों और कमजोर समूहों पर।
🤝 नियोक्ताओं और कर्मचारियों के बीच पर्याप्त संवाद को प्रोत्साहित करना, ताकि AI अनुप्रयोग श्रमिकों के अधिकारों को नुकसान न पहुँचाएँ।