ब्रिटेन के गार्जियन द्वारा हाल ही में किए गए एक सर्वेक्षण के अनुसार, ब्रिटिश सरकार विभिन्न विभागों में निर्णय लेने में सहायता के लिए गहरे अध्ययन एल्गोरिदम का सक्रिय रूप से उपयोग कर रही है, लेकिन इस प्रक्रिया ने गंभीर एल्गोरिदम प्रशिक्षण डेटा पूर्वाग्रह के मुद्दों को उजागर किया है। उदाहरण के लिए, ब्रिटेन के गृह कार्यालय ने हवाई अड्डों पर पासपोर्ट पढ़ने के लिए कृत्रिम बुद्धिमत्ता तकनीक का उपयोग किया है, जिसका उद्देश्य संभावित झूठे विवाह मामलों की पहचान और जांच करना है, लेकिन जांच में यह पाया गया कि इस एल्गोरिदम में कुछ राष्ट्रीयता के यात्रियों के प्रति स्पष्ट भेदभाव है। विशेषज्ञों का मानना है कि यह एल्गोरिदम प्रशिक्षण डेटा में पूर्वाग्रह को दर्शाता है। इस समस्या को हल करने के लिए, ब्रिटिश सरकार को एल्गोरिदम की पारदर्शिता बढ़ाने, डेटा पहुंच को खुला करने की अनुमति देने और कानून के नियमन को मजबूत करने की आवश्यकता है, ताकि कृत्रिम बुद्धिमत्ता का उपयोग करने वाले सभी संगठन हर व्यक्ति के साथ निष्पक्षता से व्यवहार कर सकें। हमें यह सुनिश्चित करने के लिए कानून, प्रौद्योगिकी और शिक्षा जैसे क्षेत्रों में सामूहिक प्रयास करने की भी आवश्यकता है कि कृत्रिम बुद्धिमत्ता तकनीक का विकास वास्तव में मानवता के लिए लाभकारी हो, न कि भेदभाव के उपकरण के रूप में।
ब्रिटिश सरकार को आर्टिफिशियल इंटेलिजेंस के उपयोग में निष्पक्षता की चुनौतियों का सामना करना पड़ रहा है
