हाल ही में, टोरंटो विश्वविद्यालय और मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी के वैज्ञानिकों की टीम के प्रयोग ने पाया है कि वर्णनात्मक लेबल के साथ प्रशिक्षित AI सिस्टम मानव से अधिक कठोर निर्णय ले सकते हैं, जो भविष्य की जिंदगी के लिए खतरा बन सकता है। अनुसंधान ने AI एल्गोरिदम के प्रशिक्षण में गहरे दोषों का खुलासा किया है, जो आवास, ऋण, सर्जरी आदि के निर्णयों में समस्याएँ उत्पन्न कर सकता है। प्रयोग ने कुत्तों की छवियों के डेटासेट का उदाहरण लिया, जिसके परिणामस्वरूप वर्णनात्मक लेबल ने नियमों का उल्लंघन करने वाले कुत्तों के बारे में निर्णय को और अधिक कठोर बना दिया, जो सामाजिक अन्याय को जन्म दे सकता है। एल्गोरिदम पीएचडी आवेदन, भर्ती आदि क्षेत्रों में सामाजिक पूर्वाग्रह को मजबूत कर सकता है, जिससे असमानता बढ़ सकती है। शोधकर्ताओं ने इस समस्या को समय पर सुधारने की अपील की है, और यह बताया है कि AI के प्रभुत्व वाले युग में, डेटा को सही तरीके से लेबल करना और एल्गोरिदम पूर्वाग्रह से बचना अत्यंत महत्वपूर्ण है, अन्यथा इसका मानव जीवन पर गंभीर प्रभाव पड़ेगा।