रिपोर्टों से पता चला है कि OpenAI GPT3.5 ने रिज़्यूमे क्रमबद्ध करने में नस्लीय पूर्वाग्रह प्रदर्शित किया है, प्रयोगों से पता चला है कि यह विशेष जातीय नामों की ओर झुकाव रखता है, जो भर्ती विकल्पों को प्रभावित कर सकता है। इसके अलावा, विभिन्न पदों पर लिंग और जाति की प्राथमिकताएँ भी प्रयोगों में पाई गई हैं। OpenAI ने प्रतिक्रिया दी है कि कंपनियाँ जब अपनी तकनीक का उपयोग करती हैं तो आमतौर पर पूर्वाग्रह को कम करने के लिए कदम उठाती हैं।