在当今职场招聘中,人工智能(AI)正逐渐成为筛选简历和评估求职者的重要工具。然而,这项技术也带来了一些潜在的问题,尤其是关于偏见的问题。研究表明,AI在招聘过程中可能会无意中加剧偏见,而不是消除它们。

AI在招聘领域的应用承诺了更高的客观性和效率,通过消除人为偏见,增强决策制定中的公平性和一致性。但实际情况可能并非如此。研究发现,AI在招聘中可能会微妙地,有时甚至是明显地加剧偏见。人力资源(HR)专业人员的参与可能加剧而非缓解这些影响,这挑战了我们对人工监督能够控制和调节AI的信念。

AI机器人面试,谈判

图源备注:图片由AI生成,图片授权服务商Midjourney

尽管使用AI进行招聘的原因之一是它被认为更客观和一致,但多项研究实际上发现这项技术很可能存在偏见。这是因为AI从训练它的数据集中学习。如果数据存在缺陷,AI也会如此。数据中的偏见可能因支持AI的人类创造的算法而加剧,这些算法在设计中常常包含人类偏见。

研究者还采访了17位AI开发者,探讨了如何开发能够减少而非加剧招聘偏见的AI招聘系统。基于这些访谈,研究者提出了一个模型,其中HR专业人员和AI程序员将来回交换信息,并在检查数据集和开发算法时质疑先入为主的观念。

然而,研究发现实施这种模型的难点在于HR专业人员和AI开发者之间存在的教育、专业和人口统计差异。这些差异妨碍了有效的沟通、合作,甚至理解彼此的能力。HR专业人员通常接受人力资源管理和组织行为方面的培训,而AI开发者则擅长数据科学和技术。

如果公司和HR行业想要解决基于AI的招聘中的偏见问题,需要进行一些改变:

结构化培训计划:为HR专业人员实施专注于信息系统开发和AI的结构化培训计划至关重要。此培训应涵盖AI的基础知识、识别AI系统中的偏见以及减轻这些偏见的策略。

促进HR专业人员与AI开发者之间的更好合作:公司应寻求创建包括HR和AI专家的团队。这有助于弥合沟通差距,更好地协调他们的努力。

开发具有文化相关性的数据集:这对于减少AI系统中的偏见至关重要。HR专业人员和AI开发者需要共同努力,确保AI驱动的招聘流程中使用的数据是多样化的,并代表不同的人口统计群体。

制定指导方针和伦理标准:国家需要为AI在招聘中的使用制定指导方针和伦理标准,这有助于建立信任并确保公平。组织应实施促进AI驱动决策过程中透明度和问责制的政策。

通过采取这些措施,我们可以创建一个更具包容性和公平性的招聘系统,充分利用HR专业人员和AI开发者的优势。