近期,多伦多大学和麻省理工学院科学家团队的实验发现,使用描述性标签训练的AI系统可能做出比人类更为苛刻的决定,对未来生活带来威胁。研究揭示了AI算法训练存在深刻缺陷,可能导致租房、贷款、手术等方面的决策问题。实验以狗图像数据集为例,结果显示描述性标签导致对违规狗的判断更严厉,可能引发社会不公。算法可能在博士申请、招聘等领域强化社会偏见,加剧不平等。研究人员敦促及早纠正这一问题,强调在AI主导的时代,正确标注数据以避免算法偏见至关重要,否则将对人类生活产生严重影响。