最近、トロント大学とマサチューセッツ工科大学(MIT)の科学者チームによる実験で、記述的なラベルを用いて訓練されたAIシステムが、人間よりも厳しい判断を下す可能性があり、将来の生活に脅威を与えることが明らかになりました。
この研究は、AIアルゴリズムの訓練に深刻な欠陥が存在し、賃貸、融資、手術などの意思決定に問題を引き起こす可能性を示しています。実験では、犬の画像データセットを用いて検証が行われ、記述的なラベルが、規則違反の犬に対する判断をより厳しくする傾向があることが示されました。これは、社会的不平等につながる可能性があります。
さらに、博士課程への応募や採用といった分野において、アルゴリズムが社会的な偏見を強化し、不平等を悪化させる可能性も懸念されています。
研究者たちは、この問題の早期修正を強く求めており、AIが主導する時代において、アルゴリズムの偏りを避けるために、データの正確なラベル付けが非常に重要であると強調しています。そうでなければ、人々の生活に深刻な影響を与える可能性があります。