現代の採用活動において、人工知能(AI)は履歴書の選別や求職者の評価において重要なツールになりつつあります。しかし、この技術は、特にバイアスに関する問題など、いくつかの潜在的な問題も引き起こしています。研究によると、AIは採用プロセスにおいて、バイアスを除去するどころか、無意識のうちに悪化させてしまう可能性があることが示されています。
AIの採用分野への応用は、人的バイアスを排除し、意思決定における公平性と一貫性を高めることで、より高い客観性と効率性を約束しています。しかし、実際はそうではない可能性があります。研究によると、AIは採用において、微妙な場合もあれば明らかな場合もありますが、バイアスを悪化させてしまう可能性があることが分かっています。人事(HR)専門家の関与が、これらの影響を軽減するどころか、悪化させてしまう可能性があり、AIを人間の監督によって制御・調整できるという私たちの信念に疑問を投げかけています。
画像出典:画像はAIによって生成され、画像ライセンスサービスプロバイダーMidjourneyから提供されています。
AIによる採用がより客観的で一貫性があるとされている理由の一つにもかかわらず、多くの研究で、この技術にはバイアスが存在する可能性が高いことが実際に明らかになっています。これは、AIがそのAIを訓練したデータセットから学習するためです。データに欠陥があれば、AIにも欠陥が生じます。データ内のバイアスは、AIを支える人間が作成したアルゴリズムによって悪化することがあり、これらのアルゴリズムは設計段階でしばしば人間のバイアスを含んでいます。
研究者たちは、採用におけるバイアスを悪化させるのではなく軽減できるAI採用システムを開発する方法について、17人のAI開発者へのインタビューも行いました。これらのインタビューに基づいて、研究者たちは、HR専門家とAIプログラマーが情報をやり取りし、データセットの検査やアルゴリズムの開発において先入観に疑問を呈するモデルを提案しました。
しかし、このモデルの実施における困難は、HR専門家とAI開発者の間にある教育、専門性、人口統計上の違いにあることが研究で明らかになっています。これらの違いは、効果的なコミュニケーション、協力、さらには互いを理解する能力を妨げています。HR専門家は通常、人事管理と組織行動に関するトレーニングを受けていますが、AI開発者はデータサイエンスと技術に精通しています。
企業や人事業界がAIベースの採用におけるバイアスの問題を解決するためには、いくつかの変更が必要です。
構造化された研修プログラム:情報システム開発とAIに特化した構造化された研修プログラムをHR専門家向けに実施することが不可欠です。この研修では、AIの基礎知識、AIシステムにおけるバイアスの特定、およびこれらのバイアスを軽減するための戦略を網羅する必要があります。
HR専門家とAI開発者間のより良い協力の促進:企業は、HRとAIの専門家を含むチームを構築することを目指すべきです。これにより、コミュニケーションのギャップを埋め、彼らの努力をより緊密に調整することができます。
文化的に関連性の高いデータセットの開発:これは、AIシステムにおけるバイアスを軽減するために不可欠です。HR専門家とAI開発者は協力して、AI駆動の採用プロセスで使用されるデータが多様であり、さまざまな人口統計学的集団を表していることを保証する必要があります。
ガイドラインと倫理基準の策定:国は、採用におけるAIの使用に関するガイドラインと倫理基準を策定する必要があります。これは、信頼の構築と公平性の確保に役立ちます。組織は、AI駆動の意思決定における透明性と説明責任を促進するポリシーを実施する必要があります。
これらの措置を講じることで、より包括的で公平な採用システムを構築し、HR専門家とAI開発者の強みを最大限に活用することができます。