In der heutigen Arbeitswelt spielt Künstliche Intelligenz (KI) eine immer größere Rolle bei der Bewerberauswahl. Doch diese Technologie birgt auch potenzielle Probleme, insbesondere im Hinblick auf Vorurteile. Studien zeigen, dass KI im Recruiting unbeabsichtigt Vorurteile verstärken kann, anstatt sie zu beseitigen.
Der Einsatz von KI im Recruiting verspricht mehr Objektivität und Effizienz. Durch den vermeintlichen Ausschluss menschlicher Vorurteile soll die Fairness und Konsistenz der Entscheidungen verbessert werden. Die Realität sieht jedoch anders aus. Studien belegen, dass KI im Recruiting subtil, manchmal sogar offen, Vorurteile verstärken kann. Die Beteiligung von HR-Fachkräften kann diese Effekte sogar verschärfen, anstatt sie zu mildern. Dies stellt unsere Annahme in Frage, dass menschliche Aufsicht KI kontrollieren und regulieren kann.
Bildquelle: Das Bild wurde mit KI generiert, Lizenzgeber Midjourney
Obwohl KI im Recruiting aufgrund ihrer vermeintlichen Objektivität und Konsistenz eingesetzt wird, zeigen zahlreiche Studien, dass diese Technologie sehr wohl voreingenommen sein kann. Dies liegt daran, dass KI aus den Daten lernt, mit denen sie trainiert wird. Sind die Daten fehlerhaft, ist es auch die KI. Vorurteile in den Daten können durch von Menschen erstellte Algorithmen, die die KI unterstützen, verstärkt werden, da diese Algorithmen oft menschliche Vorurteile enthalten.
Forscher haben 17 KI-Entwickler interviewt, um zu untersuchen, wie KI-Systeme für das Recruiting entwickelt werden können, die Vorurteile reduzieren anstatt zu verstärken. Basierend auf diesen Interviews entwickelten die Forscher ein Modell, in dem HR-Fachkräfte und KI-Programmierer Informationen austauschen und voreingenommene Annahmen bei der Prüfung von Datensätzen und der Entwicklung von Algorithmen hinterfragen.
Die Studie zeigt jedoch, dass die Umsetzung dieses Modells durch die bestehenden Unterschiede in Bildung, Fachwissen und demografischer Zusammensetzung zwischen HR-Fachkräften und KI-Entwicklern erschwert wird. Diese Unterschiede behindern die effektive Kommunikation, Zusammenarbeit und sogar das gegenseitige Verständnis. HR-Fachkräfte werden typischerweise in Personalmanagement und Organisationsverhalten ausgebildet, während KI-Entwickler auf Datenwissenschaft und Technologie spezialisiert sind.
Um die Problematik von KI-basierten Vorurteilen im Recruiting zu lösen, sind einige Veränderungen notwendig:
Strukturierte Schulungsprogramme: Für HR-Fachkräfte sind strukturierte Schulungsprogramme unerlässlich, die sich auf die Entwicklung von Informationssystemen und KI konzentrieren. Diese Schulungen sollten die Grundlagen der KI, die Erkennung von Vorurteilen in KI-Systemen und Strategien zur Minderung dieser Vorurteile umfassen.
Förderung der Zusammenarbeit zwischen HR-Fachkräften und KI-Entwicklern: Unternehmen sollten Teams bilden, die sowohl HR-Experten als auch KI-Experten umfassen. Dies hilft, Kommunikationslücken zu schließen und die Bemühungen besser zu koordinieren.
Entwicklung kulturspezifischer Datensätze: Dies ist entscheidend für die Reduzierung von Vorurteilen in KI-Systemen. HR-Fachkräfte und KI-Entwickler müssen gemeinsam daran arbeiten, dass die in KI-gesteuerten Recruiting-Prozessen verwendeten Daten vielfältig sind und verschiedene Bevölkerungsgruppen repräsentieren.
Entwicklung von Richtlinien und ethischen Standards: Der Staat sollte Richtlinien und ethische Standards für den Einsatz von KI im Recruiting entwickeln. Dies trägt zum Aufbau von Vertrauen und zur Gewährleistung von Fairness bei. Unternehmen sollten Richtlinien implementieren, die Transparenz und Rechenschaftspflicht in KI-gestützten Entscheidungsprozessen fördern.
Durch diese Maßnahmen können wir ein integrativeres und gerechteres Recruiting-System schaffen, das die Stärken von HR-Fachkräften und KI-Entwicklern optimal nutzt.