Policybrief

Künstliche Intelligenz in der Personalauswahl

Hier finden Sie den Policybrief in voller Länge!

Als Starke Prognosetechnologie kommt Künstliche Intelligenz (KI) in immer mehr Firmen und vielseitigen Bereichen zum Einsatz. Diese steigende Tendenz in der Anwendung erfordert, dass wir die Auswirkungen des KI-Einsatzes erforschen. Das Foscher:innen-Team von ai:conomics beleuchtet im zweiten Policybrief den Einsatz von KI im Einstellungsprozess im Zusammenhang mit Diskriminierung und zeigt auf: KI kann Diskriminierung in Einstellungsverfahren und Recruiting reduzieren, da sie durch objektive Entscheidungen Diversität erhöht - jedoch ist das in der Praxis nicht immer der Fall. Damit die Technologie dieses Potenzial ausfüllen kann, braucht es das richtige Algorithmus-Design, Transparenz und Vertrauen gegenüber der Technologie.

Diskriminierung bei Einstellungen: ein folgenschweres Problem

Diskriminierung bei Einstellungen ist ein schon seit Langem untersuchtes Phänomen, das häufig auf unbewusster, interpersoneller Voreingenommenheit von Menschen aufgrund unterschiedlicher persönlicher Merkmale (sog. Unconscious Bias) basiert.
Damit beeinflusst sie nicht nur den spezifischen Einstellungsprozess, sondern trägt in einem größeren Zusammenhang zu Ungleichheiten auf dem Arbeitsmarkt bei. Denn Personen aus überrepräsentierten Gruppen erhalten einen besseren Zugang zu attraktiven Beschäftigungsmöglichkeiten, sie werden häufiger zum Bewerbungsgespräch eingeladen und erhalten Jobangebote. Diese Bevorzugung begrenzt den Zugang anderer Gruppen.
Das schadet auch den Unternehmen, denn dieses Phänomen führt zu Qualifikationsmissverhältnissen und ineffizienter Zuteilung von Ressourcen.

Die Forschung hat wiederholt festgestellt, dass Einstellungsverfahren häufig mit Diskriminierung aufgrund der persönlichen Merkmale verbunden sind, die in Wirklichkeit nichts mit ihrer Produktivität zu tun haben. Solche potenziellen Merkmale sind beispielsweise Geschlecht oder Nationalität, die vom Namen oder vom Aussehen von Bewerber:innen abgeleitet werden.

Kann KI Diskriminierung reduzieren?

Die KI-Technologie kennt keine natürlichen Präferenzen für die Einstellung von Bewerber:innen mit einem bestimmten Aussehen, einem speziellen, auf die Nationalität hinweisenden Namen oder einem Abschluss an einer bestimmten Universität, um nur einige zu nennen. Darüber hinaus ziehen intelligente Einstellungsalgorithmen große Datensätze aus verschiedenen Datenquellen heran, zum Beispiel Lebensläufe, Interviews und soziale Medien, sodass sie vorhersagen können, welche Bewerber:innen die offene Stelle am besten besetzen können. Studien lassen erkennen, dass dadurch die Erkenntnisse von Fachexpert:innen häufig übertroffen werden. Aus diesem Grund hat die Technologie als Werkzeug zur Reduzierung der Diskriminierung bei Einstellungen großes Potenzial.

KI kann die Diversität erfolgreicher Bewerber:innen erhöhen und gleichzeitig insgesamt bessere Leistungen der Bewerber:innen hervorbringen.

Die Praxis zeigt: Nicht jede KI ist unvoreingenommen

Die derzeitigen KI-Algorithmen, sogenannte ‚Deep Learning‘ oder ‚Machine Learning‘ Lernverfahren, hängen stark von menschengemachten Trainingsdaten ab und können so Bias reproduzieren – gerade dann, wenn es sich dabei um historische Daten handelt. Der Tech-Gigant Amazon ist in diesem Szenario ein erstklassiges Beispiel: Im Jahr 2018 entdeckte das Unternehmen, dass sein KI-basiertes Rekrutierungssystem auf historischen Arbeitsleistungsdaten beruhte, die stark männlich dominiert waren und höhere Leistungsbewertungen für weiße Männer enthielten. Infolgedessen ergab der an dieser Informationsauswahl trainierte Algorithmus höhere Punktwerte für weiße männliche Bewerber, während Frauen und Bewerber:innen, deren Attribute mit Frauen assoziiert wurden, aussortiert wurden.
Dieses Beispiel zeigt deutlich: Die Ergebnisse von KI-basierten Einstellungen hängen weitgehend von dem spezifischen Algorithmus-Design ab. Unter bestimmten Umständen kann KI die Diskriminierung von Arbeitskräften weiter verschärfen, indem menschliche Vorurteile und unfaire Ergebnisse auf Kosten bestimmter Personengruppen reproduziert werden.

Das verlangt ein umsichtiges Vorgehen. Ob es nun um die Pflege der durch KI angewandten Trainingsdaten, die Etikettierung dieser Daten oder die Etikettierung der Ergebnisse geht – Bias können vom Menschen auf die KI übertragen werden.

Es braucht das richtige Algorithmus-Design, Vertrauen und Transparenz

Studien zeigen, dass die Anwendung von KI beim Rekrutierungsprozess Zweifel an der Fairness des Prozesses bei Bewerber:innen hervorrufen kann. Es kann sein, dass Bewerber:innen die vom Algorithmus getroffenen Entscheidungen als unfairer ansehen als jene, die von Menschen getroffen wurden – ganz gleich, ob sie tatsächlich weniger, genauso oder gar noch fairer als menschliche Entscheidungen sind. So bewerben sie sich möglicherweise nicht auf eine Stelle oder nehmen diese nicht an. Das kann beispielsweise dazu führen, dass nicht ausreichend qualifizierte Personen in den Bewerbungsprozess eintreten. Nehmen Bewerber:innen die Stelle trotz Bedenken an, kann das Vertrauen im Beschäftigungsverhältnis gestört sein, wodurch die Personalfluktuation im Unternehmen steigen kann. Die Wahrnehmung von Arbeitskräften in Bezug auf die Fairness der KI könnte folglich einen stärkeren Einfluss auf den Einstellungsprozess und die Selbstselektion von Arbeitskräften haben als die tatsächliche Fairness der KI. Die Wahrnehmung von Arbeitskräften wird daher zum kritischen Faktor, wenn informierte Entscheidungen über Algorithmus-Designs sowie deren ethische Implementierungspolitik getroffen werden müssen.
Diese wissenschaftlichen Erkenntnisse zeigen deutlich: Es braucht Transparenz überall dort, wo KI Anwendung findet. Menschen neigen dazu Unbekanntem zu misstrauen, sodass Transparenz und Offenheit entscheiden sind, um mehr Akzeptanz gegenüber algorithmischen Einstellungsverfahren zu schaffen und die Beteiligung an ihnen zu erhöhen.

Da Technologien sich nicht deterministisch entwickeln, wird auch Künstliche Intelligenz (KI) sich nicht instinktiv zu mehr oder weniger Diskriminierung hin entwickeln. Wie in jedem technologischen Rahmen gibt es auch hier zahlreiche Entscheidungen, die in Bezug auf Design und Anwendung getroffen werden müssen. Durch sorgfältig getroffene Entscheidungen, die im Detail dokumentiert und den Beteiligten zugänglich gemacht werden, wird KI transparenter und besser erklärbar. Das ist eine Grundvoraussetzung, damit KI ihr volles Potenzial in Einstellungsprozessen entfalten kann.

Ergebnisse

News

Lass dich benachrichtigen! Wir veröffentlichen laufend neue Erkenntnisse und Einblicke.

Newsletter abonnieren
Shapes background

Projektpartner