Algorithmische Ungleichheiten: Wie KI-Einstellungstools alte Vorurteile am Arbeitsplatz reproduzieren
Unternehmen auf der ganzen Welt nutzen zunehmend Einstellungstools mit künstlicher Intelligenz (KI), um Kandidaten für Stellen zu filtern, zu bewerten und in die engere Auswahl zu nehmen. Ursprünglich wurden diese Systeme als Lösung zur Reduzierung des Verwaltungsaufwands, zur Steigerung der Effizienz und zur Beseitigung menschlicher Vorurteile bei der Einstellung angepriesen. Allerdings deuten immer mehr Forschungsergebnisse darauf hin, dass KI-gestützte Einstellungsinstrumente nicht die Voreingenommenheit neutralisieren, sondern vielmehr dazu beitragen, bestehende Ungleichheiten auf dem Arbeitsmarkt zu verschärfen. Dieser Trend wirkt sich besonders nachteilig auf Frauen aus, deren berufliche Laufbahn mit Unterbrechungen ihrer beruflichen Laufbahn einhergeht – Unterbrechungen in der formellen bezahlten Beschäftigung, die häufig wegen Pflege, Altenpflege, Geburt oder anderen familiären Verpflichtungen eingelegt werden – sowie für Frauen mit unkonventionellen, nichtlinearen Lebensläufen.
Beispielloser Anstieg der KI bei der Einstellung von Mitarbeitern
Heutzutage ist KI fest in die globalen Rekrutierungsabläufe integriert. Die KI-gesteuerte Personalbeschaffung in ihren Anfängen in den frühen 2000er Jahren umfasste Application Tracking Systems (ATS), also eine schlüsselwortbasierte Lebenslaufprüfung, um Bewerber anhand spezifischer Qualifikationen und Stellenbeschreibungen zu filtern. Die Fortschritte beim maschinellen Lernen (ML) und der Verarbeitung natürlicher Sprache (NLP) haben das Parsen von Lebensläufen verändert; KI-Plattformen haben Fähigkeiten zum Verständnis von Kontexten, Fähigkeiten und Erfahrungsniveaus in Lebensläufen entwickelt. KI-gestützte Job-Matching-Algorithmen ordneten Kandidaten Positionen zu, die auf historischen Einstellungstrends basierten. Später, Ende der 2010er Jahre, wurden KI-gesteuerte Chatbots automatisiert Engagement der Kandidatenund Vorscreening-Prozesse. Predictive Analytics unterstützte Unternehmen bei der Vorhersage des Personalbedarfs anhand historischer Daten, Branchentrends und Fluktuationsmuster und kombinierte sie dann mit KI-Sourcing, um die besten Kandidaten zusammenzubringen, was eine strategischere, datengesteuerte Rekrutierung ermöglichte. Dies markierte einen entscheidenden Wandel für die KI vom passiven Werkzeug zur aktiven Determinante im Rekrutierungsprozess.
Quelle: Canva
Ein aktueller Umfrage von LinkedIn ergab, dass 70 % der indischen Personalvermittler KI nutzen, um „verborgene Talente“ zu erschließen, die Fähigkeiten der Kandidaten zu bewerten und die Einstellungs- und Onboarding-Prozesse zu beschleunigen. Rund 80 % der Befragten waren der Meinung, dass KI die Beurteilung der Fähigkeiten eines Kandidaten erleichtert, und 76 % waren der Meinung, dass sie dazu beitrug, die langwierigen Einstellungsprozesse insgesamt zu rationalisieren. Unternehmen nutzen die KI-Infrastruktur, um die Überprüfung von Lebensläufen zu automatisieren, Lebensläufe mit Stellenbeschreibungen abzugleichen und sogar erste KI-geführte Videointerviews durchzuführen. Während die grundlegende Absicht positiv sein mag – der Versuch, die Voreingenommenheit und Subjektivität des menschlichen Urteils zu beseitigen –, haben Berichte ergeben, dass a zum Thema Trend: Die von KI-Systemen verwendeten Kerndaten und Kriterien spiegeln historische Muster der Ausgrenzung und Diskriminierung wider.
Wie sich KI-Voreingenommenheit stärker auf Frauen auswirkt
KI-Tools funktionieren nicht im luftleeren Raum. MIT-Sloan-Professor Emilio J. Castilla bezeichnet dies als „Paradoxon der algorithmischen Meritokratie“. Die meisten KI-Einstellungsmodelle verwenden Algorithmen für maschinelles Lernen, die auf historischen (vorhandenen) Personaldaten wie früheren Lebensläufen, Leistungsergebnissen und Einstellungsentscheidungen trainiert werden. Wenn diese historischen Trends wahrscheinlich durch fehlerhafte menschliche Annahmen geprägt waren und diskriminierende Muster enthielten (z. B. die Einstellung von weniger Frauen und mangelnde Diversität in Führungspositionen), dann lernt die KI, „erfolgreiche“ Kandidaten mit Merkmalen zu verknüpfen, die mit diesen voreingenommenen Ergebnissen verknüpft sind. Dadurch wird die Ethik und Glaubwürdigkeit der angeblich „neutralen und unvoreingenommenen“ Software entlarvt.
KI-Tools funktionieren nicht im luftleeren Raum. Die meisten KI-Einstellungsmodelle verwenden Algorithmen für maschinelles Lernen, die auf historischen (vorhandenen) Personaldaten wie früheren Lebensläufen, Leistungsergebnissen und Einstellungsentscheidungen trainiert werden. Wenn diese historischen Trends wahrscheinlich durch fehlerhafte menschliche Annahmen geprägt waren und diskriminierende Muster enthielten, dann lernt die KI, „erfolgreiche“ Kandidaten mit Merkmalen zu verknüpfen, die mit diesen voreingenommenen Ergebnissen verknüpft sind
Dieses Phänomen machte sich am deutlichsten bemerkbar, als festgestellt wurde, dass das von Amazon entwickelte KI-Rekrutierungstool (das anhand der Einstellungsdaten der letzten 10 Jahre trainiert wurde, bei denen überwiegend männliche Kandidaten vorkamen) Lebensläufe mit frauenbezogenen Begriffen wie „Kapitänin des Frauenschachclubs“ oder „Frauenhochschule“ benachteiligte. Nach viel öffentlichem Aufschrei Amazonas war gezwungen, das Rekrutierungstool aufzulösen. In einem anderen Fall nutzten mehrere Unternehmen, darunter Goldman Sachs und Unilever, die Spracherkennungsalgorithmen von HireVue, um die mündlichen Englischkenntnisse der Kandidaten zu bewerten; Jedoch, Forschung stellte fest, dass diese Algorithmen nicht-weiße und gehörlose Kandidaten benachteiligten. Es gibt auch kulturelle Vorurteile, da einige KI-Tools die Lebensläufe von Kandidaten herabgestuft haben, die in der Vergangenheit an schwarzen Colleges und Frauenhochschulen studiert haben, weil die Daten dieser Institutionen nicht in die vorherrschenden Angestellten-Pipelines eingespeist wurden.
Karriereunterbrechungen werden als negative Merkmale fehlinterpretiert
Statistisch gesehen ist die Wahrscheinlichkeit, dass Frauen ihre Karriere aufgrund von Betreuungspflichten unterbrechen, höher als bei Männern. LinkedIns Bericht stellt fest, dass die Wahrscheinlichkeit, dass Frauen Karriereunterbrechungen in ihren Profilen angeben, um 63,5 % höher ist. Interessanterweise äußerten sich Frauen aus Ländern mit einer integrativeren Politik wie Schweden, Deutschland und Frankreich transparenter über die Kluft (über 50 %), während Frauen aus dem globalen Süden offenbar Angst davor hatten, die Kluft aufzulisten (20 %). Persönliche Zielverfolgung und berufliche Weiterentwicklung waren bei Männern die häufigsten Pausentypen, die zwischen 6 und 12 Monaten lagen. Bei Frauen hingegen kommt es häufig zu einer Pause von sechs Monaten bis zu mehreren Jahren, insbesondere in Regionen, in denen die soziale Unterstützung rund um Elternzeit und Kinderbetreuung begrenzt ist. Der Bericht ergab auch, dass Berufsunterbrechungen ein Hindernis für den Wiedereinstieg von Frauen in die Arbeitswelt darstellten. KI-Systeme betrachten eine konstante Beschäftigung als Beweis für Engagement, Zuverlässigkeit und Kompetenz, und Lücken können unabhängig vom Kontext als negativ angesehen werden.
Während Forschungsergebnisse und weltweite Daten, die konkret belegen, wie KI Karriereunterbrechungen tadelt, nur in begrenztem Umfang vorliegen, belegen Branchenstudien nachdrücklich, dass Frauen mit Karrierelücken seltener für Stellen in die engere Wahl kommen, für die sie sich auf Augenhöhe mit ihren männlichen Kollegen qualifizieren (ohne Beschäftigungslücke). Arbeitswissenschaftler argumentieren, dass KI-Lebenslauf-Ranking-Modelle einen ununterbrochenen Karriereverlauf begünstigen und „nichtlineare“ Lebensläufe benachteiligen können – ein struktureller Nachteil für viele Frauen. Oberflächlich betrachtet mag dies wie eine objektive Bewertung erscheinen, aber es ist eine Nachbildung umfassenderer Einstellungsvorurteile in historischen Einstellungstraditionen, allerdings in noch größerem Maßstab. Da diese Systeme als „datengesteuert“ beworben werden und von einem Hauch von Neutralität geprägt sind, sind ihre Entscheidungen schwerer anzufechten.
Bevorzugung linearer Profile und algorithmischer Voreingenommenheit
KI-Recruiting-Tools basieren auf fähigkeitsbasiertem Matching – der Identifizierung von Schlüsselwörtern, die mit der Stellenbeschreibung übereinstimmen. Dies kann möglicherweise gleiche Wettbewerbsbedingungen für nicht-traditionelle Bewerber schaffen, indem der Schwerpunkt auf Fähigkeiten und nicht auf Abstammung liegt. LinkedIn beispielsweise behauptet, die Einstellung von Mitarbeitern von „Stammbaum und Titeln“ auf nachweisbare Fähigkeiten zu verlagern. Diese Behauptungen werden jedoch nicht durch die erforderliche sorgfältige Kalibrierung gestützt, die sicherstellt, dass KI keine Erfahrungen unterschätzt, die nicht in etablierte, lineare Vorlagen passen.
Branchenstudien verdeutlichen die Risiken, die mit der Einstellung von KI-Mitarbeitern verbunden sind. Zhisheng Chens Studie zu algorithmischer Diskriminierung bei der Einstellung kommt zu dem Schluss, dass KI zwar die Effizienz unterstützt, aber häufig voreingenommene Ergebnisse aufgrund von Rasse, Geschlecht und anderen Merkmalen reproduziert, die in Trainingsdaten gefunden werden.
Branchenstudien verdeutlichen die Risiken, die mit der Einstellung von KI-Mitarbeitern verbunden sind. Zhisheng Chens Studie zu algorithmischer Diskriminierung bei der Einstellung kommt zu dem Schluss, dass KI zwar die Effizienz unterstützt, aber häufig voreingenommene Ergebnisse aufgrund von Rasse, Geschlecht und anderen Merkmalen reproduziert, die in Trainingsdaten gefunden werden. Ein anderer Studie Durch die Analyse großer Sprachmodelle (LLMs), die bei Einstellungsbewertungen verwendet werden, konnten die kulturellen und sprachlichen Vorurteile bei der Einstufung von Interviewprotokollen gemildert werden, da die indischen Bewerber relativ viel schlechtere Ergebnisse erhielten als ihre britischen Kollegen, selbst wenn sie anonymisiert waren. Dies impliziert, dass KI-Systeme unbeabsichtigt westliche Sprach- und Kommunikationsnormen (wie Akzent und Tonfall) bevorzugen, was zu einer systematischen Benachteiligung nicht-muttersprachlicher Kandidaten führt. Diese Vorurteile können zu weniger unterschiedlichen Einstellungsergebnissen führen und an manchen Stellen dazu führen, dass qualifizierte Kandidaten bereits in der ersten Einstellungsphase herausgefiltert werden.
Ein 2026 Großbritannien Bericht Die City of London Corporation hat herausgefunden, dass Frauen in der Mitte ihrer Karriere, insbesondere solche mit fünf bis zehn Jahren Berufserfahrung im Büro, aufgrund starrer automatisierter Auswahlprozesse, die Karriereunterbrechungen nicht berücksichtigten, bei Positionen in der Technologie- und Finanzdienstleistungsbranche übersehen wurden. Der Bericht ergab auch, dass diese Frauen einem höheren Risiko ausgesetzt waren, ihren Arbeitsplatz durch Automatisierung zu verlieren als ihre männlichen Kollegen.
Frauen sind bereits jetzt unverhältnismäßig stark von unfairen, stereotypen Einstellungspraktiken betroffen und müssen sich zudem mit aufdringlichen Fragen potenzieller Arbeitgeber zu ihren Plänen, zu heiraten und „eine Familie zu gründen“, auseinandersetzen. Frauen verbringen nach Beendigung ihrer produktiven, bezahlten Arbeit zusätzliche Stunden mit unbezahlter Haus- und Pflegearbeit, die nicht berücksichtigt wird. Die zusätzliche KI-Ebene, die die bestehenden Barrieren widerspiegelt, verkompliziert die Situation nur noch weiter und erfordert erhebliche Änderungen.
Forscher der University of South Australia vermuten, dass „KI allein die Vorurteile nicht beseitigen kann“; Die Einbeziehung gleichheitsorientierter Algorithmen ohne strukturellen Kontext und Aufsicht würde wenig zur Vielfalt beitragen. KI-Entwickler und Arbeitgeber müssen diesem Problem begegnen, indem sie intersektionale Trainingsdatensätze präsentieren, die diversifizierte geografische, demografische und berufliche Laufbahnen umfassen. Karriereunterbrechungen, unkonventionelle, unkonventionelle Rollen und Erfahrungen müssen anerkannt werden. KI kann möglicherweise dazu genutzt werden, das menschliche Urteilsvermögen zu verbessern; Erfahrene HR-Experten müssen KI-Empfehlungen interpretieren und anhand von Kontextinformationen überprüfen, die nicht von Algorithmen kodiert werden können. Organisationen müssen zur Rechenschaft gezogen werden, um hinsichtlich der algorithmischen Kriterien transparenter zu sein. Kandidaten sollten Einblicke in die Art und Weise haben, wie Einstellungsentscheidungen getroffen werden. So wie Länder zunehmend Richtlinien zur Bekämpfung des Missbrauchs durch KI entwickeln und Gesetze zur Chancengleichheit (Einstellung) haben, muss es auch klare Standards und Vorschriften für Fairness und Antidiskriminierung bei der Einstellung von KI geben.
Referenzen:
https://www.theguardian.com/business/2026/feb/04/women-tech-finance-higher-risk-ai-job-losses-report
http://ojs.aaai.org/index.php/AIES/article/view/36703/38841
https://www.nature.com/articles/s41599-023-02079-x
https://economicgraph.linkedin.com/content/dam/me/economicgraph/en-us/PDF/gender-gaps-in-career-breaks.pdf
https://www.businessinsider.com/hirevue-uses-ai-for-job-interview-applicants-goldman-sachs-unilever-2017-8
https://www.reuters.com/article/world/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK0AG/
https://mitsloan.mit.edu/ideas-made-to-matter/ai-reinventing-hiring-same-old-biases-heres-how-to-avoid-trap
https://cardozolawreview.com/automating-discrimination-ai-hiring-practices-and-gender-inequality/
https://hr.economictimes.indiatimes.com/news/workplace-4-0/recruitment/over-70-indian-recruiters-turning-to-ai-to-find-hidden-talent-report/127885466
https://explore.hireez.com/blog/history-of-ai-in-recruitment/
Simran Dhingra ist ein frischgebackener Absolvent des Geneva Graduate Institute. Ihre Forschungsinteressen liegen an den Schnittstellen von Geschlecht, Frieden und Migration. In ihrer Arbeit untersucht sie, wie digitale Infrastrukturen Machthierarchien reproduzieren, Schwachstellen formen und politische Reaktionen auf multilateraler und institutioneller Ebene beeinflussen.