Meinung 12 min read

Algorithmische Voreingenommenheit im Recruiting ist eine gefährliche Abkürzung

Algorithmische Voreingenommenheit im Recruiting lässt Arbeitgeber Urteilskraft an Werkzeuge auslagern, die alte Ausschlüsse skalieren können. Die Lösung ist kein besserer Fairness Slogan, sondern ein Nachweis, bevor Automatisierung einen Lebenslauf berührt.

This article was automatically translated from English by AI. Read the original English version →
Laptop and resume representing algorithmic hiring bias in automated screening
Reading mode


Algorithmische Voreingenommenheit im Recruiting ist kein spekulatives Bürgerrechtsproblem mehr. SHRM berichtete, dass 26 % der befragten Organisationen im Jahr 2024 künstliche Intelligenz zur Unterstützung von Personalaufgaben nutzten, und dass unter den Organisationen, die künstliche Intelligenz für Recruiting, Vorstellungsgespräche oder Einstellungen einsetzten, etwa ein Drittel sie zur Prüfung oder Vorauswahl von Lebensläufen nutzte[s]. Meine Position ist einfach: Arbeitgeber sollten keine automatisierten Lebenslauffilter einsetzen, es sei denn, sie können vor und während der Nutzung beweisen, dass das Werkzeug berufliche Fähigkeiten misst, statt Menschen nach Stellvertretersignalen zu sortieren.

Das Versprechen klingt sauber. Eine Maschine liest jeden Lebenslauf, ignoriert Charme, ignoriert Bauchgefühl und gibt überlasteten Recruitern eine aufgeräumtere Liste. Dieses Versprechen bricht zusammen, wenn der Filter auf alten Einstellungsmustern, starren Stellenbeschreibungen oder Signalen trainiert wird, die Ethnie, Alter, Behinderung, Klasse und Pflegebiografien spiegeln. Ein voreingenommener menschlicher Manager kann einem Bewerberpool schaden. Ein voreingenommener Filter kann still jedem Bewerberpool schaden.

Algorithmische Voreingenommenheit im Recruiting beginnt vor dem Gespräch

Der gefährlichste Punkt im Einstellungsprozess ist nicht immer das letzte Vorstellungsgespräch. Es ist die erste Auswahl, wenn ein Bewerber verschwindet, ohne zu wissen, warum. Brookings beschreibt Screening als die Phase, in der einige Bewerber ausgesiebt und andere hervorgehoben werden, und sagt, algorithmisches Screening sei oft der folgenreichste Filter, den Bewerber passieren müssen[s]. Genau deshalb verdient automatisiertes Lebenslauf-Screening mehr Prüfung als die subjektive Gesprächsnotiz eines Managers. Der von Software abgelehnte Bewerber erreicht womöglich nie einen Menschen, der den Kontext erkennen kann.

Harvard Business School und Accenture stellten fest, dass Recruiting-Systeme für viele Organisationen die Grundlage der Einstellung bilden, und dass mehr als 90 % der Arbeitgeber in ihrer Umfrage Recruiting-Management-Systeme nutzten, um Kandidaten mit mittleren und hohen Qualifikationen zunächst zu filtern oder einzuordnen[s]. Der Bericht sagt außerdem, dass diese Systeme darauf ausgelegt sind, Effizienz zu maximieren, indem sie die Zahl der aktiv berücksichtigten Bewerber verringern. Effizienz ist kein neutraler Wert, wenn die Abkürzung auf exakten Schlüsselwörtern, Abschlussanforderungen, Beschäftigungslücken und anderen unvollkommenen Ersatzgrößen für Können beruht.

Das ist algorithmische Voreingenommenheit im Recruiting in einfachen Worten: Ein System, das angeblich die Suche erweitert, kann stattdessen die Tür schmaler machen. Ein Kandidat ohne konventionellen Abschluss kann herausgefiltert werden, bevor irgendjemand ein Portfolio sieht. Eine pflegende Person mit einer Erwerbslücke kann für einen regelbasierten Filter schwächer wirken als für einen Manager, der die Rolle versteht. Ein behinderter Bewerber kann in einer Bewertung schlechter abschneiden, weil das Werkzeug stärker das Format des Tests misst als die Fähigkeit, die die Stelle verlangt.

Das Recht erkennt die Gefahr bereits

Die Equal Employment Opportunity Commission hat klar gesagt, dass Bundesgesetze gegen Diskriminierung für künstliche Intelligenz und andere neue Technologien in der Beschäftigung gelten, einschließlich Recruiting, Screening und Einstellung[s]. Dieselbe Orientierung der EEOC sagt, Diskriminierung könne absichtlich sein, etwa wenn ein Lebenslauffilter so programmiert wird, dass er Menschen wegen eines geschützten Merkmals ablehnt, oder aus einer scheinbar neutralen Praxis mit ungerechtfertigter unterschiedlicher Wirkung entstehen.

Das Behindertenrecht zeigt, warum es dabei nicht nur um Ethnie und Geschlecht geht. Das Department of Justice sagt, Arbeitgeber nutzten Einstellungstechnologien, um zu entscheiden, ob Bewerber Qualifikationen erfüllen, Online-Gespräche zu führen, computergestützte Tests einzusetzen und Lebensläufe zu bewerten, und warnt, dass diese Technologien Menschen mit Behinderungen diskriminieren können[s]. Wenn ein Screenreader in einem Online-Test scheitert oder ein Sprachanalysewerkzeug eine Sprachbeeinträchtigung bestraft, liegt das Problem nicht beim Bewerber. Das Problem ist ein Einstellungsprozess, der mangelnde Barrierefreiheit mit beruflichem Scheitern verwechselt.

Der Fall iTutorGroup ist der klarste Warnschuss. Laut einem EEOC-Bulletin erklärte sich das Unternehmen bereit, 365.000 Dollar zu zahlen, nachdem die Behörde vorgeworfen hatte, dass seine Software für Tutorbewerbungen weibliche Bewerber ab 55 Jahren und männliche Bewerber ab 60 Jahren automatisch abgelehnt habe, wodurch mehr als 200 qualifizierte Bewerber in den Vereinigten Staaten betroffen waren[s]. Das ist kein mysteriöser Black-Box-Unfall. Es passiert, wenn Automatisierung eine mutmaßlich diskriminierende Regel sofort skaliert.

Das Gegenargument hat Gewicht

Arbeitgeber haben in einem Punkt recht: Menschliche Personalauswahl ist nicht rein. Menschen bevorzugen vertraute Hochschulen, vertraute Namen, glatte Gesprächsstile und Lebensläufe, die dem eigenen Karriereweg ähneln. Brookings hält fest, dass die Hartnäckigkeit von Voreingenommenheit in menschlichen Entscheidungen das Interesse an algorithmischen Recruiting-Werkzeugen mit erklärt[s]. Konsistenz kann nützlich sein. Ein gut getestetes Werkzeug könnte helfen, Muster zu erkennen, die ein Recruiter übersieht.

Dieses Argument sollte nicht verworfen werden. Es sollte so gestaltet werden, dass Missbrauch schwieriger wird. Der Standard kann nicht sein, dass ein Arbeitgeber ein angesehenes Produkt gekauft oder geschützte Merkmale aus den Eingabefeldern entfernt hat. Voreingenommenheit braucht keine Spalte mit der Überschrift Ethnie, um Ethnie zu finden. Sie kann durch Namen, Postleitzahlen, Schulen, Karrierepausen, Sprachmuster, Gerätezugang und frühere Chancen wandern.

Was sich ändern sollte

Eine ernsthafte Antwort auf algorithmische Voreingenommenheit im Recruiting beginnt mit einer Verschiebung der Beweislast. Arbeitgeber, die Werkzeuge zum Lebenslauf-Screening einsetzen, sollten zeigen müssen, dass das Werkzeug an tatsächliche Aufgaben der Stelle gebunden ist, auf unterschiedliche Auswirkungen getestet wurde, für behinderte Bewerber zugänglich ist und nach dem Start überwacht wird. Wenn ein Anbieter sich weigert, das Modell hinreichend für ein Audit zu erklären, sollte das Werkzeug keine Bewerbungen berühren.

New York City hat einen Teilschritt getan. Die Local Law 144 verbietet Arbeitgebern und Arbeitsvermittlungen den Einsatz eines automatisierten Entscheidungswerkzeugs für Beschäftigung, sofern das Werkzeug nicht innerhalb eines Jahres einem Bias-Audit unterzogen wurde, Informationen über das Audit öffentlich verfügbar sind und Bewerber oder Beschäftigte benachrichtigt wurden[s]. Das ist ein Mindeststandard, keine Ziellinie. Öffentliche Audit-Zusammenfassungen helfen, aber Kandidaten brauchen auch klare Hinweise, einen echten Weg zu angemessenen Vorkehrungen und eine menschliche Beschwerdemöglichkeit, wenn ein Filter sie blockiert.

Die Antwort auf algorithmische Voreingenommenheit im Recruiting ist nicht, jede automatisierte Hilfe zu verbieten. Sie besteht darin, Automatisierung nicht länger wie Unschuld zu behandeln. Ein Lebenslauffilter ist ein Entscheidungswerkzeug für Beschäftigung. Wenn er Menschen ablehnen, einordnen oder vor menschlicher Prüfung verbergen kann, verdient er dieselbe Ernsthaftigkeit wie jeder andere Torwächter. Arbeitgeber sollten Technologie nutzen können, um Bewerbungen zu ordnen. Sie sollten Diskriminierung nicht durch Software waschen und Effizienz nennen dürfen. Das ist die Mindestregel für algorithmische Voreingenommenheit im Recruiting: die Warteschlange ordnen, aber die Person nicht verstecken.

Algorithmische Voreingenommenheit im Recruiting sollte als industrielles Kontrollproblem behandelt werden, nicht als Ethikversprechen eines Anbieters. Die Entscheidung, Lebenslauf-Screening zu automatisieren, verändert Maßstab, Undurchsichtigkeit und Beweislast der Einstellung. Sobald Software Bewerber einordnet, lautet die relevante Frage nicht, ob der Arbeitgeber diskriminieren wollte. Die Frage lautet, ob das Auswahlsystem ungerechtfertigten Ausschluss erzeugt und ob jemand beweisen kann, dass es das nicht tut.

Die technische Unterstützung der EEOC zu Title VII ist nützlich, weil sie Arbeitgeber nicht hinter Vokabular verstecken lässt. Sie nennt Lebenslauf-Scanner, Chatbots, Videowerkzeuge, Überwachungssoftware und Job-Fit-Scores als algorithmische Entscheidungswerkzeuge und erklärt, dass die Uniform Guidelines gelten können, wenn solche Werkzeuge verwendet werden, um Entscheidungen über Einstellung, Beförderung, Kündigung oder ähnliche Beschäftigungsentscheidungen zu treffen oder zu unterstützen[s]. Sie sagt auch, dass ein Arbeitgeber nach Title VII verantwortlich bleiben kann, wenn ein Anbieter das Werkzeug entworfen oder verwaltet hat.

Algorithmische Voreingenommenheit im Recruiting ist ein Validierungsfehler

Die zentrale Schwäche automatisierten Screenings besteht darin, dass Vorhersagegenauigkeit rechtliches und soziales Scheitern verbergen kann. Ein Modell kann vorhersagen, welche Bewerber früheren Einstellungen, früheren Beförderungspfaden oder früheren Gewinnern von Leistungsbewertungen ähneln. Das heißt nicht, dass es fair vorhersagt, wer die Arbeit leisten kann. Brookings stellt fest, dass algorithmische Screening-Werkzeuge evidenzbasiert wirken können, während sie die menschliche Voreingenommenheit reproduzieren oder verschärfen, die in den für ihren Aufbau verwendeten Datensätzen steckt[s]. Ein Modell kann gegenüber einem verzerrten Maßstab valide sein und für einen fairen Arbeitsmarkt trotzdem falsch liegen.

NIST liefert den richtigen Rahmen. Seine Veröffentlichung zu Bias sagt, gegenwärtige Versuche, Bias in künstlicher Intelligenz anzugehen, konzentrierten sich häufig auf rechnerische Faktoren wie Repräsentativität von Datensätzen und Fairness von Modellen, während menschliche, institutionelle und gesellschaftliche Faktoren ebenfalls große Quellen von Bias seien[s]. Im Recruiting bedeutet das: Ein sauberes Modell kann trotzdem eine schlechte Stellenbeschreibung, eine veraltete Leistungskennzahl oder eine von Ausschluss geprägte Arbeitsmarktgeschichte automatisieren.

Algorithmische Voreingenommenheit im Recruiting überlebt die Entfernung ausdrücklich geschützter Merkmale, weil Stellvertreter die Arbeit erledigen. Namen können wahrgenommene Ethnie und wahrgenommenes Geschlecht signalisieren. Lücken können Pflegearbeit, Behinderung, Krankheit oder Inhaftierungsgeschichte signalisieren. Hochschulfilter können Klasse und Geografie importieren. Schlüsselwortfilter können Bewerber belohnen, die den Dialekt des Unternehmensrecruitings gelernt haben, statt Bewerber, die die Arbeit leisten können.

Die Belege sind bereits konkret

Forscher der University of Washington führten eine Lebenslauf-Auditstudie mit mehr als 500 Lebensläufen und 500 Stellenbeschreibungen in neun Berufen durch. Im arXiv-Abstract berichteten sie, dass die getesteten Text-Embedding-Modelle in 85,1 % der Fälle Namen, die mit Weißen assoziiert wurden, signifikant bevorzugten und in nur 11,1 % der Fälle Namen, die mit Frauen assoziiert wurden[s]. Die Zusammenfassung der Universität ergänzt, dass die Systeme Namen, die mit Weißen assoziiert wurden, in 85 % der Fälle bevorzugten, gegenüber Namen, die mit Schwarzen assoziiert wurden, in 9 % der Fälle, und in den getesteten Vergleichen nie wahrgenommene Schwarze Männernamen gegenüber Weißen Männernamen bevorzugten[s].

Diese Belege zählen, weil der Marktanreiz in die Gegenrichtung zeigt. SHRM fand heraus, dass unter den Organisationen, die künstliche Intelligenz zur Unterstützung von Recruiting, Vorstellungsgesprächen oder Einstellungen nutzten, viele sie für administrative oder Recruiting-Aufgaben einsetzten, und etwa jede dritte sie zur Prüfung oder Vorauswahl von Bewerberlebensläufen nutzte[s]. Der geschäftliche Fall ist Geschwindigkeit. Das gesellschaftliche Risiko ist, dass Geschwindigkeit schneller wird als Diagnose, Beschwerdeweg oder Rechenschaft.

Harvard Business School und Accenture dokumentierten dieselbe Spannung aus Sicht des Talentmarkts. Ihr Bericht sagt, dass Recruiting-Management-Systeme von mehr als 90 % der Arbeitgeber in ihrer Umfrage genutzt werden, um Kandidaten mit mittleren und hohen Qualifikationen zunächst zu filtern oder einzuordnen, und dass diese Systeme darauf ausgelegt sind, Prozesseffizienz zu maximieren, indem sie die Bewerbergruppe verkleinern[s]. Das ist eine Managemententscheidung, die sich als technische Notwendigkeit tarnt.

Behinderung legt den Fehler offen

Behinderung ist der härteste Test für automatisierte Einstellung, weil sie offenlegt, ob ein Werkzeug Fähigkeit misst oder Anpassung an die Testumgebung. EEOC-Orientierung sagt, ein Arbeitgeber könne gegen den ADA verstoßen, wenn ein algorithmisches Entscheidungswerkzeug eine Person mit Behinderung aussiebt, die die Arbeit mit einer angemessenen Vorkehrung leisten könnte[s]. Das ist kein Randthema. Wenn eine Bewertung einen blinden Bewerber bestraft, weil die Oberfläche versagt, oder einen neurodivergenten Bewerber, weil das Werkzeug Gesichtsausdruck mit Kompetenz gleichsetzt, hat der Arbeitgeber wenig über Arbeitsleistung gelernt.

Das Gegenargument lautet, dass Menschen diese Fehler ebenfalls machen, oft mit weniger Konsistenz und ohne Audit-Spur. Das stimmt, und es ist der stärkste Fall für sorgfältig gesteuerte Werkzeuge. Software kann Entscheidungen protokollieren. Software kann getestet werden. Software kann gezwungen werden, strukturierte Kriterien statt der Stimmung eines Recruiters zu verwenden. Doch diese Vorteile bestehen nur, wenn Arbeitgeber die Governance um das Werkzeug herum aufbauen. Ohne diese Governance wird Automatisierung zu einem Bias-Multiplikator mit besserer Aktenlage.

Audits müssen Folgen haben

Audits algorithmischer Voreingenommenheit im Recruiting sollten kein Theater sein. Sie sollten rollenspezifisch sein, erneuert werden, wenn sich das Werkzeug oder der Arbeitsmarkt verändert, und darauf ausgelegt sein, intersektionale Schäden zu erkennen. Ein Werkzeug, das eine breite Analyse nach Ethnie besteht, kann Schwarzen Männern trotzdem schaden. Ein Werkzeug, das eine Geschlechteranalyse besteht, kann ältere Frauen trotzdem bestrafen. Ein Werkzeug, das beides besteht, kann für behinderte Bewerber trotzdem unzugänglich sein.

Das AEDT-Gesetz von New York City weist in die richtige Richtung, indem es ein Bias-Audit innerhalb eines Jahres, öffentliche Audit-Informationen und eine Benachrichtigung verlangt, bevor erfasste automatisierte Entscheidungswerkzeuge für Beschäftigung verwendet werden[s]. Die Schwäche ist, dass Offenlegung ohne durchsetzbare Standards zu einem Compliance-Ritual werden kann. Arbeitgeber sollten Werkzeuge pausieren oder zurückziehen müssen, die Prüfungen auf unterschiedliche Auswirkungen nicht bestehen, sofern sie nicht berufliche Notwendigkeit zeigen können und keine weniger diskriminierende Alternative verfügbar ist.

Es gibt auch keinen ernsthaften Fall für das Abschieben von Schuld auf Anbieter. Das EEOC-Bulletin zu iTutorGroup sagt, die Behörde habe vorgeworfen, dass die Software des Unternehmens für Tutorbewerbungen weibliche Bewerber ab 55 Jahren und männliche Bewerber ab 60 Jahren automatisch abgelehnt habe, und dass der Vergleich 365.000 Dollar für Bewerber bereitstellte, die wegen ihres Alters automatisch abgelehnt wurden[s]. Die Lektion ist unverblümt: Ein Arbeitgeber kann Diskriminierung nicht auslagern, den Nutzen behalten und die Haftung abwerfen.

Die Regel sollte einfach sein

Die politische Antwort auf algorithmische Voreingenommenheit im Recruiting sollte lauten: erst Beweis, dann Nutzung. Vor dem Einsatz sollten Arbeitgeber den stellenbezogenen Grund für jeden automatisierten Filter dokumentieren, Auswahlraten nach geschützten Gruppen testen, soweit dies rechtmäßig und praktikabel ist, Barrierefreiheit prüfen, das Werkzeug gegenüber Bewerbern offenlegen und einen Weg zur menschlichen Überprüfung bereitstellen. Nach dem Einsatz sollten sie Ergebnisse überwachen, aussagekräftige Zusammenfassungen veröffentlichen und Werkzeuge stilllegen, die nicht auditiert werden können. Dieser Standard behandelt algorithmische Voreingenommenheit im Recruiting als messbares Risiko, nicht als Markenproblem.

Automatisierung kann Einstellung nur helfen, wenn sie der Chancengleichheit untergeordnet bleibt. Sobald sie zu einem Schutzschild gegen Prüfung wird, sollte sie das Privileg verlieren, Bewerbungen zu berühren. Ein Lebenslauffilter, der still entscheidet, wer sichtbar ist, ist keine Verwaltungssoftware. Er ist ein Torwächter, und Torwächter brauchen Regeln.

How was this article?
Share this article

Spot an error? Let us know

Quellen