Bewertung der Arbeitgeberabsicht, wenn KI-Einstellungstools voreingenommen sind

Einführung

Wenn es um Geschlechterstereotype in beruflichen Rollen geht, hat künstliche Intelligenz (KI) das Potenzial, historische Verzerrungen entweder zu mildern oder zu verstärken. Im Fall des Word2vec-Modells scheint KI beides zu tun.





Word2vec ist ein öffentlich verfügbares algorithmisches Modell, das auf Millionen von Wörtern aus Google News-Onlineartikeln , die Informatiker häufig verwenden, um Wortassoziationen zu analysieren. Im Jahr 2016, Forscher von Microsoft und der Boston University zeigte, dass das Modell in Online-Nachrichtenquellen vorhandene Geschlechterstereotypen aufgriff – und darüber hinaus, dass diese voreingenommenen Wortassoziationen überwiegend berufsbezogen waren. Als die Forscher dieses Problem entdeckten, neutralisierten die Forscher die verzerrten Wortkorrelationen in ihrem spezifischen Algorithmus und schrieben, dass verzerrte Worteinbettungen in gewisser Weise hoffentlich dazu beitragen können, geschlechtsspezifische Verzerrungen in der Gesellschaft zu reduzieren.



Ihre Studie macht auf ein umfassenderes Problem mit künstlicher Intelligenz aufmerksam: Da Algorithmen oft die Trainingsdatensätze emulieren, auf denen sie aufbauen, könnten verzerrte Eingabedatensätze fehlerhafte Ausgaben erzeugen. Denn viele moderne Arbeitgeber verwenden prädiktive Algorithmen Um Lebensläufe zu scannen, gezielte Werbung zu schalten oder sogar auf Gesichts- oder Stimmerkennung basierende Interviews durchzuführen, ist es wichtig zu überlegen, ob beliebte Einstellungstools anfällig für dieselben kulturellen Vorurteile sind, die die Forscher in Word2vec entdeckt haben.



In diesem Beitrag erörtere ich, dass die Einstellung ein vielschichtiger und undurchsichtiger Prozess ist und wie es schwieriger wird, die Absicht des Arbeitgebers zu beurteilen, wenn Einstellungsverfahren online verlagert werden. Da die Absicht ein kritischer Aspekt des Gesetzes zur Diskriminierung am Arbeitsplatz ist, schlage ich letztendlich vier Wege vor, um sie in die Diskussion um algorithmische Voreingenommenheit einzubeziehen.



Entwicklung eines ersten Problemverständnisses

Sollten in der gegenwärtig betriebenen Rekrutierungssoftware Voreingenommenheit bestehen, bieten Antidiskriminierungsgesetze Arbeitssuchenden idealerweise einen Mechanismus, um Abhilfe zu schaffen. In der Praxis stellt KI jedoch einzigartige Herausforderungen bei der Auslegung unter den geltenden Gleichstellungsgesetzen, wie z Bürgerrechtsgesetz von 1964 , das Gesetz zur Altersdiskriminierung im Beschäftigungsgesetz von 1967 , das Americans with Disabilities Act von 1990 , und das Gesetz zur Nichtdiskriminierung genetischer Informationen von 2008 .



Um beispielsweise einen Anspruch auf Diskriminierung aufgrund des Geschlechts gemäß Titel VII des Bürgerrechtsgesetzes geltend zu machen, müssten potenzielle Kläger nachweisen, dass ein Arbeitgeber im Privatsektor entweder absichtlich diskriminiert oder an Handlungen – einschließlich unbeabsichtigter Handlungen – beteiligt war eine unverhältnismäßige Auswirkung auf eine bestimmte Geschlechtergruppe. Diese beiden Mechanismen werden als unterschiedliche Behandlung oder vorsätzliche Diskriminierung bzw. unterschiedliche Auswirkungen bezeichnet.



In zwei separaten Briefen in Brookings KI- und Bias-Reihe, Forscher Manish Raghavan und Solon Barocas und Mark MacCarthy behandeln, wie Algorithmen zu systematischen unterschiedlichen Auswirkungen auf geschützte Klassen führen können, sowie die damit verbundenen technischen und rechtlichen Probleme. Dieser Policy Brief befasst sich mit der damit verbundenen Analyse vorsätzlicher Diskriminierung und bietet im Kontext von KI und Einstellung einen Rahmen, um die Rolle und Verantwortung von Arbeitgebern bei der Verwaltung fairer Einstellungsverfahren zu berücksichtigen.

Einstellungsphasen

Bei jeder Analyse der Arbeitgeberabsichten ist es wichtig zu fragen, warum Arbeitgeber sich überhaupt für automatisierte Rekrutierungssysteme entscheiden. Zum einen, Unternehmen verzeichneten in den letzten Jahren ein hohes Rekrutierungsvolumen (aufgrund geringer Retention, häufiger externer Werbung und einfacher elektronischer Anwendung) und Computerfilterung ist oft ein Maß für die Praktikabilität. Darüber hinaus könnten Arbeitgeber computergestützte Einstellungen nutzen, um menschliche Vorurteile zu reduzieren, insbesondere da mehrere akademische Studien ein gewisses Maß an menschlicher Voreingenommenheit bei der manuellen Einstellung in Bezug auf Geschlecht , Rennen , oder sogar scheinbar zufällige Faktoren wie Geburtsmonat .



[Mehrere akademische Studien haben ein gewisses Maß an menschlicher Voreingenommenheit bei der manuellen Einstellung in Bezug auf Geschlecht, Rasse oder sogar scheinbar zufällige Faktoren wie Geburtsmonat nahegelegt.



Der moderne Einstellungsprozess besteht in der Regel aus mehreren Screening-Runden, von denen viele automatisierbar sind. Arbeitssuchende beginnen oft mit der Identifizierung Stellenangebote über das Internet , einschließlich durch Suchmaschinen und gezielte Werbung. In dieser Anfangsphase können Online-Werbeplattformen Daten zu Suchhistorien, Nutzungsmustern und Demografie der Benutzer sammeln und mithilfe von Predictive Analytics auf Personen schließen, die Unternehmen möglicherweise rekrutieren möchten.

Henry der 8. 4. Frau

Angenommen, ein Kandidat identifiziert eine potenzielle Stellenausschreibung und reicht einen Lebenslauf ein, werden möglicherweise nicht alle ausgefüllten Bewerbungen von einem Personalmanager geprüft. Abhängig von den Geschäftsanforderungen und dem Rekrutierungsvolumen können Arbeitgeber Software zur vorausschauenden Lebenslaufbewertung verwenden, wie z Mya , um Lebensläufe automatisch nach bestimmten Schlüsselwörtern zu durchsuchen und Bewerber basierend auf ihrer prognostizierten Eignung für die Position einzustufen.



Das Automatisierungspotenzial setzt sich in der nächsten Einstellungsstufe fort. Nachdem der Lebenslauf eines Kandidaten zur weiteren Überprüfung ausgewählt wurde, kann der Kandidat vor der Auswahl mehrere Interview- und Screening-Runden durchlaufen, ein Prozess, der kein menschliches Eingreifen mehr erfordert. Unternehmen können Interviewanalyse-Software von Drittanbietern verwenden, wie z HireVue und Vorhersage , um automatisch den Gesichtsausdruck, die Wortwahl und den Tonfall der Befragten zu bewerten. Darüber hinaus können Unternehmen algorithmische Bewertungen nutzen, wie z Pymetrie , um die Arbeitsleistung eines Kandidaten vorherzusagen, bevor er das Büro betritt.



[Unternehmen] können algorithmische Bewertungen verwenden, um die Arbeitsleistung eines Kandidaten vorherzusagen, bevor er überhaupt das Büro betritt.

Es ist nicht ungewöhnlich, dass Arbeitgeber und Bewerber mit der Funktionsweise dieser Algorithmen – und insbesondere der Modelle des unbeaufsichtigten Lernens – nicht vertraut sind. Obwohl einige große Softwareunternehmen, darunter Google und Amazonas , interne Algorithmen entwickeln, verlässt sich die Mehrheit der Arbeitgeber eher auf algorithmische Einstellungstools von Drittanbietern. Algorithmen von Drittanbietern sind aufgrund von Faktoren wie proprietärer Software, patentierten Technologien und/oder allgemeiner Komplexität fast durchgängig undurchsichtig. Nicht-Entwickler wissen möglicherweise nicht, welche spezifischen Faktoren algorithmische Rankings motivieren und welche Trainingsdaten und De-Biasing-Techniken verwendet werden. Darüber hinaus haben Nicht-Entwickler (in diesem Fall die meisten Einstellungsmanager) oft nicht die Möglichkeit, die von ihnen verwendeten Algorithmen von Drittanbietern zu ändern. Aufgrund dieser möglichen Trennung ist die Absicht des Arbeitgebers eine relevante Überlegung bei der Beurteilung einer möglichen Diskriminierung in algorithmischer Software.



Beweisrahmen für diskriminierende Absichten

Traditionell haben Bundesbehörden identifiziert drei Arten von Beweisen um diskriminierende Absichten zu erkennen: direkt, indirekt und statistisch. Die Kläger können eine einzelne Kategorie oder eine Kombination der drei verwenden, um geltend zu machen absichtlich Diskriminierung – was im Zusammenhang mit Algorithmen bedeuten würde, dass der Arbeitgeber bei voreingenommenen Einstellungsergebnissen im Zusammenhang mit der Gestaltung und Ausführung eines Algorithmus eine gewisse Entscheidungsfreiheit hat.



  • Direkter Beweis: Wenn ein Arbeitgeber Beschäftigungspräferenzen gegenüber einer geschützten Klasse ausdrücklich einschränkt, könnte diese Maßnahme ein direkter Beweis für eine gezielte Diskriminierung sein. Im Allgemeinen müssen Gerichte im Zusammenhang mit KI noch einen Präzedenzfall schaffen, obwohl eine kürzliche Klage das Argument einer Partei für einen direkten Beweis für algorithmische Voreingenommenheit illustriert. Im Jahr 2018, Facebook stand vor einer Klage die behauptete, dass die Praxis der Social-Media-Plattform, Stelleninserenten zu erlauben, Online-Nutzer bewusst nach Geschlecht, Rasse und Postleitzahl anzusprechen, einen Beweis für vorsätzliche Diskriminierung darstellte. Die Parteien einigten sich jedoch, bevor ein Gericht über dieses Argument entscheiden konnte.
  • Indirekter Beweis: Die Kläger können auch indirekte Beweise verwenden, auch bekannt als Indizien , um Behauptungen in diskriminierender Absicht zu unterstützen. Indirekte Beweise können eine mutmaßliche Straftat nahelegen oder implizieren – als solche können verdächtiges Timing, unangemessene Bemerkungen und vergleichende Beweise für eine ungerechte Behandlung in Frage kommen. Beispielsweise könnte eine unangemessene Bemerkung eines Personalchefs als indirekter Beweis für diskriminierende Absichten ausgelegt werden, selbst wenn automatisierte Software zur Einstufung von Kandidaten verwendet wird.
  • Statistischer Nachweis: Um direkte und indirekte Beweise zu ergänzen, können Kläger die historische Einstellungsdiskrepanz eines Arbeitgebers zwischen geschützten Gruppen nachweisen. Obwohl statistische Beweise im Allgemeinen nicht allein ausschlaggebend für böswillige Absicht , könnte dies möglicherweise darauf hindeuten, dass sich ein Arbeitgeber der Voreingenommenheit hätte bewusst sein müssen. Mehrere Bundesbehörden haben eine 4/5-Faustregel eine wesentlich unterschiedliche Selektionsrate zwischen den Gruppen zu quantifizieren, obwohl sie anerkennen, dass die Selektionsraten in erster Linie Richtlinien sind.

Möglichkeiten, die menschliche Absicht bei der automatisierten Einstellung zu berücksichtigen

Da direkte Beweise für das Motiv in der Regel schwer zu erhalten sind, werden die meisten Versuche, in Fällen algorithmischer Voreingenommenheit diskriminierende Absichten zu bestimmen, wahrscheinlich mit einer gewissen Unsicherheit und Abwägung der Tatsachen verbunden sein. Ein Rekrutierungsalgorithmus würde im Allgemeinen als diskriminierend angesehen, wenn unter Beibehaltung aller anderen Faktoren eine geschützte Variable (sei es Rasse, Geschlecht usw.) die Wahrscheinlichkeit einer Person, ein Stellenangebot zu erhalten, beeinflussen würde. In der Praxis lässt sich diese Definition jedoch nicht ohne weiteres auf die Absicht anwenden. Die Herausforderung liegt nicht nur in der Erkennung, sondern auch in der Abhilfe – es ist nicht nur notwendig, das Motiv eines Arbeitgebers von algorithmischen Ergebnissen zu unterscheiden, sondern auch zu entscheiden, wie man damit umgeht. Trotz so vieler Unsicherheiten tauchen jedoch einige relevante Fragen auf, wenn diskriminierende Absichten im Kontext von Algorithmen identifiziert und behandelt werden.