Warum eine vorgeschlagene HUD-Regel die algorithmische Diskriminierung im Wohnungswesen verschlimmern könnte

1968 verabschiedete der Kongress und Präsident Lyndon B. Johnson unterzeichnete dann das Gesetz Gesetz für faires Wohnen (FHA), die wohnungsbezogene Diskriminierung aufgrund von Rasse, Hautfarbe, Religion, Geschlecht, Behinderung, Familienstand und nationaler Herkunft verbietet. Verwaltungsvorschriften und Gerichtsverfahren haben in den Jahrzehnten seit Inkrafttreten des FHA dazu beigetragen, einen Rahmen zu schaffen, der trotz all seiner Mängel dennoch ein wichtiges Instrument zur Bekämpfung der Diskriminierung im Wohnungswesen war. Aber a vorgeschlagene Regel veröffentlicht im August 2019 vom Ministerium für Wohnungswesen und Stadtentwicklung (HUD) droht, Versuche zu untergraben, algorithmische Diskriminierung im Wohnungswesen zu bekämpfen.





Die FHA wird eine Schlüsselrolle spielen, da Algorithmen für Finanzierung, Zoneneinteilung, Underwriting und andere Aktivitäten im Wohnungssektor in den nächsten Jahren weit verbreitet sind. Während einige Algorithmen so konzipiert und implementiert werden, dass Voreingenommenheit und die daraus resultierenden diskriminierenden Wohnmuster abgemildert werden, haben andere den gegenteiligen Effekt. In diesem Fall sollte die FHA die Beurteilung von Diskriminierungsansprüchen erleichtern – nicht behindern.



Das vom Department of Housing and Urban Development (HUD) verwaltete FHA befasst sich nicht nur mit vorsätzlicher, sondern auch mit unbeabsichtigter Diskriminierung. Eine vorsätzliche Diskriminierung liegt beispielsweise vor, wenn ein Grundstückseigentümer sich weigert, eine Wohnung aufgrund eines geschützten Merkmals wie der Rasse zu verkaufen oder zu vermieten. Eine unbeabsichtigte Diskriminierung kann auftreten, wenn beispielsweise ein Kreditgeber hinsichtlich geschützter Merkmale neutrale Policen verfolgt, Kreditantragsteller jedoch versehentlich aus einer geschützten Gruppe benachteiligt. Da die unter FHA . entwickelten Vorschriften erklären , [l]iability kann nach dem Fair Housing Act auf der Grundlage der diskriminierenden Wirkung einer Praxis festgestellt werden. . . auch wenn die Praxis nicht durch eine diskriminierende Absicht motiviert war.



Rahmen für den Umgang mit unbeabsichtigter Diskriminierung sind im Zusammenhang mit Algorithmen besonders wichtig. Zwar würden sich nur wenige Entwickler von Algorithmen für den Wohnungsbau absichtlich an rechtswidriger Diskriminierung beteiligen, aber die Kombination aus Verzerrungen bei den Daten und blinden Flecken selbst bei den gut gemeinten Programmierern führt dazu, dass einige Algorithmen dennoch diskriminierende Ergebnisse erzielen. Dies könnte bestehende Segregations- und Diskriminierungsmuster verstärken oder sogar verstärken.



Das Gerichtssystem wird eine entscheidende Rolle bei der Beurteilung von Behauptungen spielen, dass ein Algorithmus in einer Weise voreingenommen ist, die gegen das FHA verstößt. Leider wird die von HUD vorgeschlagene Regel die Belastung der Kläger in einer Weise dramatisch erhöhen, die die FHA als Instrument zur Bekämpfung von Diskriminierung stark einschränken wird.



wie hat ferdinand magellan die welt verändert?

Die vorgeschlagene Regel enthält eine Reihe strenger Anforderungen – eine sogenannte Anscheinsbeschwerde –, die ein Kläger erfüllen muss, der eine Klage wegen diskriminierender Wirkung einreicht. Diese Belastung ist zwar nicht spezifisch für Diskriminierungsvorwürfe im Zusammenhang mit Algorithmen, sie wird jedoch besonders schwer zu erfüllen sein, wenn Algorithmen beteiligt sind. Eine der Anforderungen an einen Kläger besteht darin, plausibel darzulegen, dass ein robuster Kausalzusammenhang zwischen der angegriffenen Politik oder Praxis und einer unterschiedlichen Auswirkung auf Mitglieder einer geschützten Klasse besteht, die zeigt, dass die spezifische Praxis die direkte Ursache der diskriminierenden Wirkung ist. Dies wird ohne den Zugang zu den Informationen über die interne Funktionsweise eines Algorithmus, die häufig erforderlich wären, um eine diskriminierende Politik zu identifizieren, sehr schwierig zu erreichen sein. Diese Informationen stehen einem Kläger jedoch in der frühen Phase eines Rechtsstreits im Allgemeinen nicht zur Verfügung, da sich die Beklagten fast immer auf den Schutz von Geschäftsgeheimnissen berufen.



Der Kläger muss auch plausibel darlegen, dass die angegriffene Richtlinie oder Praxis willkürlich, künstlich und unnötig ist, um ein berechtigtes Interesse oder ein legitimes Ziel zu erreichen, wie z. B. ein praktisches Geschäft, Gewinn, politische Erwägungen oder gesetzliche Anforderungen. Dies kann den Klägern eine unüberwindbare Belastung aufbürden, die ohne Zugang zu den Details des Algorithmus möglicherweise nicht in der Lage sind, nachzuweisen, dass eine Praxis oder Richtlinie alle drei von Willkür, Künstlichkeit und unnötig ist. Um ein Beispiel zu nehmen, erfordert das Zeigen, dass eine Richtlinie unnötig ist, in der Regel ausreichende Kenntnisse des zugehörigen Algorithmus, um zu zeigen, dass dasselbe Richtlinienziel durch einen anderen, weniger diskriminierenden Ansatz erreicht werden kann.

Die vorgeschlagene Regelung stellt den Klägern nicht nur belastende Forderungen, sondern bietet den Angeklagten auch eine Reihe von bejahenden Einwänden, von denen jede ausreicht, um ein Gericht zur Einstellung des Verfahrens zu veranlassen. In Bezug auf einen angeblich voreingenommenen Algorithmus kann sich ein Beklagter der Haftung entziehen, indem er nachweist, dass das angegriffene Modell von einem anerkannten Dritten erstellt, gepflegt oder vertrieben wird, der Industriestandards festlegt, die Eingaben und Methoden innerhalb des Modells nicht vom Beklagten bestimmt werden, und der Beklagte verwendet das Modell wie vom Dritten beabsichtigt. Dies führt zu einer Verteidigung, die es den Angeklagten ermöglicht, die Schuld auf Einheiten weiter oben in der Algorithmus-Lieferkette abzuwälzen.



Eine weitere Möglichkeit, wie Angeklagte sich der Haftung entziehen können, besteht darin, die wesentlichen Faktoren anzugeben, aus denen die im angegriffenen Modell verwendeten Eingaben bestehen, und zu zeigen, dass diese Faktoren in keinem wesentlichen Teil auf Faktoren beruhen, die Ersatz oder enge Stellvertreter für geschützte Klassen sind nach dem Fair Housing Act. Ein Angeklagter wird oft eine Theorie vorbringen können, nach der diese Darstellung erfolgt, insbesondere wenn verschiedene Eingaben, die vom Algorithmus berücksichtigt werden, auf komplexe Weise verarbeitet werden.



Nach der vorgeschlagenen Regel wird die Kombination aus 1) den hohen Hürden, denen sich die Kläger gegenübersehen, und 2) der Reihe von bejahenden Verteidigungsmitteln, die den Beklagten zur Verfügung stehen, dazu führen, dass FHA-Ansprüche, die angebliche algorithmische Diskriminierung beinhalten, äußerst schwer durchzusetzen sind. Besser wäre es, eine Regel zu formulieren, die die Informationsnachteile anerkennt, mit denen die Kläger konfrontiert werden. Beispielsweise sollte von Klägern in der Prima-facie-Phase nicht verlangt werden, eine bestimmte in den Algorithmus eingebettete Richtlinie als verdächtig zu identifizieren. Stattdessen sollten Gerichte statistische Beweise dafür berücksichtigen, ob der Algorithmus – in seiner Gesamtheit – unterschiedliche Auswirkungen auf eine geschützte Gruppe hat.

Darüber hinaus sollten die Kläger in der prima facie-Phase nicht nachweisen müssen, dass der Algorithmus in einer Weise arbeitet, die für die Erreichung eines legitimen, nicht diskriminierenden Ziels unnötig ist. Vielmehr sollte nach Befriedigung der Anscheinsbeschwerde durch den Kläger die Pflicht auf die Beklagten fallen, bejahend nachzuweisen, dass die Richtlinien innerhalb des Algorithmus einem legitimen, nicht diskriminierenden Zweck dienen. Ein ausgewogenerer Rahmen für die gerichtliche Auseinandersetzung mit FHA-Ansprüchen würde dazu beitragen, dass Algorithmen verwendet werden, um die Diskriminierung im Wohnungssektor zu mildern – statt sie potenziell zu verewigen.