Während in Facebook-Profilen die Rasse oder ethnische Zugehörigkeit der Benutzer möglicherweise nicht ausdrücklich angegeben wird, zeigen meine Untersuchungen, dass die aktuellen Werbealgorithmen von Facebook anhand dieser Faktoren diskriminieren können. Basierend auf einer Studie aus den Jahren 2020 und 2021 habe ich die Werbetools von Facebook verwendet, um zu testen, wie Werbetreibende ihre Targeting-Optionen wie multikulturelle Affinitätsgruppen, Lookalike Audiences und Special Ad Audiences nutzen können, um sicherzustellen, dass ihre Anzeigen weiße, afroamerikanische, asiatische oder hispanische Personen erreichen Benutzer. Was ich festgestellt habe, ist, dass die Diskriminierung nach Rasse und ethnischer Zugehörigkeit auf den Plattformen von Facebook aus zwei Gründen eine erhebliche Bedrohung für das öffentliche Interesse darstellt. Erstens ist es ein Verstoß gegen die bestehenden Bürgerrechtsgesetze, die marginalisierte Verbraucher vor Werbeschäden und Diskriminierung aufgrund von Rasse und ethnischer Zugehörigkeit schützen, insbesondere in den Bereichen Wohnen, Beschäftigung und Kredit. Zweitens können dieselben Facebook-Werbetools verwendet werden, um gezielte Fehlinformationen und kontroverse politische Botschaften an gefährdete demografische Gruppen zu verbreiten. Um diese Bedenken auszuräumen, müssen Aufsichtsbehörden, Interessenvertretungen und die Industrie diese Probleme direkt mit Facebook und anderen Werbeplattformen ansprechen, um sicherzustellen, dass Online-Werbung für alle Amerikaner transparent und fair ist.
In den letzten 5 Jahren war Facebook wiederholt Kritik, Klagen und Kontroversen über das Potenzial für Diskriminierung auf seiner Werbeplattform . Journalisten haben gezeigt, wie einfach es ist, Nutzer auszuschließen, die Facebook algorithmisch in bestimmte Kategorien eingeordnet hat rassische oder ethnische Affinitätsgruppen von Ziel von Wohnungs- oder Stellenanzeigen . Forscher haben auch gezeigt rassische und ethnische Vorurteile in Facebooks Lookalike Audience- und Special Ad Audience-Algorithmen, die neue Facebook-Nutzer ähnlich den bestehenden Kunden eines Werbetreibenden identifizieren. Als Reaktion auf diese Vorwürfe wurde Facebook von der Nationale Allianz für faires Wohnen , das ACLU , das Kommunikationsarbeiter von Amerika , das U.S. Department of Housing and Urban Development (HUD) , und Andere zu Fragen der Diskriminierung auf seiner Werbeplattform und Verstößen gegen Bürgerrechtsgesetze wie dem Gesetz für faires Wohnen und das Bürgerrechtsgesetz von 1964 , die Intoleranz gegenüber jeglicher Art von Rassendiskriminierung ausdrückt.
wann ist die wintersonnenwende 2019
Es gibt auch anhaltende Kontroversen darüber, wie die Plattform von Facebook von politischen Akteuren genutzt werden kann ausländisch und inländisch , verbreiten Fehlinformationen und Ziel rassische und ethnische Minderheiten in den Wahlzyklen 2016 und 2020. Im Juli 2020, ein hochkarätiger Boykott der Facebook-Werbeplattform Stop Hate for Profit wurde von Bürgerrechts- und Interessenvertretungsgruppen wie der NAACP, der Anti-Defamation League, Color of Change und anderen Organisationen wegen Fehlinformationen und Bürgerrechtsverletzungen organisiert. Diese Gruppen forderten große Unternehmen auf, die Werbung auf Facebook für den gesamten Juli einzustellen. Mehr als 1.000 große Unternehmen Darunter Microsoft, Starbucks, Target und andere nahmen an dem Boykott teil.
Am 8. Juli 2020 veröffentlichte Facebook ein eigenes Bürgerrechtsprüfung geleitet von Laura Murphy, ehemaliger Direktorin des ACLU Legislative Office, und Anwälten der Anwaltskanzlei Relman Colfax. Bei der Prüfung wurde Facebook dafür kritisiert, dass es mehr Wert auf die freie Meinungsäußerung gelegt hat als den Wert der Nichtdiskriminierung. Um konkrete Schritte zur Reduzierung der Diskriminierung zu unternehmen, kündigte Facebook am 11. August 2020 an, dass es abheben seine umstrittenen multikulturellen Affinitätsgruppen, die es Werbetreibenden ermöglichten, Nutzer anzusprechen, die Facebook als Afroamerikaner (USA), Asiaten (USA) oder Hispanoamerikaner (USA – Alle) kategorisiert hat.
Nein.
Nicht jeder Fall von Werbediskriminierung ist möglicherweise illegal. Vor diesem Hintergrund habe ich eine Forschungsstudie erstellt und getestet, inwieweit die verschiedenen Tools auf der Werbeplattform von Facebook – gewollt oder nicht – rassistische und ethnische Diskriminierung bewirken können Kriterien des Fair Housing Act Dies macht es illegal, eine Anzeige zu veröffentlichen, die auf Präferenzen, Einschränkungen oder Diskriminierung aufgrund von Rasse oder ethnischer Zugehörigkeit hinweist.
Bis heute bietet Facebook Werbetreibenden vier Hauptmethoden zur gezielten Werbung:
Ich habe meine Studie im Januar 2020 und erneut im Januar 2021 durchgeführt, vor und nach dem Stop Hate for Profit-Boykott im Juli 2020. Da Facebook keine multikulturellen Affinitätsgruppen mehr anbietet – Afroamerikaner (USA), Asiaten (USA) und Hispanoamerikaner ( USA – Alle) – als Targeting-Optionen für Werbetreibende im Jahr 2021 untersuchte ich stattdessen die ähnlich klingenden kulturellen Interessengruppen, die Facebook immer noch als Targeting-Optionen anbot, wie die afroamerikanische Kultur, die asiatisch-amerikanische Kultur und die hispanoamerikanische Kultur. In beiden Jahren habe ich getestet, wie viele Nutzer aus Minderheiten von diesen rassen- und ethnischen Werbeoptionen von Facebook angesprochen werden könnten.
Abbildung 1: Beispiel für den Unterschied der Werbe-Targeting-Optionen von Facebook, 2020 bis 2021
Jahr verfügbar | Ausrichtungsoption | Targeting-Kategoriehierarchie | Beschreibung | Größe |
2020 | Afroamerikaner (USA) | Verhaltensweisen > Multikulturelle Affinität | Menschen, die in den Vereinigten Staaten leben und deren Aktivitäten auf Facebook mit der multikulturellen Affinität der Afroamerikaner übereinstimmen | 87.203.689 |
2021 | Afroamerikanische Kultur | Interessen > Zusätzliche Interessen | Personen, die Interesse an Seiten mit Bezug zur afroamerikanischen Kultur bekundet haben oder diese mögen | 79.388.010 |
Notiz: Facebook bot die Targeting-Option für Afroamerikaner (US) bis August 2020 an, bietet aber 2021 weiterhin die Targeting-Option für afroamerikanische Kultur an. |
Ich habe auch getestet, ob die anderen Werbetools von Facebook, wie Lookalike Audiences und Special Ad Audiences, nach Rasse und ethnischer Zugehörigkeit diskriminieren können. Für diese Tests habe ich den neuesten Wählerregistrierungsdatensatz aus North Carolina verwendet, der vom Wähler bereitgestellte Informationen zu Rasse und ethnischer Zugehörigkeit enthält. In den Wählerdaten von North Carolina gab es ungefähr 4,0 Millionen weiße, 1,2 Millionen Afroamerikaner, 90.000 Asiaten und 180.000 Hispanoamerikaner. Ich habe mit Facebook Custom Audiences verschiedene rassisch und ethnisch homogene Teilstichproben von Wählern erstellt und dann Facebook gebeten, weitere ähnliche Benutzer zu finden, die mit ihren Lookalike- und Special Ad Audience-Tools für Anzeigen ausgerichtet werden können.
Obwohl Facebook keine direkten demografischen Abfragen für eine Lookalike- oder Special Ad-Zielgruppe zulässt, konnte ich die täglichen Reichweitenschätzungen des Facebook-Anzeigenplanungstools nutzen, um indirekt die rassische und ethnische Aufschlüsselung einer bestimmten Lookalike- oder Special Ad-Zielgruppe in North Carolina zu beobachten Wähler. Beispielsweise hatte eine Lookalike-Zielgruppe, die auf 10.000 afroamerikanischen Wählern im Jahr 2021 basiert, eine Überschneidung der geschätzten täglichen Reichweite von 139.000 Nutzern mit einer Stichprobe von 1 Million afroamerikanischer Wähler, aber nur eine Überschneidung von 17.000 Nutzern mit einer Stichprobe von 1 Million weißen Wählern. Dies deutet darauf hin, dass Afroamerikaner im Lookalike-Publikum wahrscheinlich überrepräsentiert waren, denn als ich das Lookalike-Publikum mit einer kombinierten 2 Millionen Wählerstichprobe, die zu Beginn zu 50 % aus Afroamerikanern und 50 % Weißen bestand, kreuzte, stellte ich fest, dass 89 % des Lookalike-Publikums Überschneidungen gab es bei afroamerikanischen Wählern und nur 11% bei weißen Wählern. Ich habe einen ähnlichen Prozess zum Testen der Demografie von Lookalike- und Special Ad Audiences basierend auf weißen, asiatischen und hispanischen Wählern repliziert. Weitere Details zur Methodik finden Sie unter hier gefunden .
Abbildung 2: Überlappung einer Facebook Lookalike Audience basierend auf Afroamerikanern mit rassenbasierten Wählerstichproben aus North Carolina
Eine Lookalike Audience von 2,3 Millionen Facebook-Nutzern in den USA, basierend auf einer Kundenliste von Afroamerikanern, hatte 139.000 gemeinsame Nutzer mit der 1 Million Afroamerikaner und nur 17.000 Nutzer mit der 1 Million weißen Wählerstichprobe.
Fakten zum atlantischen Sklavenhandel
Ein Hauptanliegen bei der algorithmischen Diskriminierung besteht darin, ob Computer die bestehenden Diskriminierungsmuster verstärken, die Menschen in den Vereinigten Staaten gemacht haben. Sozialwissenschaftliche Forscher haben in . gefunden Beschäftigung , Gehäuse , Kreditvergabe , und andere Aspekte des Lebens, rassische Stellvertreter wie der eigene Name und Nachbarschaft kann den Grad der Diskriminierung menschlicher Entscheidungsträger erhöhen. Daher habe ich ein häufig zitiertes Computeralgorithmus an den Namen von 13 Millionen Wählern in Florida trainiert, um häufig verwendete Namen für jede demografische Gruppe zu identifizieren und LAUS. Volkszählungsdaten um die Postleitzahlen der ethnischen Enklaven zu identifizieren. Dann habe ich getestet, ob die Verwendung von Wählerproben, die auf häufig verwendeten rassischen Proxys wie Namen und Postleitzahlen basieren, den Grad der Voreingenommenheit in den resultierenden Lookalike- und Special Ad Audiences beeinflussen kann. Wäre beispielsweise eine Lookalike-Zielgruppe, die auf afroamerikanischen Wählern mit gemeinsamen afroamerikanischen Namen basiert und in mehrheitlich afroamerikanischen Postleitzahlen lebt, noch wahrscheinlicher, Afroamerikaner über der Basislinie von 50 % zu überrepräsentieren?
Meine Forschungsstudie zur Werbeplattform von Facebook in den Jahren 2020 und 2021 ergab drei wichtige Ergebnisse. Die Werbeplattform von Facebook bietet trotz des historischen Boykotts im Jahr 2020 immer noch mehrere Möglichkeiten zur Diskriminierung nach Rasse und ethnischer Zugehörigkeit, und schlechte Akteure können diese Schwachstellen in der neuen digitalen Wirtschaft ausnutzen.
Im Jahr 2021 waren bestimmte rassische und ethnisch-kulturelle Interessengruppen, die Facebook den Werbetreibenden immer noch anbot, bei der Ansprache von Benutzern aus Minderheiten noch genauer als die alten multikulturellen Affinitätsgruppen, die Facebook im August 2020 in den Ruhestand versetzte. Zum Beispiel könnten im Jahr 2020 150.000 afroamerikanische Wähler in North Carolina von Facebooks Afroamerikaner-(US)-Targeting-Option jeden Tag erreicht werden, was etwas mehr ist als die 142.000, die 2021 mit der Afroamerikaner-Kultur-Targeting-Option von Facebook erreicht werden können. Es gab jedoch einen dramatischen Rückgang der Zahl der weißen Wähler, die mit den gleichen Targeting-Optionen erreicht werden, von 428.000 im Jahr 2020 auf nur 109.000 im Jahr 2021. Dies bedeutet, dass die Afroamerikaner-(US-)Targeting-Option von Facebook im Jahr 2020 wahrscheinlich fast dreimal so viele weiße Nutzer erreichen würde wie afroamerikanische Nutzer, während Im Jahr 2021 wurde die Targeting-Option von Facebook für afroamerikanische Kultur wesentlich genauer, indem sie fast dieselbe Anzahl afroamerikanischer Nutzer erreichte, während 75 % weniger weiße Nutzer anvisieren.
Abbildung 3: Anzahl der Wähler in North Carolina nach ethnischer Zugehörigkeit, die von Facebooks Targeting-Optionen für Afroamerikaner erreicht wurden, 2020 und 2021
Die Zahl der weißen Wähler in North Carolina, die mit den beiden afroamerikanischen Targeting-Optionen von Facebook erreicht werden können, ist 2021 gegenüber 2020 um 75 % zurückgegangen, während die Zahl der afroamerikanischen Wähler, die mit denselben beiden Targeting-Optionen erreicht werden können, nahezu unverändert geblieben ist im gleichen Zeitraum.
Die Lookalike- und Special Ad Audiences von Facebook können sowohl 2020 als auch 2021 nach Rasse und ethnischer Zugehörigkeit voreingenommen sein, abhängig von der Demografie einer Kundenliste, die ein Werbetreibender Facebook zur Verfügung stellt. Im Jahr 2020 hatte beispielsweise eine Lookalike Audience, die auf afroamerikanischen Wählern in North Carolina basiert, einen Stichprobenanteil von 83 % Afroamerikanern, der 2021 auf 89 % anstieg. Somit waren diese Lookalike Audiences deutlich überrepräsentiert Afroamerikaner über den erwarteten 50 % Anteil am Ausgangswert der Stichprobe (Abbildung 4). In ähnlicher Weise hatten Lookalike Audiences, die auf weißen Wählern basieren, einen Stichprobenanteil von 73 % Weißen im Jahr 2020 und 71 % im Jahr 2021, was Weiß über der Basislinie von 50 % deutlich überrepräsentiert. Andere Tests ergaben, dass Lookalike Audiences basierend auf asiatischen oder hispanischen Wählern auch Asiaten oder Hispanics über dem erwarteten Basisanteil deutlich überrepräsentieren würden.
Ich habe auch ein hohes Maß an rassistischer und ethnischer Voreingenommenheit beim Testen des Special Ad Audience-Tools festgestellt, das Facebook entwickelt hat, um ausdrücklich die Verwendung sensibler demografischer Attribute zu vermeiden, wenn ähnliche Nutzer wie in der Kundenliste eines Werbetreibenden gefunden werden. Im Jahr 2020 hatte beispielsweise eine auf afroamerikanischen Wählern basierende Zielgruppe einer Sonderanzeige einen Stichprobenanteil von 83 % Afroamerikanern, der im Jahr 2021 leicht auf 76 % zurückging (Abbildung 4). Special Ad Audiences, die auf weißen Wählern basieren, hatten einen ähnlich hohen Stichprobenanteil von 83 % Weißen im Jahr 2020 und 81 % im Jahr 2021. Schließlich stellte ich auch fest, dass Special Ad Audiences basierend auf hispanischen Wählern sowohl 2020 als auch 2021 deutlich überrepräsentiert waren. Dies Die Feststellung ist besonders problematisch, da sie bedeutet, dass Werbetreibende für Wohnungs-, Kredit- und Beschäftigungsangebote das von Facebook für diese gesetzlich geschützten Sektoren entwickelte Zielgruppentool Special Ad verwenden können, um Diskriminierung nach Rasse und ethnischer Zugehörigkeit zu verfolgen. Dies untergräbt auch die Ziele der 2019 Rechtsvergleich zwischen Facebook und der ACLU, die von Facebook verlangte, eine alternative Ad-Targeting-Lösung für diese Sektoren zu entwickeln, in denen ein Werbetreibender Anzeigen nicht basierend auf dem Alter, Geschlecht, der Rasse oder Kategorien der Facebook-Nutzer, die mit der Mitgliedschaft in geschützten Gruppen verbunden sind, oder basierend auf Postleitzahl oder ein geografisches Gebiet.
Sowohl 2020 als auch 2021 ist der Grad der rassistischen und ethnischen Voreingenommenheit in Facebooks Lookalike- und Special Ad Audiences höher, wenn der Ad-Targeting-Algorithmus versucht, Benutzer zu finden, die Personen mit rassenstereotypischen Merkmalen wie ihrem Namen oder ihrer Nachbarschaft ähneln. Ein Lookalike-Publikum, das auf afroamerikanischen Wählern mit häufig angegebenen afroamerikanischen Namen basiert und in mehrheitlich afroamerikanischen Postleitzahlen lebt, hatte beispielsweise einen sehr hohen Stichprobenanteil von 93 % Afroamerikanern im Jahr 2020, der 2021 auf 94 % anstieg (Abbildung .). 4). Im extremsten Fall stellte ich im Jahr 2021 fest, dass ein Lookalike-Publikum, das auf asiatischen Wählern mit häufig angegebenen asiatischen Namen basiert und in beliebten asiatischen Postleitzahlen lebt, einen Stichprobenanteil von 100 % Asiaten hatte.
Ich habe auch festgestellt, dass die Verwendung von rassistisch stereotypen Namen und Postleitzahlen die Möglichkeiten für eine genauere Diskriminierung bei der Verwendung von Special Ad Audiences fördern kann. Im Jahr 2020 hatte beispielsweise eine Sonderwerbezielgruppe, die auf afroamerikanischen Wählern mit häufig angegebenen afroamerikanischen Namen basiert und die in mehrheitlich afroamerikanischen Postleitzahlen leben, einen Stichprobenanteil von 97 % Afroamerikanern, was sogar noch höher war als die Stichprobe von 83 % Anteil, der beim Testen der Zielgruppe von Special Ads anhand einer generischen Stichprobe afroamerikanischer Wähler beobachtet wurde (Abbildung 4).
Abbildung 4: Stichprobenanteil afroamerikanischer Wähler in Lookalike Audiences (oben) und Special Ad Audiences (unten) basierend auf Listen von Wählern in North Carolina mit unterschiedlichen Merkmalen
Die obere Grafik zeigt, wie die auf Afroamerikanern basierenden Lookalike-Zielgruppen die afroamerikanischen Wähler deutlich überrepräsentieren. Sie haben einen Stichprobenanteil von 83 % bzw. 89 % in den Jahren 2020 bzw. 2021, der in beiden Jahren auf über 93 % ansteigt, wenn das Lookalike-Publikum auf afroamerikanischen Wählern mit gebräuchlichen Namen und mehrheitlich afroamerikanischen Postleitzahlen basiert. Die untere Grafik zeigt ähnliche Ergebnisse in Tests mit Special Ad Audiences, einem Tool, das explizit von Facebook entwickelt wurde, um Diskriminierung zu bekämpfen.
peter die tollen spaß fakten
Basierend auf der algorithmischen Diskriminierungsforschung ist es wahrscheinlich, dass eine Kombination mehrerer Ursachen zu den in dieser Studie beobachteten verzerrten Ergebnissen beigetragen hat. Einer der Hauptfaktoren ist, dass Computeralgorithmen dazu neigen, bestehende Muster und Verhaltensweisen zu replizieren, die bereits in der Gesellschaft existieren. Die Algorithmen Lookalike und Special Ad Audience von Facebook nutzen die enormen Datenmengen, die Facebook über seine Nutzer hat, um zu erkennen, welche Nutzer einander am ähnlichsten sind und somit am ehesten auf dieselbe Art von Werbung reagieren. Wenn es um demografische Gruppen geht, haben Forscher herausgefunden, dass Rassen und ethnische Gruppen neigen dazu, sich anders zu verhalten online und das haben Amerikaner tendenziell sehr rassisch homogene Freundesnetzwerke . Daher können sich Benutzer innerhalb einer Rasse oder ethnischen Gruppe in den Augen der Algorithmen von Facebook ähnlicher erscheinen als Benutzer in verschiedenen Gruppen. Dies bedeutet jedoch nicht, dass Facebook die diskriminierende Ansprache rassischer und ethnischer Minderheiten mit Anzeigen erleichtern sollte oder dass häufig verwendete rassistische Proxys wie Name oder Postleitzahl auch die digitale Welt beeinflussen sollten, die durch die Werbealgorithmen von Facebook geschaffen wird. Schließlich haben hart umkämpfte Bürgerrechtsgesetze in den USA das Interesse der Gesellschaft an der Reduzierung von Diskriminierung absichtlich über das private Interesse von Vermietern, Arbeitgebern und Kreditgebern erhoben, um durch mögliche Diskriminierung Gewinne zu maximieren. Es wäre ein Rückschritt, Diskriminierung auf Facebook neu zu berücksichtigen, nur weil der Entscheider nicht mehr ein Mensch, sondern ein Computer ist.
Angesichts dieser Ergebnisse spielen die politischen Entscheidungsträger eine Rolle bei der Minderung der Vorurteile, die von Unternehmen wie Facebook und anderen Werbetreibenden, die auf Online-Tools angewiesen sind, aktiviert werden.
Der Kern der Probleme liegt eindeutig in der mangelnden Transparenz von Facebook gegenüber der Öffentlichkeit und seinen Werbetreibenden darüber, wie seine Werbeplattform möglicherweise nach Rasse und ethnischer Zugehörigkeit diskriminieren kann. Dies kann von diskriminierenden Werbetreibenden ausgenutzt werden, während die Ziele von nichtdiskriminierenden Werbetreibenden untergraben werden.
Diskriminierende Werbetreibende wissen möglicherweise bereits, dass die Targeting-Option für afroamerikanische Kultur weniger weiße Nutzer enthält als die afroamerikanische (US)-Option, die Facebook im Jahr 2020 entfernt hat. Diskriminierende Werbetreibende verwenden möglicherweise auch ähnliche Proxy-Variablen-Techniken wie die in dieser Studie getesteten. basierend auf rassistisch stereotypen Namen und Postleitzahlen, um voreingenommene Lookalike und Special Ad Audiences zu schaffen. Auf der anderen Seite können nichtdiskriminierende Werbetreibende unbeabsichtigt ähnliche Targeting-Einstellungen wie diskriminierende auswählen, wissen aber nicht, wie die Werbeplattform von Facebook in ihrem Namen rassistisch und ethnisch voreingenommenes Targeting durchführt.
Facebook kann diesen Mangel an Transparenz durch mehr Unternehmensverantwortung, Transparenzerklärung, Offenlegung gegenüber Werbetreibenden und solide Antidiskriminierungstechniken rückgängig machen. Es ist jedoch von entscheidender Bedeutung, dass Aufsichtsbehörden, Interessenvertretungen und Branchengruppen reagieren können, um solche Ergebnisse zu verbessern.
Werbeplattformen wie Facebook sollten mehr Transparenz darüber bieten, wie Werbetreibende ihre Tools zur zielgerichteten Werbung einsetzen. Regulierungsbehörden können verlangen Facebooks Anzeigenbibliothek für politische, Wohnungs-, Beschäftigungs- und kreditbezogene Anzeigen, um die relevanten Metadaten anzuzeigen, um einen soliden kausalen Zusammenhang für Klagen wegen rassistischer oder ethnischer Diskriminierung herzustellen. Dies ist besonders wichtig, da die am 24 Klage wegen Diskriminierung aufgrund unterschiedlicher Auswirkungen an erster Stelle. Facebook hat begonnen zu teilen relevante Metadaten für politische Anzeigen mit zugelassenen Forschern im Jahr 2021, veröffentlicht jedoch derzeit keine Metadaten zur Anzeigenausrichtung für Wohnungs-, Beschäftigungs- und kreditbezogene Anzeigen.
Zukünftige Bürgerrechtsprüfungen der Facebook-Plattform sollten ihre Technologien auf algorithmische Verzerrungen basierend auf Rasse, ethnischer Zugehörigkeit, Geschlecht, sexueller Orientierung und anderen geschützten Klassen testen. Im Juli 2020 veröffentlichte Facebook sein erstes Bürgerrechtsprüfung konzentrierte sich hauptsächlich auf politische Reden, Fehlinformationen und rechtliche Fragen während des Boykotts von Stop Hate for Profit. Die den Boykott organisierten Bürgerrechtsgruppen forderten regelmäßige Überprüfungen der Facebook-Plattform. Diese zukünftigen Bürgerrechtsprüfungen können auf den technischen Bemühungen von mir und anderen aufbauen Forscher . Im Idealfall können diese Audits, wenn sie noch tieferen Zugriff auf die Daten und Systeme von Facebook bieten, noch weiter gehen, um zu untersuchen, warum diese rassistischen und ethnischen Vorurteile bestehen und wie man ihnen begegnet. Seit 2014 haben sich viele große US-amerikanische Technologieunternehmen wie Facebook, Apple, Google, Microsoft, Amazon, Twitter und andere an der entsprechenden Veröffentlichungsnorm beteiligt jährliche Berichte über die Vielfalt der Belegschaft . Bundesaufsichtsbehörden wie die Federal Trade Commission (FTC) können auch die Werbeplattform von Facebook auf Diskriminierung prüfen und ihre Durchsetzungsbefugnisse nutzen um Verstöße gegen Abschnitt 5 des FTC Act, des Fair Credit Reporting Act und des Equal Credit Opportunity Act zu beheben.
Technologie und Technologiepolitik müssen weiter gehen Fairness durch Unwissenheit —die Idee, dass Diskriminierung durch Eliminierung der Verwendung geschützter Klassenvariablen oder enger Proxys verhindert wird, um die algorithmische Diskriminierung tatsächlich anzugehen. Facebook hat beispielsweise als Alternative zu Lookalike Audiences das Tool Special Ad Audiences entwickelt, um explizit keine sensiblen Attribute wie Alter, Geschlecht oder Postleitzahl wenn man bedenkt, welche Benutzer dem Quellpublikum ähnlich genug sind, um aufgenommen zu werden. Meine Recherchen zeigen jedoch, dass Special Ad Audiences, die auf Afroamerikanern oder Weißen basieren, voreingenommen sein können auf die Rasse, die in der Kundenliste, die zur Erstellung des Publikums verwendet wird, dominanter ist, genau wie die entsprechenden Lookalike Audiences.
Statistikforschung hat dieses Phänomen als Rashomon oder den Multiplizitätseffekt bezeichnet. Bei einem großen Datensatz mit vielen Variablen gibt es eine große Anzahl potenzieller Modelle, die ungefähr gleich gut funktionieren können als verbotenes Modell, das geschützte Klassenvariablen verwendet . Auch wenn der Special Ad Audiences-Algorithmus zum Auffinden ähnlicher Nutzer in einer Kundenliste demografische Attribute nicht auf die gleiche Weise wie der Lookalike Audiences-Algorithmus verwendet, können die beiden Algorithmen am Ende funktional vergleichbare Entscheidungen darüber treffen, welche Nutzer als ähnlich angesehen werden genug, um aufgenommen zu werden.
Es bestehen Risiken für die öffentliche Ordnung, wenn weiterhin ein Fairness-durch-Unwissenheit-Standard eingeführt wird, der sich als statistisch ineffektiv erwiesen hat. Zum Beispiel die ursprünglich am 19. August 2019 vom Ministerium für Wohnen und Stadtentwicklung (HUD) vorgeschlagene Sprache für seine aktualisierter Standard für unterschiedliche Auswirkungen , hätte wahrscheinlich Unternehmen wie Facebook fälschlicherweise davor geschützt, wegen Diskriminierung verklagt zu werden, nur weil sein Special Ad Audience-Algorithmus Fairness durch Unwissenheit folgt und sich nicht auf Faktoren verlässt, die gemäß dem Fair Housing Act geschützte Klassen ersetzen oder nahe Proxys sind.
Stattdessen besteht der effektivere Ansatz darin, Fairness durch Sensibilisierung zu nutzen, um Antidiskriminierungsinstrumente zu entwickeln, die dann die Erfahrungen verschiedener Rassen und ethnischer Gruppen auf der Plattform genau berücksichtigen könnten. Daher müssten Technologieunternehmen wie Facebook die demografischen Informationen ihrer Benutzer lernen. Eine Möglichkeit besteht darin, ihre Benutzer direkt zu bitten, ihre Rasse und ethnische Zugehörigkeit auf freiwilliger Basis anzugeben, wie bei LinkedIn Selbst-ID . Eine andere Möglichkeit besteht darin, algorithmische oder menschliche Bewerter zu verwenden, um diese Informationen für ihre Antidiskriminierungs-Testtools zu generieren. Das war der Ansatz von Airbnb Projekt Leuchtturm , das 2020 ins Leben gerufen wurde, um die rassistische Erfahrungslücke von Gästen und Gastgebern auf Airbnb zu untersuchen. Project Lighthouse hat einen Drittanbieter beauftragt, die wahrgenommene Rasse einer Person anhand ihres Namens und Profilbilds zu bewerten. Im Dezember 2009, Facebook-Forscher verwendete eine ähnliche Methode, indem sie die Nachnamen von Facebook-Nutzern mit dem Datensatz der US-Volkszählung für häufig vorkommende Nachnamen verglich, um zu zeigen, wie Facebook sich entwickelt hat immer vielfältiger im Laufe der Zeit durch mehr afroamerikanische und hispanische Benutzer.
wie sieht ein neumond aus
Die Schäden durch diskriminierende Werbung auf Facebook, die auf bestimmte demografische Gruppen abzielt, sind real. Facebook-Anzeigen haben eingeschränkte Beschäftigungsmöglichkeiten , gesät politische Spaltung und Fehlinformationen , und selbst die Bemühungen um die öffentliche Gesundheit untergraben um auf die COVID-19-Pandemie zu reagieren. Meine Forschung zeigt, wie Facebook Werbetreibenden weiterhin unzählige Tools bietet, um diskriminierendes Anzeigen-Targeting nach Rasse und ethnischer Zugehörigkeit zu erleichtern, trotz des hochkarätigen Stop Hate for Profit-Boykotts vom Juli 2020. Um dieses Problem anzugehen, können Aufsichtsbehörden und Interessenvertretungen mehr Werbung durchsetzen und fordern gezielte Transparenz, mehr algorithmische Bias-Audits und ein Fairness-by-Awareness-Ansatz von Facebook und seinen Werbetreibenden.
Im Juli 2020, Facebook Chief Operating Officer Sheryl Sandberg sagte dass die Bürgerrechtsprüfung der Anfang der Reise war, nicht das Ende. Angesichts eines langen Weges ist es an der Zeit, dass Facebook seinen Weg fortsetzt, gerechtere und weniger schädliche Werbesysteme zu schaffen.
Bericht erstellt von Zentrum für Technologieinnovation