In dem futuristischen Film Minority Report aus dem Jahr 2002 verwenden die Strafverfolgungsbehörden eine prädiktive Technologie, die künstliche Intelligenz (KI) für Risikobewertungen umfasst, um mögliche Mörder zu verhaften, bevor sie Verbrechen begehen. Ein Polizist ist nun jedoch einer der angeklagten zukünftigen Mörder und auf der Flucht vor dem Justizministerium, um zu beweisen, dass die Technologie Mängel aufweist. Wenn Sie glauben, dass dieser Spielfilm wahr werden könnte, dann sollten Sie weiterlesen – denn Kunst ist Realität geworden.
Sowohl die Verheißung als auch die Gefahr neuer Technologien liegen auf uns. Für die Strafverfolgung bietet KI Fortschritte gegenüber bisher verwendeten Methoden zur Abschreckung und Aufklärung von Kriminalität, zur Verbesserung der Effizienz, zur Verringerung der Rassenunterschiede und zur Einsparung von Ressourcen im Zusammenhang mit Human- und Finanzkapital. Derzeit umfassen einige der Strafverfolgungstechnologien, die maschinelle Lernalgorithmen verwenden, intelligente Straßenlaternen, Hot-Spot-Polizei, Gesichtserkennung, Drohnenüberwachung, Geofencing, Risikobewertungen und Social-Media-Daten Stoppt Bandengewalt . Die Staatspolizei von Massachusetts ist jetzt im Einsatz Roboterhunde auf dem Feld und zog Vergleiche mit dem dystopischen Film RoboCop von 1987 an. Auch die Funktionen der Strafverfolgung und der Technologie ändern sich schnell. Im Jahr 2017 führte ich eine Studie durch, die eine erhebliche Unterstützung von Zivilisten und Polizeibeamten für am Körper getragene Kameras ein angebliches Allheilmittel zur Verbesserung der Beziehungen zwischen Polizei und Gemeinde. Jetzt kann die KI angeblich bestimmen, wer Straftaten begeht, vorhersagen, wo Straftaten auftreten, und potenzielle Bedrohungen identifizieren – all dies verstärkt ihre wahrgenommene Lebensfähigkeit in Bezug auf am Körper getragene Kameras.
Technologieunternehmen entwickeln bereits kommerzielle KI-Produkte mit wenig Aufsicht oder Regulierung. Darüber hinaus fordern sie häufig Strafverfolgungsbehörden auf, an Pilotstudien und Testversuchen im Austausch für die Nutzung der neuen Technologie teilzunehmen. Da viele Strafverfolgungsbehörden finanziell angeschlagen sind, ist die Gelegenheit, ein glänzendes neues Spielzeug auszuprobieren, verlockend. Das Vereinigte Königreich entsandte a Passerkennungssoftware obwohl man wusste, dass es bei Menschen mit dunkleren und helleren Hauttönen nicht gut funktionierte. Dies geschieht jedoch nicht nur in Europa. Wie dieses Papier zeigt, sind die USA von diesen Problemen durchdrungen. Bei dem Versuch, mit China, Indien und anderen Ländern bei der Technologie der Strafjustiz zu konkurrieren, kompromittieren die USA Spitzenleistungen und gefährden möglicherweise alle Amerikaner.
Beim Versuch, mit … anderen Ländern bei der Technologie der Strafjustiz zu konkurrieren, kompromittieren die USA Spitzenleistungen und gefährden potenziell alle Amerikaner.
Aber die Politik kann konstruktiv eingreifen. Zum Schutz der Menschen müssen sinnvolle Sicherheitsvorkehrungen getroffen werden. Es könnte auch argumentiert werden, dass das Potenzial der KI, zu bestimmen, wer von den Strafverfolgungsbehörden festgenommen, inhaftiert und aus dem Gefängnis entlassen wird, ganz oben auf der Liste der gebotenen Vorsicht steht. Was müssen politische Entscheidungsträger über den Einsatz von KI in der Strafverfolgung wissen und welche zentralen Fragen sollten Sie sich bei der Umsetzung von Vorschriften und Schutzmaßnahmen stellen?
Ein Hauptanliegen der Öffentlichkeit im Zusammenhang mit dem Einsatz von KI und anderen aufkommenden Technologien durch die Strafverfolgungsbehörden betrifft die Gesichtserkennung. Ab 2016 über die Hälfte der Gesichter der amerikanischen Erwachsenen waren Teil von Gesichtserkennungsdatenbanken, die den Strafverfolgungsbehörden zugänglich waren. Doch nicht jeder ist besorgt über diese Bereitstellung. Über 50% von Menschen vertrauen der Verwendung der Gesichtserkennung durch die Polizei , und fast 75 % glauben, dass die Gesichtserkennung Personen genau identifiziert. Es gibt jedoch wichtige demografische Unterschiede. Ungefähr 60 % der weißen Befragten im Vergleich zu etwas mehr als 40 % der schwarzen Befragten vertrauen der Verwendung der Gesichtserkennung durch die Polizei. Das Alter zeigt einen ähnlichen Verlauf, jedoch nicht in der erwarteten Richtung. Personen unter 30 Jahren vertrauen im Vergleich zu Personen über 65 weniger der Verwendung von Gesichtserkennung in der Polizei. Die Skepsis junger Erwachsener könnte darauf zurückzuführen sein, dass sie mehr Wissen über die Fähigkeiten von KI haben, um manipulieren tatsächliches Videomaterial und ändern Sie, was die Person sagt und tut.
Ab 2016 war mehr als die Hälfte der Gesichter amerikanischer Erwachsener Teil von Gesichtserkennungsdatenbanken, die den Strafverfolgungsbehörden zugänglich waren.
Hier ist jedoch das große Rätsel: Nur 36% der Erwachsenen glauben, dass die Gesichtserkennung von privaten Unternehmen verantwortungsbewusst verwendet wird, die häufig Gesichtserkennungssysteme an Strafverfolgungsbehörden verkaufen.
Obwohl die öffentliche Meinung über die Verwendung von Gesichtserkennung für die Polizei gespalten ist, weisen Untersuchungen darauf hin, dass die Gesichtserkennung unter algorithmischen Verzerrungen leidet. Das National Institute for Standards and Technology (NIST) veröffentlicht a Papier Dies zeigt, dass die Gesichtserkennung bei Frauen im Vergleich zu Männern zu geringeren Genauigkeitsraten führte und bei Schwarzen im Vergleich zu Weißen. Eine Studie zeigte, dass das Geschlecht schwarzer Frauen in 33 % der Fälle falsch klassifiziert wurde. Im Jahr 2019 wurde die Gesichtserkennungssoftware von Amazon, Rekognition, falsch gekennzeichnet Professionelle Athleten in Boston als Kriminelle. Die Software bezeichnete auch einen von fünf kalifornischen Gesetzgebern fälschlicherweise als Kriminelle . Das New Yorker Polizeidepartement (NYPD) manipulierte mit Schauspielern wie Woody Harrelson verschwommene Bilder, um mehr Klarheit über potenzielle Verdächtige in Überwachungsaufnahmen zu gewinnen.
Aus diesen und anderen Gründen hat San Francisco verboten Verwendung der Gesichtserkennung durch die Polizei; Oakland und Teile von Massachusetts folgten bald darauf. Umgekehrt sind Städte wie Detroit und Chicago haben in den letzten Jahren Gesichtserkennungssoftware mit wenig Aufsicht verwendet. Neue Vorschriften, die 2019 in Detroit erlassen wurden, beschränken die Verwendung der Gesichtserkennung auf Standbilder im Zusammenhang mit Gewaltverbrechen und Hausinvasionen. Obwohl die Strafverfolgungsbehörden in der Stadt die Möglichkeit begrüßen, die Gesichtserkennung weiterhin zu verwenden, behaupten Mitglieder des zivilen Aufsichtsausschusses, dass die Technologie eine Form der Techno-Rassismus in einer überwiegend schwarzen Stadt, die eine Geschichte von Polizeibrutalität und problematischen Beziehungen zwischen Polizei und Gemeinde hat. Ein Hauptanliegen ist die Kritik, dass die Strafverfolgungsbehörden, wie bereits erwähnt, unzuverlässige Technologien verwenden, die Stadtbewohner falsch einordnen.
Obwohl es wichtig ist, dass die Strafverfolgungsbehörden die Möglichkeit haben, mit neuen Technologien zu experimentieren, sollte KI nicht helfen, Entscheidungen in Strafsachen zu treffen, bis die Technologie ihre Genauigkeit verbessert.
Obwohl es wichtig ist, dass die Strafverfolgungsbehörden die Möglichkeit haben, mit neuen Technologien zu experimentieren, sollte KI nicht helfen, Entscheidungen in Strafsachen zu treffen, bis die Technologie ihre Genauigkeit verbessert. Es sollte ein Moratorium für die vollständige Umsetzung geben, um die Daten aus Pilotstudien (möglicherweise mit Analysen, die von einer dritten Partei, wie einem universitären Forschungszentrum oder einer Firma durchgeführt werden) zu analysieren, um die Ergebnisse der Polizeiarbeit unter Verwendung bestehender Methoden bis hin zu denen der Verwendung von KI zu bewerten.
wann ist kolumbus gestorben
Neben der Gesichtserkennung gibt es andere Formen des KI-Einsatzes, auf die politische Entscheidungsträger achten sollten. In dem Bestreben, die erste echte Smart City zu sein, hat San Diego seinen Einsatz gefunden intelligente Straßenlaternen im Jahr 2016. Um den Energieverbrauch zu senken, werden die Sensoren intelligenter Straßenlaternen von Strafverfolgungsbehörden verwendet um Fußgänger-, Fahrzeug- und Parkverkehr zu überwachen, Videos der Umgebung aufzunehmen und Verbrechen aufzuklären. Für viele Stadtbewohner ist das Licht kein Thema. Vielmehr ist der Einsatz der Lichter durch die Polizei ohne die Zustimmung der Öffentlichkeit ist das größere Problem. Drei Stadtratsmitglieder beantragten ein Moratorium für die Verwendung der Lichter.
San Diego ist auch dabei, eine militärische Drohne über der Stadt im Jahr 2020, die das Potenzial zur Überwachung und Sammlung von Informationen hat, ähnlich den Aufklärungsfähigkeiten der Streitkräfte. Im Jahr 2018, Rutherford County, Tennessee , war der erste im Land, der die staatliche Genehmigung zum Fliegen von Drohnen über Menschen erhielt. Stadtmitarbeiter sagen, dass Rutherford County Drohnen einsetzen kann, um eine Deponiekrise zu bekämpfen, Sturmschäden zu beurteilen, die Menge bei einer weißen nationalistischen Kundgebung zu beobachten und Flüchtlinge aufzuspüren. An der Ostküste hat NYPD gebrauchte Drohnen bei einer Reihe von Märschen und Paraden, darunter der Pride March und die Puerto Rican Day Parade. In dieser Hinsicht könnte die Science-Fiction-Show Black Mirror prädiktiv werden – ihre Episode Hated in the Nation zeigte eine fortschrittliche Gesichtserkennung und Schwärme winziger, drohnenartiger Bienen mit tödlichen Fähigkeiten.
Mehrere IT-Führungskräfte in Länder einschließlich der USA, Frankreichs, Australiens und Kanadas sind äußerst besorgt über den Einsatz von KI für autonome Waffen. Manche Leute lehnen die Verwendung von Technologien auf diese Weise, einschließlich der Mitglieder der Vereinten Nationen. Einige Politiker und Wirtschaftsführer, Akademiker und gemeinnützige Organisationen argumentieren, dass vollständig autonome Waffen tatsächlich zu mehr Konflikt , Ungleichheit und erhöhtes Kriegspotential. Interessanterweise scheinen die Leute weniger Probleme mit der tatsächlichen Technologie und mehr Probleme mit dem Mangel an Regulierung, Transparenz, Privatsphäre und Zustimmung zu haben.
Im Jahr 2017 verwendete die Strafverfolgung Geofencing Anti-Rassismus-Aktivisten an der University of North Carolina-Chapel Hill zu überwachen, die gegen eine konföderierte Statue namens Silent Sam protestierten. Geofencing ist ein virtueller Perimeter, der die Überwachung von Handydaten, die Erfassung von Social-Media-Daten (wie den Standort von Personen, die bei einem Marsch oder Protest twittern) und die Erfassung von Website-Informationen für Unternehmen ermöglicht, um standortbezogene Anzeigen zu schalten für Dienstleistungen und Produkte. Viele fragten sich, warum Geofencing verwendet wurde, um die Social-Media-Aktivitäten dieser Anti-Rassismus-Demonstranten zu überwachen, aber nicht implementiert wurde, um weiße Rassisten zu überwachen. Der unterschiedliche Einsatz dieser Technologien ruft kollektive Erinnerungen über den Einsatz von Polizei gegen marginalisierte Gemeinschaften. In Anbetracht der Entscheidung Carpenter gegen den Obersten Gerichtshof der Vereinigten Staaten stellten andere die Rechtmäßigkeit des Einsatzes von Geofencing in dieser Situation in Frage. Die Leute haben ähnliche Bedenken bezüglich Hot-Spot-Polizei – in denen die Strafverfolgung auf bestimmte geografische Gebiete abzielt, in denen die Kriminalität möglicherweise stärker konzentriert ist – und sich fragen, ob es sich nur um rassistische Profilerstellung unter einem vorausschauenden Polizeinamen handelt.
Der unterschiedliche Einsatz dieser Technologien weckt kollektive Erinnerungen darüber, wie Polizei gegen marginalisierte Gemeinschaften eingesetzt wird.
Polizeibehörden erhalten auch Zugang zu den Kameras privater Hausbesitzer, wenn in der Gegend eine Straftat begangen wurde. Das bekannteste Unternehmen für Türklingelkameras, Ring , ist mit 400 Polizeidienststellen in den Vereinigten Staaten Video-Sharing-Partnerschaften eingegangen. Obwohl die Polizei die Möglichkeit haben sollte, auf eine Vielzahl von Ressourcen zuzugreifen, um Straftaten aufzuklären, sollte es einen regulierteren und transparenteren Weg geben, auf Video und Daten von Privatwohnungen zuzugreifen. Hausbesitzer sollten beispielsweise in der Lage sein, das Filmmaterial, auf das von zu Hause aus zugegriffen wurde, anzuzeigen und zu wissen, wie lange das Filmmaterial gespeichert wird.
Chanukka wie viele Tage
Im Einklang mit dem Minderheitenbericht verwenden einige Gerichte Algorithmen, um Risikobewertungen zu Rückfälligkeit bevor man Menschen aus dem Gefängnis entlässt. Chicagos Strategische Themenliste und Crime and Victimization Risk Model haben KI-Software verwendet, um vorherzusagen, wer nach einer Festnahme weitere Straftaten begehen könnte. Ein Bericht des Chicagoer Office of Inspector General aus dem Jahr 2020 ergab, dass die Software unzuverlässig und die Qualität der Daten schlecht war. In einer Stadt wie Chicago sind diese Ergebnisse angesichts des Niveaus der Rassismus vor Gericht entdeckt.
Die Annahme scheint zu sein, dass Technologien, die Algorithmen verwenden, Bedrohungen und potenzielle Kriminelle besser identifizieren können. Einige Forschungen mit maschinellem Lernen für Kaution zeigen, wie KI eingesetzt werden kann, um Rückfälle, Kriminalität und Rassenunterschiede bei der Verurteilung zu reduzieren. Gleichzeitig können Algorithmen tatsächlich replizieren nachteilige Entscheidungen die im gesellschaftlichen Leben vorkommen. Dies schien bei Chicago der Fall zu sein. Ein wichtiger Punkt ist, dass das Weglassen von Rasse als Modellattribut, wie es bei Chicagos Software der Fall ist, zu mehr Verzerrungen führen kann, als sie einzubeziehen. Ohne weitere Regulierung und Schutzmaßnahmen wird sich die Variabilität dieser Ergebnisse weiterhin manifestieren.
[O]Rasse als Modellattribut aufzugeben … kann zu mehr Voreingenommenheit führen, als sie einzubeziehen.
Worauf sollten sich politische Entscheidungsträger angesichts dieser Anwendungsfälle konzentrieren, wenn es um die faire Nutzung und Bereitstellung von KI-Systemen geht?
Politische Entscheidungsträger haben eine schwierige Aufgabe, herauszufinden, wie sie einen sich ständig verändernden Technologiemarkt mit Algorithmen regulieren können, die maschinelles Lernen nutzen, um in Echtzeit auf sich selbst aufzubauen. Während politische Entscheidungsträger möglicherweise nicht über alle Antworten oder Fachkenntnisse verfügen, um die besten Entscheidungen zu treffen, um das freie Unternehmertum, Transparenz, Datenschutz und Regulierung in Einklang zu bringen, kann es in der Zwischenzeit ein wichtiger Schritt sein, die besten Fragen zu kennen. Ich zähle unten fünf auf.
Mangelnde Transparenz verletzt das Vertrauen der Gemeinschaft und erschwert den technologischen Fortschritt. Daher muss die Antwort auf diese Frage über eine Antwort hinausgehen, die lediglich einen Rathaus- oder Kirchenbesuch erwähnt. Die Öffentlichkeit muss vor der Einführung neuer Technologien über lokale Medien, direkte Mitteilungen und Offenlegungen per Post, E-Mail oder soziale Medien informiert werden. Die Öffentlichkeit sollte das Recht haben, Fragen zu stellen und Vorschläge zur Technik in der Nähe ihres Wohnortes zu machen. Die öffentliche Aufsicht über die Polizeitechnologie ( POST ) Act in New York City ist eine praktikable Option dafür, wie dies aussehen könnte. Dies Webseite die Öffentlichkeit über die KI-Nutzung in New York City zu informieren, die von Doktoranden der Kennedy School of Government der Harvard University zusammengestellt wurde, sollte Strafverfolgungsbehörden und Stadtregierungen die Bedeutung der Zusammenarbeit mit Akademikern bewusst machen.
Bei dieser Frage geht es um Regulierung. Das Gesetz zur Gewährleistung der Technologie zur Gesichtserkennung ist ein guter Schritt nach vorn und unterstreicht, wie wichtig es ist, überparteilich zu sein. Wenn die Strafverfolgungsbehörden die Gesichtserkennung länger als 72 Stunden verwenden möchten, würde die Gesetzgebung vorschreiben, dass sie eine richterliche Genehmigung einholen müssen, und die Genehmigung ist auf 30 Tage begrenzt. Mit Richterberichten muss der Direktor des Verwaltungsbüros der US-Gerichte dem Justizausschuss des Senats und des Repräsentantenhauses jedes Jahr Informationen zur Anzahl der Gerichtsbeschlüsse, den mit den Gerichtsbeschlüssen verbundenen Straftaten, der Häufigkeit der Verwendung von die Technologie, die Anzahl der beobachteten Personen und die Anzahl der Personen, die mit der Technologie falsch identifiziert wurden. Obwohl dieser Gesetzentwurf lobenswert ist, bestehen potenzielle Schlupflöcher. Beispielsweise könnten die Strafverfolgungsbehörden die 72-Stunden-Frist kontinuierlich unterschreiten oder behaupten, dass die Gesichtserkennung ein Anliegen der nationalen Sicherheit ist, eine Bedingung, die den Gesetzentwurf außer Kraft zu setzen scheint.
Bei dieser Frage geht es um nachteilige Daten und diskriminierende Ergebnisse. Das Algorithmic Accountability Act und das Justice in Forensics Algorithms Act von 2019 zielen darauf ab, diesen Prozess zu unterstützen, indem sie von Unternehmen verlangen, ihre Algorithmen auf verzerrte Ergebnisse zu überprüfen. In vielerlei Hinsicht fordern diese Gesetze die Unternehmen auf, Leistungen zu erbringen Aussagen zu rassistischen Auswirkungen . Erklärungen zu rassistischen Auswirkungen sind Werkzeuge, die dem Gesetzgeber helfen, zu beurteilen, ob vorgeschlagene Gesetze möglicherweise eingebettete Disparitäten aufweisen, bevor ein Gesetz verabschiedet wird. Diese Aussagen helfen politischen Entscheidungsträgern, eine bestimmte Sprache zu klären und zu entwickeln, um potenzielle Vorurteile zu beseitigen.
Mit repräsentativen Stichprobenverfahren sollten Unternehmen signifikante Ergebnisse im Einklang mit akademischen Standards vorlegen müssen, um zu zeigen, dass ihre Algorithmen für Menschen unterschiedlicher sozialer Identitäten, wie Rasse, Geschlecht und der Schnittmenge zwischen beiden, ähnliche Vorhersagen treffen. Unternehmen und Strafverfolgungsbehörden können mit Forschungsuniversitätszentren und Think Tanks zusammenarbeiten, um diese Forschungsaufgaben zu erfüllen. Das NIST kann ein Beratungsgremium entwickeln, das Berichte ähnlich der Art und Weise überprüft, wie akademische Zeitschriften Editorial Boards und externe Gutachter verwenden, um neue Forschungsergebnisse zu verifizieren. Es sollte auch eine Priorität sein, sich vor Studien zu schützen, die Minderheitengruppen nicht richtig einbeziehen. Darüber hinaus bedeuten vielfältigere Unternehmen oft auch vielfältigere Ideen, was wiederum zu mehr demografischen Datenerhebungen führen kann – etwas, das Verzerrungen und Disparitäten effektiv reduzieren kann. Silicon Valley hat in diesem Bereich viel Raum zum Wachsen. Wenn diese Standards nicht normativ werden, wird die Technologie in der Strafverfolgung einige der gleichen Vorurteile und Mängel aufweisen wie in Medizin und andere Felder.
Datenschutz ist wichtig. Am Körper getragene Kameras lehren uns über Einwilligung. Die Beamten haben eine Aufforderung, mit der sie die interessierende Person darüber informieren, dass sie Video- und Audioaufnahmen machen. Für die Gesichtserkennung müssen wir über die Zustimmung hinausgehen. Bei dieser Frage geht es darum, wie die Strafverfolgungsbehörden sicherstellen werden, dass durch die Verwendung von Gesichtserkennungssoftware und Social-Media-Daten keine Informationen auf Meta- und Mikroebene gesammelt werden, die die Privatsphäre der Menschen weiter verletzen. Beim Aufbau von maschinellen Lernalgorithmen verknüpfen sie ähnlich definierte Daten. Manchmal ist unklar, wie diese Ergebnisse aussehen werden. Um dies zu regulieren, sind Vorkehrungen erforderlich. Die Menschen sollten auch wissen, wie lange ihre Daten gespeichert werden und wofür ihre Daten verwendet werden. Dennoch sind Schilder an öffentlichen und privaten Orten nützlich, die darauf hinweisen, dass hier Gesichtserkennungssoftware verwendet wird.
Bei dieser Frage geht es darum, Unternehmen dazu zu bringen, über Möglichkeiten nachzudenken, die Effizienz der Ausbildung von Strafverfolgungsbehörden zu verbessern. Das Labor für angewandte sozialwissenschaftliche Forschung , wo ich als Executive Director tätig bin, arbeitet mit großen Unternehmen und Regierungsbehörden zusammen, um Virtual-Reality-Schulungen mit fortschrittlichen Algorithmen anzubieten, die Strafverfolgungsbeamten eine realistischere Erfahrung mit Begegnungen vor Ort vermitteln. Unternehmen wie Flikshop beginnen, Algorithmen zu verwenden, um Menschen, die inhaftiert sind, eine Berufsausbildung zu ermöglichen. Diese Bemühungen tragen dazu bei, Voreingenommenheit bei der Polizeiarbeit zu reduzieren, die Beziehungen zwischen Polizei und Gemeinde zu verbessern und Rückfälle zu reduzieren.
Insgesamt kann die Technologie die Polizeiarbeit effizienter machen – aber Effizienz bedeutet nicht unbedingt Fairness oder Voreingenommenheit. Algorithmen des maschinellen Lernens übertreffen das Verständnis der Öffentlichkeit für diese Technologien bei weitem. Die Politik muss nicht nur Regulierung, sondern auch Sanktionen durchdenken, wenn Strafverfolgungsbehörden und Unternehmen gegen Schutzmaßnahmen verstoßen. Wenn dies der Vergangenheit angehört, wird die Voreingenommenheit weiterhin eine große Rolle bei den sozialen Ergebnissen spielen, es sei denn, die Implementierung dieser Technologien in den Strafverfolgungsbehörden wird drastisch verlangsamt. Gesetzgeber und Interessenvertreter sollten sich auf intelligente Richtlinien konzentrieren, die dazu beitragen, unsere Gesellschaft sicherer zu machen und sicherzustellen, dass Privatsphäre, Zustimmung und Transparenz für alle gleich sind.
Bericht erstellt von Zentrum für Technologieinnovation