Wie die National Science Foundation Fairness in der KI annimmt

Der Großteil des öffentlichen Diskurses über die Politik der künstlichen Intelligenz (KI) konzentriert sich auf eine von zwei Perspektiven: wie die Regierung KI-Innovationen unterstützen kann und wie die Regierung ihren schädlichen oder fahrlässigen Einsatz verhindern kann. Aber auch der Staat kann eine Rolle dabei spielen, den nutzbringenden Einsatz von KI zu erleichtern – in dieser Nische hat die National Science Foundation (NSF) einen Weg gefunden, einen Beitrag zu leisten. Durch ein Stipendienprogramm namens Fairness in Artificial Intelligence (FAI) stellt die NSF Forschern, die an schwierigen ethischen Problemen der KI arbeiten, 20 Millionen US-Dollar zur Verfügung. Das Programm, eine Zusammenarbeit mit Amazon, hat in den ersten zwei Jahren inzwischen 21 Projekte finanziert, mit einem offenen Aufruf zur Bewerbung im dritten und letzten Jahr. Dies ist ein wichtiges Unterfangen, das einen Trend zur Unterstützung des Bundes für den verantwortungsvollen Fortschritt der Technologie fördert, und die NSF sollte diese wichtige Finanzierungslinie für ethische KI fortsetzen.





Was ist das Fairness in AI-Programm der NSF?

Das FAI-Programm ist eine Investition in das, was die NSF nennt anwendungsinspirierte Forschung , wo Wissenschaftler versuchen, grundlegende Fragen zu beantworten, die von realen Herausforderungen und dringenden wissenschaftlichen Grenzen inspiriert sind. Die anwendungsinspirierte Forschung ist eine Alternative zur traditionellen Grundlagenforschung, die ohne zwingend ein konkretes praktisches Ziel grundlegende Fortschritte im wissenschaftlichen Verständnis zu erzielen versucht. NSF ist besser bekannt für die Grundlagenforschung in der Informatik, wo die NSF bietet 87% aller Fördermittel der Grundlagenforschung des Bundes. Folglich macht das FAI-Programm einen relativ kleinen Teil der Gesamtinvestition der NSF in KI aus – etwa 3,3 Millionen US-Dollar pro Jahr, wenn man bedenkt, dass Amazon die Hälfte der Kosten übernimmt. Insgesamt hat die NSF 868 Millionen US-Dollar angefordert an KI-Ausgaben, etwa 10 % des gesamten Budgets für 2021, und vom Kongress genehmigt jeder Penny . Dies ist insbesondere eine weit gefasste Definition von KI-Ausgaben, die viele Anwendungen von KI in anderen Bereichen umfasst, und nicht grundlegende Fortschritte in der KI selbst, die nach groben Schätzungen wahrscheinlich näher an 100 oder 150 Millionen US-Dollar liegen.



Das FAI-Programm orientiert sich gezielt am ethischen Fairness-Prinzip – zu dieser Wahl gleich mehr. Auch wenn dies ungewöhnlich erscheinen mag, ist das Programm eine Fortsetzung früherer staatlich finanzierter Forschungen zu den moralischen Implikationen und Konsequenzen der Technologie. Ab den 1970er Jahren begann die Bundesregierung Bioethikforschung aktiv mitgestalten in Antwort nach der Berichterstattung des AP über die Tuskegee-Syphilis-Studie zu öffentlichem Aufschrei. Obwohl die ursprünglichen Bemühungen reaktionär gewesen sein mögen, führten sie zu jahrzehntelanger Arbeit zur Verbesserung der biomedizinischen Wissenschaften. Neben dem Human Genome Project im Jahr 1990 ins Leben gerufen, gab es eine umfangreiche Forschungslinie an den ethischen, rechtlichen und sozialen Implikationen der Genomik orientiert. Ab 2018 finanzierte die NSF 21 Sondierungsstipendien über die Auswirkungen von KI zur Gesellschaft , ein Vorläufer des aktuellen FAI-Programms. Heute ist es möglich, eine grobe Trendlinie durch diese Bemühungen zu ziehen, bei denen sich die Regierung zuerst mit der reinen Wissenschaft, dann mit der Ethik des wissenschaftlichen Prozesses und jetzt mit den ethischen Ergebnissen der Wissenschaft selbst beschäftigt. Dies ist eine positive Entwicklung, die es wert ist, gefördert zu werden.



Fairness im Fokus

NSF hat sich bewusst dafür entschieden, sich auf Fairness statt auf andere vorherrschende Themen wie Vertrauenswürdigkeit oder menschzentriertes Design zu konzentrieren. Dr. Erwin Gianchandani, stellvertretender stellvertretender Direktor der NSF, hat beschrieben vier Kategorien von Problemen im Bereich der FAI, die alle leicht mit den gegenwärtigen und laufenden Herausforderungen der KI in Verbindung gebracht werden können. Die erste Kategorie konzentriert sich auf die viele widersprüchliche mathematische Definitionen von Fairness und der Mangel an Klarheit darüber, welche in welchen Kontexten angemessen sind. Ein gefördertes Projekt untersuchte die menschliche Wahrnehmung, welche Fairness-Metriken für einen Algorithmus im Kontext von Kautionsentscheidungen am besten geeignet sind – die gleiche Anwendung der berüchtigter COMPAS-Algorithmus . Die Studie ergab, dass die Umfrageteilnehmer einen Algorithmus mit einer konsistenten Rate an falsch positiven Ergebnissen (wie viele Personen unnötigerweise im Gefängnis während einer Gerichtsverhandlung festgehalten wurden) zwischen zwei ethnischen Gruppen leicht bevorzugten, anstatt einen Algorithmus, der für beide ethnischen Gruppen gleich genau war. Bemerkenswert ist, dass dies die entgegengesetzte Qualität des COMPAS-Algorithmus ist, der in seiner Gesamtgenauigkeit angemessen war, aber zu mehr falsch positiven Ergebnissen für schwarze Angeklagte führte.



Die zweite Kategorie, schreibt Gianchandani, besteht darin zu verstehen, wie ein KI-System ein bestimmtes Ergebnis erzeugt. Die NSF sieht dies in direktem Zusammenhang mit Fairness, da ein Endnutzer mehr Informationen über die Entscheidung einer KI erhält, die ihn befähigt, diese Entscheidung anzufechten. Dies ist ein wichtiger Punkt – KI-Systeme verschleiern standardmäßig die Natur eines Entscheidungsprozesses und erschweren es einer Person, den Prozess abzufragen. Das vielleicht neuartigste Projekt, das von NSF FAI finanziert wird, versucht, die Lebensfähigkeit von zu testen Crowdsourcing-Audits von KI-Systemen . Bei einem Crowdsourcing-Audit können sich viele Personen für ein Tool anmelden – z. B. eine Website oder eine Webbrowser-Erweiterung –, das Daten darüber bündelt, wie diese Personen von einem Online-KI-System behandelt wurden. Durch die Aggregation dieser Daten kann die Crowd feststellen, ob der Algorithmus diskriminierend ist, was für jeden einzelnen Benutzer funktional unmöglich wäre.



Die dritte Kategorie zielt darauf ab, KI zu nutzen, um bestehende Systeme gerechter zu machen, eine besonders wichtige Aufgabe, da Regierungen auf der ganzen Welt weiterhin prüfen, ob und wie KI-Systeme in öffentliche Dienste integriert werden können. Eins Projekt von Forschern der New York University versucht teilweise, die Herausforderung der Fairness anzugehen, wenn ein Algorithmus zur Unterstützung eines menschlichen Entscheidungsträgers verwendet wird. Dies ist vielleicht inspiriert von einem kürzlichen Bewertung von Richtern anhand algorithmischer Risikobewertungen in Virginia, die zu dem Schluss kam, dass der Algorithmus die öffentliche Sicherheit nicht verbessern konnte und die unbeabsichtigte Wirkung hatte, die Inhaftierung junger Angeklagter zu erhöhen. Die NYU-Forscher haben eine ähnliche Herausforderung im Sinn – die Entwicklung eines Instruments, um systemische Vorurteile in staatsanwaltlichen Entscheidungen von Bezirksstaatsanwälten zu erkennen und zu reduzieren.



Die vierte Kategorie ist vielleicht die intuitivste, da sie darauf abzielt, Verzerrungen aus KI-Systemen zu beseitigen oder alternativ sicherzustellen, dass KI-Systeme für alle gleich gut funktionieren. Ein Projekt zielt darauf ab, gemeinsame Bewertungsmetriken für die KI zur Verarbeitung natürlicher Sprache zu erstellen, damit ihre Wirksamkeit übergreifend verglichen werden kann viele verschiedene Sprachen , um einen kurzsichtigen Fokus auf Englisch zu überwinden. Andere Projekte beschäftigen sich mit Fairness in weniger untersuchten Methoden, wie zum Beispiel Netzwerkalgorithmen , und noch mehr versuchen, sich in bestimmten Anwendungen zu verbessern, wie z medizinische Software und algorithmische Einstellung . Diese letzten beiden sind besonders bemerkenswert, da die vorherrschende öffentliche Evidenz darauf hindeutet, dass algorithmische Verzerrungen in Gesundheitsversorgung und Einstellung ist weit verbreitet.

Die Kompromisse der Unternehmenspartnerschaft

Kritiker mögen bedauern, dass Big Tech, das eine Rolle spielt, herausragende Rolle in der KI-Forschung , ist sogar in diesem Bundesprogramm präsent – ​​Amazon unterstützt die NSF, sodass jede Organisation rund 10 Millionen US-Dollar zahlt. Es gibt jedoch keinen Grund zu der Annahme, dass die Unabhängigkeit der NSF gefährdet ist. Amazon spielt bei der Auswahl der Stipendienanträge keine Rolle und keiner der kontaktierten Stipendiaten hatte Bedenken hinsichtlich des Stipendienauswahlverfahrens. NSF-Beamte stellten auch fest, dass jede Zusammenarbeit mit Amazon (wie der Erhalt von technischer Unterstützung) völlig optional ist. Natürlich ist es eine Überlegung wert, was Amazon von dieser Partnerschaft zu gewinnen hat. Lesen der FAI-Ankündigung hebt hervor, dass das Programm zu vertrauenswürdigen KI-Systemen beitragen soll, die gerne akzeptiert werden, und dass Projekte eine breitere Akzeptanz von KI-Systemen ermöglichen. Es ist kein Geheimnis, dass die aktuelle Generation großer Technologieunternehmen enorm von einem erhöhten Vertrauen der Öffentlichkeit in KI profitieren würde. Dennoch ist die Finanzierung durch Unternehmen für wirklich unabhängige Forschung gut und unbedenklich – insbesondere im Vergleich zu anderen Optionen wie Unternehmen direkt finanzieren wissenschaftliche Forschung.



Über den Finanzierungsbeitrag hinaus können sich aus der Partnerschaft weitere gesellschaftliche Vorteile ergeben. Zum einen könnten Amazon und andere Technologieunternehmen den Ergebnissen der Recherche mehr Aufmerksamkeit schenken. Für ein Unternehmen wie Amazon könnte dies bedeuten, dass die Ergebnisse in seine eigenen Algorithmen oder in die KI-Systeme integriert werden, die es über Amazon Web Services (AWS) verkauft. Die Einführung in AWS Cloud-Dienste kann besonders wirkungsvoll sein, da viele Tausend Datenwissenschaftler und Unternehmen diese Dienste für KI verwenden. Nur als Beispiel war Professor Sandra Wachter vom Oxford Internet Institute begeistert das lernen Metrik der Fairness sie und Co-Autoren, für die sie sich eingesetzt hatten, wurden in eine AWS-Cloud-Service , was es für Data-Science-Praktiker viel leichter zugänglich macht. Im Allgemeinen ist es wahrscheinlicher, dass Data Scientists diese Tools untersuchen und verwenden, wenn ein erweiterter Satz benutzerfreundlicher Funktionen für die KI-Fairness vorhanden ist.



Der Wert von FAI

In seiner Gesamtheit ist FAI ein kleines, aber feines Forschungsunternehmen. Die unzähligen Herausforderungen der KI werden alle durch mehr Wissen und verantwortungsvollere Methoden verbessert, die durch diese unabhängige Forschung angetrieben werden. Die KI-Forschung wird zwar enorm von Unternehmen gefördert, ist jedoch weder unabhängig noch primär auf Fairness ausgerichtet und kann einige FAI-Themen (z. B. Fairness bei der staatlichen Nutzung von KI) vollständig ausschließen. Während dies das letzte Jahr des FAI-Programms ist, betonte einer der Programmdirektoren von NSF FAI, Dr. Todd Leen, als er für diesen Artikel kontaktiert wurde, dass die NSF diese wichtigen Forschungsfragen nicht hinter sich lässt und dass die Mission der FAI darin verankert sein wird der Generaldirektion Informatik. Diese Absorption kann mit kleineren Nachteilen verbunden sein – zum Beispiel das Fehlen einer klar definierten Haushaltslinie und keine konsolidierte Berichterstattung über die geförderten Forschungsprojekte. Die NSF sollte erwägen, diese Investitionen zu verfolgen und der Forschungsgemeinschaft klar zu kommunizieren, dass KI-Fairness eine ständige Priorität der NSF ist.

Die Biden-Administration könnte auch gezielt zusätzliche NSF-Mittel für Fairness und KI beantragen. Ausnahmsweise wäre diese Finanzierung nicht schwer an die politischen Entscheidungsträger zu verkaufen. Der Kongress finanzierte 2021 die Gesamtheit des Budgetantrags der NSF in Höhe von 868 Millionen US-Dollar für KI, und Präsident Biden hat klares Interesse an einer Ausweitung der Wissenschaftsförderung signalisiert; sein vorgeschlagenes Budget fordert ein 20-prozentiger Anstieg der NSF Finanzmittel für das Haushaltsjahr 2022, und die Verwaltung hat eine Nationale Taskforce für KI-Forschung Co-Vorsitzende von keinem Geringeren als Dr. Erwin Gianchandani. Bei all diesem Interesse ist es klar möglich und sicherlich lohnenswert, 5 bis 10 Millionen Dollar pro Jahr explizit für die Förderung der Fairness in der KI zu bookmarken.