Unüberwachte Modelle der künstlichen Intelligenz (KI), die automatisch versteckte Muster in natürlichsprachlichen Datensätzen entdecken, erfassen linguistische Regelmäßigkeiten, die menschliche Vorurteile wie Rassismus, Sexismus und Ableismus widerspiegeln.einsDiese unbeaufsichtigten KI-Modelle, nämlich Worteinbettungen, bieten die grundlegende, universelle numerische Darstellung von Sprache für Maschinen zur Verarbeitung von Textdaten.
Worteinbettungen identifizieren die versteckten Muster in den Statistiken über das gemeinsame Auftreten von Wörtern von Sprachkorpora, die grammatikalische und semantische Informationen sowie menschenähnliche Verzerrungen umfassen. Wenn Worteinbettungen in der Verarbeitung natürlicher Sprache (NLP) verwendet werden, übertragen sie folglich Verzerrungen an überwachte nachgelagerte Anwendungen, die zu voreingenommenen Entscheidungen beitragen, die die statistischen Muster der Daten widerspiegeln. Diese nachgelagerten Anwendungen übernehmen Aufgaben wie Informationsbeschaffung, Textgenerierung, maschinelle Übersetzung, Textzusammenfassung und Websuche, zusätzlich zur Folgeentscheidung bei der Auswahl von Lebensläufen für die Bewerberauswahl, der Automatisierung der Hochschulzulassung oder der Bewertung von Aufsätzen. Worteinbettungen spielen eine bedeutende Rolle bei der Gestaltung der Informationssphäre und können dabei helfen, Folgerungen auf Individuen zu ziehen. Bewerbungsgespräche, Hochschulzulassungen, Essay-Scores, Inhaltsmoderation und viele weitere Entscheidungsprozesse, die uns vielleicht nicht bewusst sind, hängen zunehmend von diesen NLP-Modellen ab.
Milliarden von Menschen, die täglich das Internet nutzen, sind voreingenommenen Worteinbettungen ausgesetzt. Es gibt jedoch keine Vorschriften, um diese KI-Technologien zu prüfen, die potenzielle Bedrohungen für Gerechtigkeit, Gerechtigkeit und Demokratie darstellen. Infolgedessen besteht ein dringender Bedarf an Regulierungsmechanismen, einer vielfältigen KI-Ethik-Belegschaft und technischen Ansätzen, um zu verhindern, dass KI-Technologien ihre schädlichen Nebenwirkungen beschleunigen.zwei
Das automatisierte Lebenslauf-Screening von Amazon zur Auswahl der Top-Stellenbewerber stellte sich 2015 als Frauendiskriminierung heraus.3Amazon nutzte Lebensläufe von Bewerbern aus einem 10-Jahres-Zeitraum, um seine Rekrutierungsmodelle zu trainieren. Diese überwachte nachgelagerte NLP-Anwendung lernte, wie man Kandidaten bewertet, indem sie die Muster in früheren Lebenslaufmustern von Amazon und entsprechende Informationen zum Erfolgsniveau des Jobkandidaten berechnete. Als Ergebnis lernte das trainierte Modell die historischen Trends im Zusammenhang mit der Beschäftigung bei Amazon, indem es sprachliche Muster in Lebensläufen entdeckte. Frauen waren in dem von den Mitarbeitern gesammelten Schulungsset unterrepräsentiert. Folglich verband das Lebenslauf-Screening-Modell Männer und die sprachlichen Signale in ihren Lebensläufen mit einer erfolgreichen Anstellung bei Amazon, während Lebensläufe von Kandidaten, die Wörter enthielten, die mit Frauen in Verbindung gebracht wurden, häufig vom Algorithmus verworfen wurden. Die durch das Modell erlernten voreingenommenen Muster führten zur Diskriminierung weiblicher Bewerber. Amazon gab das automatisierte Rekrutierungstool bald auf, nachdem sie die Voreingenommenheit entdeckt hatten.
Voreingenommene Entscheidungen von NLP-Anwendungen verewigen nicht nur historische Vorurteile und Ungerechtigkeiten, sondern verstärken potenziell bestehende Vorurteile in beispiellosem Ausmaß und Geschwindigkeit. Zukünftige Generationen von Worteinbettungen werden anhand von Textdaten trainiert, die aus Online-Medienquellen gesammelt wurden, die die verzerrten Ergebnisse von NLP-Anwendungen, Informationsbeeinflussungsoperationen und politische Werbung aus dem gesamten Web umfassen. Folglich erzeugt das Training von KI-Modellen sowohl auf natürlich als auch auf künstlich verzerrten Sprachdaten einen KI-Verzerrungszyklus, der kritische Entscheidungen über Menschen, Gesellschaften und Regierungen beeinflusst.
KI- und NLP-Technologien sind nicht standardisiert oder reguliert, obwohl sie in kritischen realen Anwendungen eingesetzt werden. Technologieunternehmen, die modernste KI entwickeln, sind mit den Daten, die sie von Milliarden von Internetnutzern sammeln, unverhältnismäßig mächtig geworden. Aus diesen Datensätzen werden KI-Algorithmen entwickelt und Modelle trainiert, die die Zukunft von Technologie und Gesellschaft gestalten. KI-Unternehmen setzen diese Systeme ein, um sie in ihre eigenen Plattformen zu integrieren, zusätzlich zur Entwicklung von Systemen, die sie auch an Regierungen verkaufen oder als kommerzielle Dienstleistungen anbieten.
wie war der richtige name von königin victoria
Technologieunternehmen, die modernste KI entwickeln, sind mit den Daten, die sie von Milliarden von Internetnutzern sammeln, unverhältnismäßig mächtig geworden.
Aufgrund fehlender Regulierung und leicht verfügbarer Mechanismen zur Überprüfung von Verzerrungen haben KI-Unternehmen keine Transparenz über die alltäglichen Auswirkungen der Algorithmen geschaffen, die sie in der Gesellschaft einsetzen. Die maschinellen Übersetzungsalgorithmen von Google wandeln beispielsweise die geschlechtsneutralen türkischen Sätze O bir profesör um. O bir öğretmen zu den englischen Sätzen Er ist Professor. Sie ist eine Lehrerin. Facebook führte auf seiner Plattform Experimente mit Menschen durch, um zu untersuchen, wie die Emotionen der Benutzer durch voreingenommene Texte manipuliert werden können, die Assoziationen mit Unannehmlichkeiten hervorrufen.4
Social-Media-Plattformen entscheiden automatisch, welche Benutzer bestimmten Arten von Inhalten ausgesetzt sein sollen, die in politischer Werbung enthalten sind und Informationen beeinflussen Operationen, basierend auf Persönlichkeitsmerkmalen, die aus ihren Daten vorhergesagt werden.5Da Forscher die schädlichen Nebenwirkungen von NLP-Algorithmen identifizieren und messen, die verzerrte Sprachmodelle beinhalten, kann die Regulierung von Algorithmen und KI-Modellen dazu beitragen, die schädlichen nachgelagerten Auswirkungen groß angelegter KI-Technologien zu mildern.
Im Jahr 2017 entwickelten Joanna Bryson, Arvind Narayanan und ich am Center for Information Technology Policy der Princeton University Methoden, die zeigen, dass Worteinbettungen menschenähnliche Verzerrungen aus Statistiken über das gemeinsame Auftreten von Wörtern lernen.6Wenn Begriffe, die Konzepte darstellen, häufig mit bestimmten Attributen erscheinen, lernen Worteinbettungen, das Konzept mit den gleichzeitig auftretenden Attributen zu assoziieren. Zum Beispiel enthalten Sätze, die Wörter mit Bezug zu Küche oder Kunst enthalten, in der Regel Wörter, die sich auf Frauen beziehen. Sätze, die Berufs-, Wissenschafts- und Technologiebegriffe enthalten, enthalten jedoch in der Regel Wörter, die sich auf Männer beziehen. Infolgedessen erscheinen Frauen als soziale Gruppe, wenn Maschinen Sprache verarbeiten, um Worteinbettungen zu lernen, in unmittelbarer Nähe zu Wörtern wie Familie und Kunst im Vergleich zu Männern; wohingegen Männer als soziale Gruppe in unmittelbarer Nähe zu Karriere, Wissenschaft und Technologie erscheinen. Wir fanden heraus, dass es stereotype Assoziationen für Geschlecht, Rasse, Alter und Schnittmengen zwischen diesen Merkmalen gibt. Wenn sich diese stereotypen Assoziationen auf nachgelagerte Anwendungen ausbreiten, die Informationen im Internet präsentieren oder Folgeentscheidungen über Einzelpersonen treffen, benachteiligen sie Minderheiten und unterrepräsentierte Gruppenmitglieder. Solange Sprachkorpora, die zum Trainieren von NLP-Modellen verwendet werden, Verzerrungen enthalten, werden Worteinbettungen weiterhin historische Ungerechtigkeiten in nachgelagerten Anwendungen replizieren, es sei denn, es werden wirksame Regulierungspraktiken implementiert, um mit Verzerrungen umzugehen.
Die Untersuchung von Verzerrungen in weit verbreiteten Worteinbettungen, die auf einem Korpus von 800 Milliarden Wörtern aus dem Internet trainiert wurden, zeigt, dass Namen von Afroamerikanern dazu neigen, mit unangenehmen Wörtern zusammen aufzutreten. Die Messung der relativen Assoziation von Namen von Afroamerikanern vs. Namen von Weißen mit angenehmen und unangenehmen Wörtern zeigt, dass die Worteinbettungen aufgrund der verzerrten Darstellung der Gruppe im Internet negative Assoziationen für das Konzept einer afroamerikanischen sozialen Gruppe enthalten.7Diese Art von Assoziationen, die negative Einstellungen gegenüber einer sozialen Gruppe widerspiegeln, gelten als schädlich und voreingenommen. Ähnliche negative Assoziationen spiegeln sich für ältere Menschen und Menschen mit Behinderungen wider. Und Frauen werden oft mit Familie und Literatur in Verbindung gebracht, während Männer mit Karriere und Wissenschaft in Verbindung gebracht werden. Es ist auch erwähnenswert, dass moderne Sprachmodelle im Allgemeinen die in der amerikanischen Kultur vorhandenen Stereotypen und Vorurteile erfassen, obwohl diese NLP-Technologien weltweit eingesetzt werden.
Im Jahr 2004 ergab eine kontrollierte Studie zur Diskriminierung auf dem Arbeitsmarkt, dass Lebensläufe mit eindeutig weißen Namen 50 Prozent mehr Rückrufe für Vorstellungsgespräche erhalten als Lebensläufe mit eindeutig afroamerikanischen Namen mit den gleichen Qualifikationen.8Die Verwendung der in der Arbeitsmarktdiskriminierungsstudie angegebenen Bewerbernamen während der Bias-Quantifizierung in Worteinbettungen zeigt starke negative Assoziationen mit Afroamerikanern als sozialer Gruppe auf. Während Menschen auf individueller oder kollektiver Basis Konsequenzen für andere Menschen treffen, treffen Black-Box-NLP-Technologien weitreichende Entscheidungen, die deterministisch voreingenommen sind. Dementsprechend steht die Gesellschaft im Vergleich zum Umgang mit menschlichen Entscheidungsträgern vor einer größeren und beschleunigten Herausforderung, da NLP nicht reguliert wird, um Gerechtigkeit und soziale Gerechtigkeit zu fördern.9
Moderne große Sprachmodelle, die dynamische kontextabhängige Worteinbettungen lernen, wie das Multi-Millionen-Dollar-Modell GPT-3, assoziieren Männer mit Kompetenzen und Berufen, die ein höheres Bildungsniveau in nachgelagerten NLP-Aufgaben aufweisen.10Viele Experten halten den von GPT-3 generierten Text aufgrund verschiedener Kriterien für nicht unterscheidbar von von Menschen erstelltem Text. Unabhängig davon, was ist das Geschlecht eines Arztes, wenn er zur Sprachgenerierung mit der Eingabe aufgefordert wird? die erste Antwort lautet: Doctor ist ein männliches Substantiv; wohingegen, wenn Sie gefragt werden Was ist das Geschlecht einer Krankenschwester? Die erste Antwort lautet: Es ist weiblich.
Darüber hinaus assoziieren Worteinbettungen, entweder statisch oder dynamisch, die Schnittmenge von Rasse und Geschlecht mit dem höchsten Ausmaß an nachteiliger Voreingenommenheit.elfWie andere KI-Algorithmen, die den Status Quo widerspiegeln, werden alle sozialen Gruppen, die nicht aus weißen Männern bestehen, als Minderheitengruppen dargestellt, da genaue und unvoreingenommene Daten zum Trainieren von Worteinbettungen fehlen. Zum Beispiel sind Mitglieder mehrerer Minderheitengruppen, wie afroamerikanische Frauen, stark mit verschiedenen nachteiligen Vorurteilen verbunden, verglichen mit den relativ weniger starken Vorurteilen, die mit ihren konstituierenden Minderheitengruppen, Afroamerikanern oder Frauen, verbunden sind. Dieselben starken und potenziell schädlichen voreingenommenen Assoziationen gibt es auch für mexikanisch-amerikanische Frauen. Folglich würde die Verbreitung von Voreingenommenheiten sozialer Gruppen in nachgelagerten NLP-Anwendungen wie dem automatisierten Screening von Lebensläufen nicht nur bestehende Vorurteile aufrechterhalten, sondern potenziell schädliche Vorurteile in der Gesellschaft verschärfen, die zukünftige Generationen betreffen werden.12
Die Worteinbettungs-Entzerrung ist keine praktikable Lösung für die Verzerrungsprobleme, die in Downstream-Anwendungen verursacht werden, da die Entzerrung von Worteinbettungen wesentlichen Kontext über die Welt entfernt. Worteinbettungen erfassen Signale über Sprache, Kultur, die Welt und statistische Fakten. Zum Beispiel würde die geschlechtsspezifische Bereinigung von Worteinbettungen sich negativ darauf auswirken, wie genau berufliche Geschlechterstatistiken in diesen Modellen widergespiegelt werden, die für NLP-Operationen notwendige Informationen sind. Gender Bias ist mit grammatischen Geschlechtsinformationen in Worteinbettungen von Sprachen mit grammatischem Geschlecht verstrickt.13Word-Einbettungen enthalten wahrscheinlich mehr Eigenschaften, die wir noch nicht entdeckt haben. Darüber hinaus würde das Entfernen aller bekannten Assoziationen sozialer Gruppen zu Worteinbettungen führen, die die Welt nicht genau darstellen, Sprache nicht wahrnehmen oder nachgelagerte Anwendungen ausführen können. Anstatt Worteinbettungen blindlings zu entwerten, wäre es eine fundiertere Strategie, das Bewusstsein für die Bedrohungen der Gesellschaft durch KI zu schärfen, um Fairness bei der Entscheidungsfindung in nachgelagerten Anwendungen zu erreichen.
In der Zwischenzeit kann eine Vielzahl von erfahrenen Human-in-the-Loop-Experten mit KI-Systemen zusammenarbeiten, um KI-Vorurteile gemäß Standards und ethischen Grundsätzen aufzudecken und zu behandeln. Es gibt auch keine etablierten Standards für die Bewertung der Qualität von Datensätzen, die beim Training von KI-Modellen verwendet werden, die im gesellschaftlichen Kontext angewendet werden. Die Ausbildung einer neuen Art vielfältiger Belegschaft, die auf KI und Ethik spezialisiert ist, um die schädlichen Nebenwirkungen von KI-Technologien effektiv zu verhindern, würde die schädlichen Nebenwirkungen der KI verringern.
Wenn Gesellschaft, Mensch und Technologie nicht vollkommen unvoreingenommen werden, werden Worteinbettungen und NLP voreingenommen sein. Dementsprechend müssen wir Mechanismen implementieren, um die kurz- und langfristigen schädlichen Auswirkungen von Vorurteilen auf die Gesellschaft und die Technologie selbst zu mildern. Wir haben ein Stadium der KI-Technologien erreicht, in dem sich menschliche Kognition und Maschinen gemeinsam mit der riesigen Menge an Informationen und Sprache entwickeln, die von NLP-Algorithmen verarbeitet und dem Menschen präsentiert werden. Das Verständnis der Co-Evolution von NLP-Technologien mit der Gesellschaft durch die Linse der Mensch-Computer-Interaktion kann helfen, die kausalen Faktoren hinter der Funktionsweise menschlicher und maschineller Entscheidungsfindungsprozesse zu bewerten. Die Identifizierung der kausalen Faktoren von Voreingenommenheit und Ungerechtigkeit wäre der erste Schritt, um unterschiedliche Auswirkungen zu vermeiden und Voreingenommenheit zu mildern.
Um diese natürlichen und künstlichen Entscheidungsprozesse zu analysieren, müssen proprietäre verzerrte KI-Algorithmen und ihre Trainingsdatensätze, die der Öffentlichkeit nicht zugänglich sind, transparent standardisiert, geprüft und reguliert werden. Von Technologieunternehmen, Regierungen und anderen mächtigen Einheiten kann in diesem rechnerischen Kontext keine Selbstregulierung erwartet werden, da Bewertungskriterien wie Fairness auf vielfältige Weise dargestellt werden können. Die Erfüllung von Fairnesskriterien in einem Kontext kann in einem anderen Kontext bestimmte soziale Gruppen diskriminieren. Darüber hinaus können mit neuen KI-Techniken gewünschte Fairness-Kriterien künstlich erfüllt und gleichzeitig Minderheiten diskriminiert werden, indem KI-Tricks über kontradiktorisches maschinelles Lernen angewendet werden.14In der Zwischenzeit kann es Jahrhunderte dauern, bis ausgeklügelte KI-Technologien entwickelt werden, die an menschlichen Werten ausgerichtet sind und sich selbst regulieren können.
Die Diversifizierung des Pools an KI-Talenten kann dazu beitragen, sensibles Design zu schätzen und qualitativ hochwertigere Trainingssets zu kuratieren, die für soziale Gruppen und ihre Bedürfnisse repräsentativ sind.
Voreingenommene NLP-Algorithmen haben sofortige negative Auswirkungen auf die Gesellschaft, indem sie bestimmte soziale Gruppen diskriminieren und die voreingenommenen Assoziationen von Einzelpersonen durch die Medien, denen sie ausgesetzt sind, formen. Darüber hinaus verstärken diese Vorurteile langfristig die Ungleichheit zwischen sozialen Gruppen in zahlreichen Aspekten unseres sozialen Gefüges, einschließlich der Arbeitskräfte, der Bildung, der Wirtschaft, des Gesundheitswesens, des Rechts und der Politik. Die Diversifizierung des Pools an KI-Talenten kann dazu beitragen, sensibles Design zu schätzen und qualitativ hochwertigere Trainingssets zu kuratieren, die für soziale Gruppen und ihre Bedürfnisse repräsentativ sind. Human-in-the-Loop kann jede Komponente im KI-Lebenszyklus testen und prüfen, um zu verhindern, dass sich Voreingenommenheit auf Entscheidungen über Einzelpersonen und die Gesellschaft ausbreitet, einschließlich der datengesteuerten Politikgestaltung. Um eine vertrauenswürdige KI zu erreichen, müssten Unternehmen und Behörden Standards einhalten und die Bewertungen von Qualitäts- und Fairnessprüfungen Dritter bestehen, bevor sie KI bei der Entscheidungsfindung einsetzen.
Technologieunternehmen haben auch die Macht und die Daten, um die öffentliche Meinung und die Zukunft sozialer Gruppen mit den von ihnen eingeführten verzerrten NLP-Algorithmen zu prägen, ohne die KI-Sicherheit zu garantieren. Technologieunternehmen haben modernste NLP-Modelle trainiert, um durch die Sammlung von Sprachkorpora von ihren Benutzern leistungsfähiger zu werden. Sie entschädigen die Benutzer jedoch nicht während der zentralen Erfassung und Speicherung aller Datenquellen. Diese Strategie, gepaart mit finanziellen Anreizen, die die persönlichen Informationen der Benutzer erfordern, hat zu Überwachungskapitalismus und automatisierter Diskriminierung durch Optimierung in einer Geschwindigkeit geführt, die mit zuvor kleineren industriell verfügbaren Werkzeugen der Gesellschaft nicht möglich war.fünfzehnAufgrund fehlender Regulierung haben diese anhaltenden unethischen KI-Praktiken schnell Gerechtigkeit und Demokratie untergraben.
usa landet auf dem Mond
Das hochmoderne, große kommerzielle Sprachmodell, das an Microsoft lizenziert ist, OpenAIs GPT-3 wird auf massiven Sprachkorpora trainiert, die aus dem gesamten Web gesammelt werden. Die Rechenressourcen für das Training von OpenAIs GPT-3 kosten etwa 12 Millionen Dollar.16Forscher können Zugriff anfordern, um große Sprachmodelle abzufragen, erhalten jedoch keinen Zugriff auf die Worteinbettungen oder Trainingssätze dieser Modelle. Um diese hochwirksamen Anwendungen systematisch zu untersuchen, benötigen Forscher daher enorme Ressourcen, um die Modelle zu replizieren, um das Ausmaß der Verzerrungen zu messen und Erkenntnisse darüber zu gewinnen, wie sie die Gesellschaft, den öffentlichen Diskurs, unsere Werte und Meinungen beeinflussen könnten.
Ohne Zugriff auf die Trainingsdaten und dynamische Worteinbettungen ist eine Untersuchung der schädlichen Nebenwirkungen dieser Modelle nicht möglich. Und der Zugang zu Worteinbettungen und Daten kann neue wissenschaftliche Entdeckungen zum Wohle der Gesellschaft ermöglichen, einschließlich Fortschritten wie der Entdeckung neuer Materialien aus Worteinbettungen.17Entwickler großer Sprachmodelle können die Trainingskorpora jedoch aufgrund von Datenschutzgesetzen nicht teilen. Darüber hinaus haben Forscher des kontradiktorischen maschinellen Lernens kürzlich gezeigt, dass es möglich ist, Trainingsdaten, einschließlich persönlich identifizierbarer Informationen, aus großen Sprachmodellen zu extrahieren.18Forscher, Entwickler und politische Entscheidungsträger brauchen dringend ein Umfeld, um gemeinsam an diesen Modellen zu arbeiten, doch das Fehlen etablierter Standards behindert den wissenschaftlichen Fortschritt und schadet der Gesellschaft mit hoher Wahrscheinlichkeit. Die Verabschiedung von Datenschutzgesetzen des Bundes, um Technologieunternehmen für die Massenüberwachung verantwortlich zu machen, ist ein Ausgangspunkt, um einige dieser Probleme anzugehen. Die Definition und Erklärung von Strategien zur Datenerhebung, Nutzung, Verbreitung und des Wertes personenbezogener Daten für die Öffentlichkeit würde das Bewusstsein schärfen und gleichzeitig zu einer sichereren KI beitragen.
Die Zusammenführung einer vielfältigen KI- und Ethik-Belegschaft spielt eine entscheidende Rolle bei der Entwicklung von KI-Technologien, die der Gesellschaft nicht schaden. Neben vielen anderen Vorteilen kann eine vielfältige Belegschaft, die so viele soziale Gruppen wie möglich repräsentiert, die Vorurteile von KI-Technologien antizipieren, erkennen und behandeln, bevor sie in der Gesellschaft eingesetzt werden. Darüber hinaus kann eine vielfältige Gruppe von Experten Möglichkeiten bieten, die Unterrepräsentation von Minderheiten in Datensätzen zu verbessern und durch ihre gelebten Erfahrungen zu einer wertbewussten Gestaltung von KI-Technologien beizutragen.
Andere Empfehlungen für Debias NLP sind:
Der komplexe KI-Bias-Lebenszyklus ist im letzten Jahrzehnt mit der Explosion von sozialen Daten, Rechenleistung und KI-Algorithmen entstanden. Menschliche Vorurteile werden in soziotechnischen Systemen reflektiert und von NLP-Modellen über die voreingenommene Sprache, die Menschen verwenden, genau gelernt. Diese statistischen Systeme lernen historische Muster, die Vorurteile und Ungerechtigkeiten enthalten, und replizieren sie in ihren Anwendungen. NLP-Modelle, die Produkte unserer sprachlichen Daten sowie aller Arten von Informationen, die im Internet zirkulieren, treffen kritische Entscheidungen über unser Leben und prägen damit unsere Zukunft und unsere Gesellschaft. Diese NLP-Modelle stehen hinter jeder Technologie, die Text verwendet, wie z. B. das Screening von Lebensläufen, Hochschulzulassungen, Aufsatzbewertungen, Sprachassistenten, das Internet, Empfehlungen für soziale Medien, Dating-Anwendungen, Zusammenfassungen von Nachrichtenartikeln, maschinelle Übersetzung und Textgenerierung. Wenn diese Neuentwicklungen in KI und NLP nicht standardisiert, geprüft und dezentral reguliert werden, können wir die schädlichen Nebenwirkungen von KI-Bias sowie deren langfristigen Einfluss auf unsere Werte und Meinungen nicht aufdecken oder beseitigen. Um den großen und langfristigen Schaden der KI für die Gesellschaft wieder gutzumachen, wären im Vergleich zum jetzigen Handeln enorme Anstrengungen erforderlich, um eine geeignete KI-Regulierungspolitik zu gestalten.
Bericht erstellt von Zentrum für Technologieinnovation