Social-Media-Unternehmen brauchen bessere Notfallprotokolle

Online-Vitriol, insbesondere in den Händen weithin bekannter, einflussreicher und gut ausgestatteter Politiker und Regierungen, kann schwerwiegende – und sogar tödliche – Folgen haben. Am 6. Januar 2020 twitterte Präsident Trump falsche Behauptungen über Wahlbetrug und scheinbar gerechtfertigte Gewaltanwendung als seine Anhänger das US-Kapitol stürmten. Obwohl eine persönliche Rede schien am direktesten auszulösen der Gewalt spielte Trumps Social-Media-Präsenz eine große Rolle bei den Aktionen des Mobs. Wochenlang, nachdem er die Wahlen 2020 verloren hatte, twitterte Präsident Trump falsche Behauptungen über Wahlbetrug und ermutigte seine Unterstützer, steigen am 6. Januar in Washington, D.C , sich weigern nimm es noch, und stark sein. Am Tag des Angriffs folgte einem Tweet, dass Vizepräsident Mike Pence nicht den Mut hatte, das zu tun, was hätte tun sollen: Botschaften von Trumps Unterstützern auf der Social-Networking-Plattform Gab forderte die Mitglieder des Kapitols auf, den Vizepräsidenten zu finden, sowie persönliche Gesänge von Wo ist Pence? Im Vorfeld und während des Gewaltausbruchs halfen verschiedene Social-Media-Plattformen dem Mob, sich am richtigen Ort und zur richtigen Zeit zu versammeln, seine Aktionen zu koordinieren und Anweisungen vom Präsidenten und untereinander zu erhalten.





Wie wir argumentierten in einem aktuellen Artikel Für die Zeitschrift Survival ist der Missbrauch sozialer Medien nicht auf terroristische Gruppen wie den Islamischen Staat beschränkt. Social-Media-Unternehmen sollten auch Notfallprotokolle entwickeln, um der Ausbeutung durch bösartige Agenten und Staaten entgegenzuwirken, die versuchen, Gewalt zu schüren.



Ein weltweites Problem

So entsetzlich der Angriff auf das Kapitol auch war, Trumps Missbrauch der sozialen Medien ist kein Einzelfall. Im Jahr 2020 veröffentlichten Politiker der indischen Bharatiya Janata Party (BJP) vor dem Hintergrund bestehender religiöser Spannungen und der Geschichte kommunaler Gewalt brisante Inhalte über Muslime, einige sogar mit Gewalt der Bürgerwehr gedroht . Mindestens vier Beamte behielten ihre Facebook-Konten trotz potenzieller Verstöße gegen die Hassredenregeln der Plattform, wobei nur wenige Posts entfernt wurden, nachdem das Wall Street Journal nach ihnen gefragt hatte. Das Content-Moderations-Team von Facebook unternahm keine Maßnahmen gegen die Behauptungen von Politikern, Muslime hätten das Coronavirus absichtlich verbreitet, und während das Video des ehemaligen BJP-Gesetzesgebers Kapil Mishra, das Vigilantengewalt drohte, schließlich entfernt wurde, kam es kurz nach dem Hochladen zu Unruhen und Tötungen, die Muslime unverhältnismäßig stark betrafen.



Böswillige staatliche Akteure setzen seit langem Kommunikationstechnologie ein, um gewalttätige oder hasserfüllte Ziele zu erreichen. Während des Völkermords in Ruanda z Listen Sie die Namen, Adressen und sogar Nummernschilder auf von denen, die sie töten wollten. Heute können Staatsoberhäupter Social-Media-Plattformen auf vielfältige Weise nutzen, von expliziten Aufrufen zu Gewalt bis hin zu Inhalten, die heimtückisch zu Hass aufrufen, um Spannungen zu verschärfen und zu Gewalt aufzustacheln.



wo leben königinnen

Neue Risiken und Chancen für Unternehmen

Obwohl die Ausnutzung der Kommunikationstechnologie durch Staaten nicht neu ist, bergen soziale Medien neue Gefahren und Risiken. Angesichts der Reichweite von Plattformen können Staaten einen großen Einfluss auf ihre Bevölkerung haben, wenn sie die Erzählung auf beliebten Plattformen wie Facebook und Twitter dominieren. Darüber hinaus ermöglichen soziale Medien Echokammern, in denen Feeds auf der Grundlage von Benutzerdaten personalisiert werden und die bereits bestehenden Ansichten der Benutzer verstärkt (möglicherweise bis hin zu Aktionen) statt in Frage gestellt werden. Schließlich haben die meisten Social-Media-Plattformen keine Gatekeeper und es fehlt ihnen die redaktionelle Rolle von Zeitungen oder Fernsehsendungen, obwohl sie normalerweise Mindeststandards für die Gemeinschaft haben. Es gibt normalerweise wenig Rechenschaftspflicht, und eine kleine Anzahl von Einzelpersonen oder staatlich beauftragten Trollfarmen kann eine bestimmte Botschaft verstärken und Randmeinungen mehr Mainstream erscheinen lassen. Weit verbreitete Politiker wie Präsident Trump selbst können mit großen Teilen der Bevölkerung direkt kommunizieren. Durch die wiederholte Exposition gegenüber einem Gerücht, das seine Glaubwürdigkeit und die Wahrscheinlichkeit, zurückgerufen zu werden, stärkt, werden Gerüchte in den sozialen Medien äußerst mächtig.



Königin Elisabeth 1 Krönungsporträt

Gleichzeitig bietet das Fehlen von Gatekeepern und die Dominanz der Informationsumgebung eine neue Chance. Soziale Medien können Alternativen zu einer hasserfüllten, von der Regierung kontrollierten Erzählung in traditionellen Medien bieten, Gemeinschaften in Krisen verbinden und Informationen für Mitglieder der Zivilgesellschaft, ausländische Regierungen und andere betroffene Akteure bereitstellen. Daher müssen Social-Media-Unternehmen ihre einzigartige Macht in Bezug auf Staaten anerkennen und gegen potenzielle Gewalt vorgehen.



Einfädeln der Nadel

Obwohl immer noch unvollkommen, haben Social-Media-Unternehmen Fortschritte bei der Bekämpfung der schändlichen Online-Aktivitäten von Dschihadisten und anderen gewalttätigen substaatlichen Gruppen gemacht. Wenn es um die Moderation staatlicher Inhalte geht, haben sich Social-Media-Unternehmen jedoch mit kniffligeren Fragen auseinandergesetzt, wie sie ihr Endergebnis beibehalten, technologische Tools akkurat anwenden und ihren behaupteten Idealen der freien Meinungsäußerung folgen können, während sie diese mächtigen Akteure kreuzen. Auch im Fall von Trump und BJP werden sie demokratisch gewählt, was ihnen Legitimität verleiht und die Frage aufwirft, ob Social-Media-Unternehmensstandards wichtiger sind als Wahlen, um zu bestimmen, wer das Recht auf privilegierten Zugang zu diesen wichtigen Plattformen hat.

Verschiedene Social-Media-Giganten haben diese unterschiedlichen Motivationen und Bedenken auf unterschiedliche Weise ausgeglichen. Twitter und Facebook zum Beispiel reagierten unterschiedlich auf Trumps Aufstachelung zur Gewalt am 6. Januar ebenso gut wie Antimuslimische Rhetorik der BJP-Politiker . Diese unterschiedlichen Richtlinien legen die Schwierigkeit nahe, die zugrunde liegende Frage zu beantworten: Wie können und sollten Social-Media-Unternehmen mit Politikern und Regierungen umgehen, die online Hass schüren?



Obwohl Facebook und andere Unternehmen erhebliche Ressourcen für das Problem von schlechten Inhalten bereitgestellt haben, können technische Tools und verfügbare menschliche Moderatoren das Problem oft nicht lösen. Menschen sind notwendig, um technologische Werkzeuge zu trainieren und zu verfeinern, mit Appellen umzugehen und nuancierte Inhalte zu behandeln, die das Verständnis des sozialen, kulturellen und politischen Kontexts erfordern. Beispielsweise führte die Zunahme der automatisierten Inhaltsmoderation während der COVID-19-Pandemie dazu, dass wichtige Informationen – wie die Facebook-Posts des syrischen Journalisten Mohammed Asakra, die die Ungerechtigkeit im Land dokumentieren und diese mit anderen Aktivisten teilen – entfernt wurden. Selbst in Myanmar, das nach den dortigen Social-Media-orchestrierten Massenmorden 2018 ein Brennpunkt war, können Human-Content-Moderatoren oft nicht im Land selbst leben und sind mit mehreren Ländern auf ihren Profilen belastet.



Edward Tudor Elizabeth von York

Abgesehen von diesen Ressourcenbeschränkungen kann es den kommerziellen Interessen von Social-Media-Unternehmen schaden, Regierungen zu trotzen oder gegen sie vorzugehen. Um Zugang zu wichtigen Märkten zu erhalten, sind Social-Media-Unternehmen auf staatliche Genehmigungen, Lizenzen und ein günstiges regulatorisches Umfeld angewiesen. Social-Media-Unternehmen sind daher möglicherweise eher bereit, sich dem Willen einer Regierung zu beugen und Gegenreaktionen zu verhindern.

Angesichts dieser Schwierigkeiten kann eine einfachere Lösung darin bestehen, bei der Inhaltsmoderation einen unverblümten Ansatz zu wählen, indem bestimmte Inhalte unzugänglich gemacht oder der Zugang zu Plattformen weitgehend eingeschränkt wird. Übermäßige Beschränkungen können jedoch ebenso verheerende Folgen haben. Repressive Regime schließen das Internet oft im Namen der Sicherheit und nutzen das Schweigen, um Andersdenkenden oder Minderheiten zu schaden. Darüber hinaus kann die Einschränkung von Inhalten, insbesondere von Regierungsinhalten, im Widerspruch zu den angeblichen Prinzipien der US-amerikanischen Technologieunternehmen stehen. Viele Unternehmen behaupten, sich der Meinungsfreiheit für alle ihre Nutzer verpflichtet zu haben und sehen sich nicht als Schiedsrichter über angemessene oder unangemessene Inhalte. Diese Urteile zu fällen, versetzt Social-Media-Unternehmen in eine Rolle, die sie nicht einnehmen sollten und wollen. Doch angesichts der Macht, die diese Plattformen bieten, müssen Social-Media-Unternehmen Wege finden, sich auf diese Rolle vorzubereiten und eine Eskalation der Spannungen in einer Krise zu verhindern.



Um unterschiedliche Verpflichtungen auszugleichen und angemessen auf staatlich unterstützten Hass im Internet zu reagieren, müssen Social-Media-Unternehmen in der Lage sein, unterschiedliche Situationen zu bewerten und bei Bedarf Notfallprotokolle zu implementieren. Hassreden und grenzwertige Inhalte werden am gefährlichsten, wenn die Spannungen in einer Gesellschaft bereits hoch sind. Unternehmen können anhand von Indikatoren von Wissenschaftlern und Institutionen erkennen, dass ein Notfall nahe bevorstehen könnte. Intern kann eine Zunahme gefährlicher Inhalte, die von Systemen der künstlichen Intelligenz oder menschlichen Analysten erkannt werden, eine verstärkte Überprüfung auslösen. Darüber hinaus müssen Unternehmen erkennen, wann ein Notfall vorbei ist, um sicherzustellen, dass die Beschränkungen der sozialen Medien keine unnötigen Belastungen darstellen. Vorübergehende Siege, etwa mehrere Tage ohne Gewalt, oder die Ankündigung größerer Ereignisse wie Friedensverhandlungen oder die Rückkehr von Flüchtlingen könnten ein Ende der Krise anzeigen. Sobald dies festgelegt ist, müssen Unternehmen entscheiden, welche Maßnahmen während dieser Notzeiten zu ergreifen sind.



Unternehmen stehen eine Fülle von Instrumenten zur Verfügung, um die Verbreitung gefährlicher Inhalte im Krisenfall einzudämmen. Plattformen können Warnhinweise auf kontroverse Posts anbringen, um Benutzer dazu zu bringen, den Inhalt sofort zu hinterfragen und zusätzliche Informationen zu suchen. Twitter hat ein solches Label in Bezug auf Trump verwendet, als die Plünderungen beginnen, die Schießerei beginnt während der Proteste gegen Black Lives Matter 2020 zu twittern. Social-Media-Unternehmen können auch bestehende Bemühungen verstärken, die Sichtbarkeit gefährlicher Inhalte in einer Krisensituation einzuschränken. Facebook stuft als falsch identifizierte Beiträge bereits ab, YouTube und Facebook wenden strengere Richtlinien an, wenn sie entscheiden, ob Inhalte empfohlen werden oder nicht, und Twitter behauptet, Trendthemen zu entfernen, wenn dies der Fall ist irreführend oder störend für die öffentliche Konversation . Fragwürdige Beiträge werden manchmal in einen eingeschränkten Zustand mit Kommentaren, Likes, Teilen, Weiterleiten und Monetarisierung durch deaktivierte oder eingeschränkte Anzeigen versetzt. Diese Bemühungen sollten in Krisenzeiten verstärkt und vorübergehend auf grenzwertigere Inhalte ausgeweitet werden. Auf dem Höhepunkt einer Krise könnten Unternehmen diese eingeschränkte Staatsregel sogar auf Posts anwenden, die bestimmte Keywords enthalten.

Darüber hinaus sollten mehr Ressourcen bereitgestellt werden, um grenzwertige Inhalte von der Plattform zu entfernen und gefährliche Konten in Krisensituationen zu sperren. Sowohl Twitter als auch Facebook, die seit langem die Idee abonniert hatten, die Inhalte von Persönlichkeiten des öffentlichen Lebens zu pflegen im Namen des öffentlichen Interesses , erkannte die Gefahr, diesen Inhalt aufrechtzuerhalten, als die Proteste vom 6. Januar in Washington, D.C., überkochten. Twitter markierte Trumps aufrührerische Tweets zunächst mit Warnungen, sperrte den Präsidenten dann vorübergehend aus seinem Konto, bevor es schließlich endgültig gesperrt wurde. Facebook hat inzwischen Trumps Konto gesperrt zumindest bis zum designierten Präsidenten Joe Biden Amtseinführung . Offenbar erkannten Social-Media-Unternehmen, dass die Entfernung von Tätern an der Quelle letztendlich die öffentliche Sicherheit schützen kann, und senkten die früheren Bestimmungen zur Sperrung von Konten und zum Löschen von Posts für Konten, die eine Vorzugsbehandlung erhielten. Die Senkung dieser Schwellenwerte für regelmäßige Konten, die in einer Krise Gerüchte weitergeben, kann die Verbreitung aufhetzender Rhetorik ähnlich verlangsamen.



Gleichzeitig können soziale Medien auch notwendige Informationen von unpolitischen Außenposten der Regierung, der Zivilgesellschaft, Ersthelfern und Angehörigen bereitstellen. Positive Inhalte sollten daher hervorgehoben werden. Durch Partnerschaften mit lokalen Organisationen der Zivilgesellschaft und renommierten internationalen Organisationen sollten vertrauenswürdige Quellen identifiziert und in Newsfeeds hervorgehoben werden. Unternehmen können dem Modell von YouTube folgen, indem sie oben auf der Startseite einen Tab mit Top-Nachrichten oder Eilmeldungen erstellen, der die Sammlung dieser Quellen leicht zugänglich macht. In bestimmten Situationen könnten Unternehmen sogar bestimmte Quellen auf die Whitelist setzen und den Zugriff auf diese vorab genehmigten Quellen gestatten, während der Zugriff auf andere verhindert wird.



Die Beschränkung von Inhalten in sozialen Medien, insbesondere von staatlichen Inhalten, birgt Risiken für die Opfer einer Krise sowie für die Unternehmen selbst. Die Stärke und Dauer der unternommenen Schritte müssen sorgfältig bewertet werden, wenn die Leistung und der Zweck einer Plattform geändert werden. Dennoch sind die Risiken der Untätigkeit größer. Obwohl die hier vorgestellten Maßnahmen die zugrunde liegenden Risse in den Gesellschaften nicht lösen können, können sie die starken Auswirkungen der Nutzung sozialer Medien zur Verbreitung von Hass und Gewalt verringern.

Henry König von England