Wir nehmen Fehlinformationen ernst, Facebook-Chef Mark Zuckerberg schrieb Nur wenige Wochen nach der Wahl 2016. Im Laufe des Jahres ist die Frage, wie dem durch Fake News angerichteten Schaden entgegengewirkt werden kann, sowohl für Technologieunternehmen als auch für Regierungen auf der ganzen Welt zu einem drängenden Thema geworden.
Doch so weit verbreitet das Problem auch ist, Gelegenheiten, Fehlinformationen in Aktion zu sehen, sind ziemlich selten. Die meisten Benutzer, die Fehlinformationen generieren, geben auch keine genauen Informationen weiter, daher kann es schwierig sein, die Auswirkungen von Fehlinformationen selbst herauszufinden. Zum Beispiel, wenn Präsident Trump teilt Fehlinformationen auf Twitter , seine Tweets neigen dazu, viral zu werden. Aber sie werden aufgrund der Fehlinformationen möglicherweise nicht viral: All diese Retweets könnten stattdessen der Popularität von Trumps Konto geschuldet sein oder der Tatsache, dass er über politisch aufgeladene Themen schreibt. Ohne entsprechende akkurate Tweets von Trump kann man nicht wissen, welche Rolle Fehlinformationen spielen.
Für Forscher ist es daher äußerst schwierig, die Wirkung von Fehlinformationen zu isolieren. Es kommt nicht oft vor, dass ein Benutzer sowohl genaue als auch ungenaue Informationen über dasselbe Ereignis und fast gleichzeitig teilt.
Doch kurz nach dem jüngsten Anschlag in Toronto hat ein CBC-Journalist genau das getan. In den chaotischen Folgen des Angriffs Natasha Fatah veröffentlichte zwei konkurrierende Augenzeugenberichte: einen (wie sich herausstellte zu Unrecht) identifizierte den Angreifer als wütend und nahöstlich, und ein anderer identifiziert ihn korrekt als Weiß.
Die Tweets der Fatah sind keineswegs endgültig, aber sie stellen eine Art natürliches Experiment dar. Und die Ergebnisse zeigen, wie schnell Fehlinformationen verbreitet werden können. Wie die folgende Grafik zeigt, erhielt der erste Tweet, der den Angreifer fälschlicherweise als Nahen Osten identifizierte, in den ungefähr fünf Stunden nach dem Angriff weitaus mehr Engagement als der genaue:
Was ist die wahre Überschrift?
Schlimmer noch, der Tweet mit den richtigen Informationen schnitt über einen längeren Zeitraum bis zu 24 Stunden nach dem Angriff nicht viel besser ab:
(Daten und Code für die obigen Grafiken sind hier verfügbar .)
Zusammengenommen deuten die Tweets der Fatah darauf hin, dass Fehlinformationen in den sozialen Medien wirklich ein Problem darstellen. Damit stellen sie sich zwei Fragen: Erstens, warum hat sich der falsche Tweet so viel schneller verbreitet als der richtige? Und zweitens, was kann getan werden, um eine ähnliche Verbreitung von Fehlinformationen in Zukunft zu verhindern?
wie oft gibt es eine sonnenfinsternis
Für den größten Teil der Twitter-Geschichte war der Newsfeed unkompliziert: Die App zeigte Tweets in umgekehrter chronologischer Reihenfolge. Das hat sich 2015 mit der Einführung von Twitter geändert ein algorithmischer Newsfeed , das Tweets basierend auf einer Berechnung von anzeigte Relevanz eher als Aktualität.
Hat Neptun Ringe, die den Planeten umkreisen?
Letztes Jahr hat das Engineering-Team des Unternehmens enthüllte, wie der aktuelle Algorithmus funktioniert . Wie bei Facebook und Youtube , setzt Twitter jetzt auf einen Deep-Learning-Algorithmus, der gelernt hat, Inhalte mit größerem vorherigen Engagement zu priorisieren. Durch das Durchsuchen der Twitter-Daten hat sich der Algorithmus selbst beigebracht, dass Twitter-Nutzer eher bleiben, wenn sie Inhalte sehen, die bereits viele Retweets und Erwähnungen erhalten haben, im Vergleich zu Inhalten mit weniger.
Der Fluss von Fehlinformationen auf Twitter ist somit eine Funktion sowohl menschlicher als auch technischer Faktoren. Menschliche Vorurteile eine wichtige Rolle spielen : Da wir eher auf Inhalte reagieren, die unsere bestehenden Beschwerden und Überzeugungen ansprechen, werden aufrührerische Tweets ein schnelles Engagement erzeugen. Erst nach diesem Engagement greift die technische Seite: Wenn ein Tweet von genügend ersten Zuschauern retweetet, favorisiert oder beantwortet wird, zeigt der Newsfeed-Algorithmus ihn mehr Nutzern an und greift dann die Vorurteile an auch dieser Benutzer – was zu noch mehr Engagement führt und so weiter. Im schlimmsten Fall kann dieser Kreislauf Social Media in eine Art Bestätigungsfehlermaschine , perfekt auf die Verbreitung von Fehlinformationen zugeschnitten.
Wenn Sie sich die Tweets der Fatah ansehen, spielt sich der obige Prozess fast vollständig ab. Eine kleine Untergruppe der Fatah-Anhänger beschäftigte sich sofort mit dem Tweet, in dem ein Zuschauerbericht über den Angreifer als wütend und nahöstlich berichtet wurde, was einen Zyklus auslöste, in dem größeres Engagement größere Zuschauerzahlen hervorrief und umgekehrt. Im Gegensatz dazu erhielt der Tweet, der den Angreifer genau identifizierte, wenig anfängliches Engagement, wurde weniger vom Newsfeed-Algorithmus markiert und konnte sich daher nie richtig durchsetzen. Das Ergebnis ist die obige Grafik, die einen exponentiellen Anstieg des Engagements für den ungenauen Tweet zeigt, aber nur einen bescheidenen Anstieg für den genauen.
So wie das Problem sowohl eine menschliche als auch eine technische Seite hat, so hat auch jede mögliche Lösung.
Wenn es um die Algorithmen von Twitter geht, mangelt es nicht an niedrig hängenden Früchten. Während eines Angriffs selbst könnte Twitter für Polizei- oder Regierungskonten werben, damit so schnell wie möglich genaue Informationen verbreitet werden. Alternativ könnte es auch eine Warnung oben in seinen Such- und Trend-Feeds über die Unzuverlässigkeit der ersten Augenzeugenberichte anzeigen.
Darüber hinaus könnte Twitter seine „While You Were Away“- und Suchfunktionen aktualisieren. Im Fall des Angriffs in Toronto war nicht zu erwarten, dass Twitter die Wahrheit schneller herausfindet als die Polizei von Toronto. Aber sobald die Polizei den Angreifer identifiziert hatte, hätte Twitter über Systeme verfügen müssen, um die Sichtbarkeit von Fatahs Tweet und anderen angesagten Fehlinformationen einzuschränken. Beispielsweise werden über zehn Tage nach dem Angriff die beiden Top-Ergebnisse für eine Suche nach dem Angreifer waren das :
wer war die mutter von königin elizabeth i.
(Ich habe die obige Suche durchgeführt, während ich bei meinem eigenen Twitter-Konto angemeldet war, aber eine Suche im ausgeloggten Zustand führte zu den gleichen Ergebnissen.)
Leider waren dies keine isolierten Tweets. Jeder, der Twitter nutzt, um dem Angriff zu folgen und mehr darüber zu erfahren, wurde mit . begrüßt eine Fülle von Fehlinformationen und Beschimpfungen . Dies ist etwas, was Twitter bekämpfen kann: Entweder kann es ein Redaktionsteam beauftragen, eklatante Fehlinformationen aus Trendsuchen zu verfolgen und zu entfernen, oder es kann eine neue Meldefunktion einführen, mit der Benutzer Fehlinformationen melden können, wenn sie darauf stoßen. Keine der Optionen ist perfekt, und letztere wäre nicht trivial zu implementieren. Aber der Status Quo ist schlimmer. Wie viele Twitter-Nutzer glauben noch immer, dass der Angriff von Toronto das Werk von Dschihadisten im Nahen Osten war und dass die Einwanderungspolitik von Premierminister Justin Trudeau dafür verantwortlich ist?
Letztlich muss die Lösung von Fehlinformationen aber auch die Nutzer selbst einbeziehen. Nicht nur die Nutzer von Twitter müssen ihre eigenen Vorurteile besser verstehen, sondern insbesondere auch Journalisten besser verstehen, wie ihre Fehler ausgenutzt werden können. In diesem Fall waren die größten Fehler menschlicher Art: Fatah twitterte einen Account, ohne ihn zu bestätigen, obwohl der fragliche Augenzeuge, ein Mann namens David Leonard, selbst bemerkt dass ich nicht bestätigen oder leugnen kann, ob meine Beobachtung richtig ist.
Um Fehlinformationen im Internet entgegenzuwirken, können und sollten wir verlangen, dass Newsfeed-Algorithmen nicht unsere schlimmsten Instinkte verstärken. Aber wir können nicht erwarten, dass sie uns vor uns selbst retten.