Facebook kämpft gegen den Wahnsinn der Welt
Was ist
Zugegeben: Die Überschrift ist etwas pathetisch. Doch angesichts des allgegenwärtigen Irrsinns erscheint uns das gerechtfertigt. Außerdem bietet sie uns die Möglichkeit, eine ganze Reihe neuer Entwicklungen unter einen Hut zu bringen, die sich alle darum drehen, wie Facebook mit Verrückten und Radikalen umgeht: von QAnon-Anhängerïnnen über Anti-Vaxxer, Rassistïnnen und Antisemitïnnen bis zur gewaltverherrlichenden Boogaloo-Bewegung.
Wir fassen die Nachrichten zunächst kompakt zusammen und verlinken die besten weiterführenden Quellen. Dann sehen wir uns einen Avaaz-Bericht näher an, der das Ausmaß der Desinformation über das Coronavirus auf Facebook vermisst. Abschließend ordnen wir das Geschehen kurz ein.
Was alles passiert ist
QAnon- und Boogaloo-Bewegung
- Seit einigen Monaten geht Facebook verstärkt gegen gefährliche Extremistïnnen und Verschwörungsideologïnnen vor. Ende Juni verbannte die Plattform massenhaft Boogaloo-Gruppen (The Verge), am Mittwoch waren Tausende Konten und Seiten der QAnon-Bewegung dran (NBC).
- Das Durchgreifen kommt spät – vielleicht zu spät (Revue). Untersuchungen zeigen, dass Boogaloo (Vice) und QAnon-Inhalte (Guardian) nach wie vor auf Facebook florieren (WSJ).
- Im Fall von QAnon geschieht das mit präsidialem Segen: Trump bezeichnete eine QAnon-Anhängerin, die für die seine Partei kandidiert, als "kommenden republikanischen Star" (Gizmodo) und freute sich auf einer Pressekonferenz (Twitter / Aaron Rupar), dass QAnon ihn als Erlöser auserkoren hat, der die USA vor einer vermeintlichen Verschwörung bewahren soll.
- Auch deshalb sind die haltlosen Verschwörungserzählungen in der Mitte der US-amerikanischen Gesellschaft angekommen (NYT) und vergiften Hunderttausenden Menschen den Verstand (Reddit).
Antisemitismus und Rassismus
- Vergangene Woche veröffentlichte Facebook seinen "Community Standards Enforcement Report" und aktualisierte (Facebook-Newsroom) seine Regeln im Umgang mit Hatespeech (Community-Standards).
- Unter anderem verbannt Facebook Blackfacing und bestimmte antisemitische Stereotype (BBC).
- Betroffen ist auch der "Zwarte Piet" (Tagesschau), der in den Niederlanden und Flander den Sinterklaas begleitet.
- Die belgische Rechtsaußen-Partei Vlaams Belang ist empört und wittert Zensur (Politico). Überrascht? Wir auch nicht.
- Dass Facebook Lügen über die vermeintliche jüdische Weltverschwörung verbietet, ist das eine – andere antisemitische Inhalte und Holocaustleugnung, die in vielen Ländern nicht illegal ist, bleiben aber weiter online (Guardian).
Politische Desinformation
- Facebook, Google, Twitter, Snapchat und andere Tech-Konzerne haben Maßnahmen ergriffen (NYT), um die kommenden US-Wahlen zu sichern, die Wahlbeteiligung zu steigern und gezielte Desinformation zu verhindern (Axios).
- Facebook bietet dafür ein sogenanntes "Voting Information Center" an (Facebook-Newsroom), das verhindern soll, dass die Plattform nach 2016 erneut für Propaganda missbraucht wird.
- Außerdem gelten für Medien, die einen klaren politischen Hintergrund haben, künftig verschärfte Regeln (Facebook Journalism Project). Seiten wie RT sollen etwa nicht mehr in Facebooks News-Tab auftauchen. Klingt sinnvoll, hat aber Lücken: Breitbart und andere Portale mit klaren Verbindungen zur Republikanischen Rechten sind nicht betroffen(Forbes).
Desinformation zu Gesundheitsthemen
- Ein Avaaz-Bericht bezeichnet Facebooks Algorithmus als "Gefahr für die öffentliche Gesundheit" (Avaaz).
- "Facebook zeigt zwar guten Willen und versucht, Fehlinformationen zu bekämpfen", sagt Kampagnendirektor Christoph Schott. "Trotzdem erreichen Seiten, die immer wieder Lügen und Verharmlosungen über das Coronavirus verbreiten, ein Millionenpublikum."
- Die Forscherïnnen haben ein Netzwerk aus Webseiten und Facebook-Seiten analysiert, die regelmäßig gefährliche Desinformation über Gesundheitsthemen teilen.
- Diese Inhalte hätten im vergangenen Jahr rund 3,8 Milliarden Abrufe erzielt. Allein im April, auf dem bisherigen Höhepunkt der Pandemie, seien es fast 500 Millionen Views gewesen.
- Die Inhalte der zehn größten Seiten dieses Netzwerks hätten fast viermal so viele Abrufe wie die Inhalte der zehn größten Gesundheitsorganisationen wie der WHO.
- Die Netzwerke der Desinformation existierten oft schon seit Jahren und seien strategisch aufgebaut und miteinander verknüpft worden. Die Akteure teilen sich gegenseitig und helfen, bestimmte Artikel massenhaft zu verbreiten.
- Teils werden Inhalte, die Facebook gelöscht hatte, von anderen Seiten leicht abgewandelt neu veröffentlicht oder in eine andere Sprache übersetzt. Die Kopien fallen durch Facebooks Raster und erreichen teils mehr Menschen als der ursprüngliche Beitrag.
- Dieses Vorgehen hebelt Facebooks Gegenmaßnahmen aus: Facebook habe nur 16 Prozent der geprüften Fehlinformationen mit einem Warnhinweis versehen, obwohl Faktenprüferïnnen die Behauptungen als falsch eingestuft hätten.
Was von dem Avaaz-Bericht zu halten ist
Wir haben die 33 Seiten (PDF) gründlich gelesen und mit Avaaz, Facebook und Ulrich Montgomery, dem Präsident des Weltärztebundes, darüber gesprochen. Grob zusammengefasst: Avaaz hat sich große Mühe gegeben, das Ausmaß der Desinformation zu vermessen – die genauen Zahlen, die in dem Bericht vorkommen, sollte man aber vorsichtig behandeln.
Das fängt bei den angeblich 3,8 Milliarden Abrufen an, die wir aus zwei Gründen höchstens als groben Schätzwert durchgehen lassen:
- Facebook zeigt nicht an, wie viele Nutzer ein Posting in ihrer Timeline sehen. Eingeblendet wird lediglich die Zahl der Menschen, die den Beitrag liken, teilen oder kommentieren. Nur bei Videos sind sowohl Abrufe als auch Interaktionen sichtbar. Dieses Verhältnis hat Avaaz auf andere Postings übertragen, um aus den öffentlichen Interaktionen eine geschätzte Reichweite abzuleiten. Facebook nennt die Methodik auf Nachfrage hypothetisch und ungenau.
- Der Wert bezieht sich auf sämtliche Inhalte, die ein Netzwerk aus 82 Webseiten und 42 Facebook-Seiten verbreitet hat. Darunter sind nicht nur Lügen und verharmlosende Aussagen über Covid-19, sondern auch Artikel, die gar nichts mit dem Virus oder anderen Gesundheitsthemen zu tun haben. Die Zahl beschreibt also die Gesamtreichweite des Netzwerks, nicht aber die Verbreitung einzelner Beiträge.
Trotzdem können wir das Vorgehen von Avaaz nachvollziehen. Die Grundannahmen der Hochrechnung sind alle eher konservativ, sodass kein maßlos übertriebener Wert herausgekommen sein dürfte. Und solange unabhängige Wissenschaftler keinen Zugriff auf Facebooks Daten erhalten, bleibt nichts anderes übrig, als solche Vermutungen anzustellen.
Auch die beiden Lösungsvorschläge, die Avaaz macht, finden wir sinnvoll. Beide knüpfen an Maßnahmen an, die Facebook bereits eingeleitet hat – nach Meinung von Avaaz aber nicht weit genug gehen:
"Correct the Record"
- Was Facebook macht: Im April begann Facebook, Nutzerïnnen Hinweise einzublenden, die zuvor mit Inhalten agiert hatten, die gefährliche Fehlinformationen über Covid-19 enthalten. Bislang verweist Facebook nur allgemein auf die WHO, ohne Menschen zu sagen, warum sie das Pop-up sehen, welchen Inhalt sie zuvor gelikt, geteilt oder kommentiert hatten und warum die darin enthaltenen Behauptungen falsch sind.
- Was Avaaz fordert: Die Warnungen müssten spezifischer werden: "Jede Untersuchung zu diesem Thema zeigt, dass konkrete Korrekturhinweise helfen können", sagt Schott. "Menschen glauben den Fehlinformationen dann deutlich seltener." Außerdem sollten sie auch angezeigt werden, wenn man die Desinformation nur in der Timline gesehen, aber nicht damit interagiert habe.
"Detox the Algorithm"
- Was Facebook macht: Facebook wertet Seiten ab, die wiederholt Inhalte teilen, die unabhängige Faktenprüfer als falsch einstufen. Von außen sind solche Drosselungen aber nicht sichtbar, abgestrafte Seiten werden nicht gekennzeichnet.
- Was Avaaz fordert: "Wie genau diese Drosselung funktioniert, wann sie greift und wer davon betroffen ist, bleibt völlig intransparent", sagt Schott. Wir berichteten zuletzt in Briefing #659, dass Facebook bei manchen rechtskonservativen Seiten offenbar mit zweierlei Maß misst, wenn es um die Verbreitung von Fehlinformationen geht. "Wir müssen Facebook vertrauen, die sagen, dass die Reichweite um bis zu 80 Prozent sinkt", sagt Schott. Die Drosselung müssten konsequenter durchgesetzt werde und öffentlich nachvollziehbar sein.
Be smart
Wir haben es schon oft gesagt. Wir sagen es nochmal, weil es so wichtig ist: Facebook ist keine neutrale Plattform, als die es sich selbst gern darstellt. Ein Großteil der beschriebenen Probleme ist hausgemacht (Technology Review). Desinformation spricht oft Gefühle an. Emotionen rufen Interaktionen hervor, die der Algorithmus als Relevanzsignale deutet – und den Lügen und Verharmlosungen zusätzlich Aufmerksamkeit verschafft, bis Facebook eingreift (oder auch nicht).
Allen Gegenmaßnahmen zum Trotz schlägt Facebook Nutzerïnnen weiter vor, QAnon-Gruppen beizutreten (Twitter / Adrienne LaFrance). "Der Wille ist vorhanden, aber er ist nicht gut genug", sagt Frank Ulrich Montgomery. Ihm gehe es gar nicht um Menschen, die Verschwörungserzählungen über Bill Gates glaubten. Die könne man nicht ernstnehmen. Viel mehr beunruhigen ihn zwei andere Gruppen:
Das sind einmal die Impfverweigerer, die das Leben ihrer Kinder riskieren. Und jene Menschen, die daran zweifeln, dass Covid-19 gefährlich ist und etwa irreführende Vergleiche mit der Grippe verbreiten. Wenn solche Behauptungen einmal viral gehen, kann die Wissenschaft fast nichts tun, um das wieder einzufangen. Da sehe ich die Plattformen in der Pflicht, das vorher zu verhindern. Sonst nützt uns der beste Corona-Impfstoff nichts.
Empfehlungen fürs Wochenende
Bei unseren Lesetipps konzentrieren wir uns diese Woche auf zwei Plattformen: Wir empfehlen Texte über Telegram und Facebook.
Telegram
- Bereits vor zwei Wochen erklärte Stefan Krempl, warum Telegram bei Rechtsradikalen und Verschwörungsideologïnnen so beliebt ist (Golem). Zu Wort kommen unter anderem Miro Dittrich von der Amadeu-Antonio-Stiftung und Anna-Lena von Hodenberg von Hateaid. Sie werfen Telegram Untätigkeit vor und sehen eine Lücke im NetzDG.
- Dass Telegram aber nicht nur Extremistïnnen eine Plattform bietet, zeigt ein Blick nach Belarus. Dort spielte der Messenger eine zentrale Rolle (Wired), um die Proteste gegen den diktatorisch agierenden Präsidenten Alexander Lukaschenko zu koordinieren. Wir kennen uns in Belarus nicht aus, deshalb fällt es uns schwer zu beurteilen, wie groß der Einfluss und die Verbreitung von Telegram wirklich sind. Vorsorglich erinnern wir an die angebliche "Social-Media-Revolution" des Arabischen Frühlings, bei der sich im Nachhinein herausstellte (Washington Post), dass Facebook und Twitter wohl doch weniger entscheidend waren als zunächst angenommen.
- Wer es etwas kürzer mag und lieber auf Deutsch liest, kann auch bei der taz nachlesen, warum Telegram in Belarus so schnell so groß wurde. Unter anderem ermöglicht es der Messenger, die Internetblockaden der Regierung zu umgehen.
- In den vergangenen Jahren haben Facebooks Machine-Learning-Systeme große Fortschritte gemacht, wenn es darum geht, hasserfüllte Kommentare zu erkennen und automatisch zu löschen. Doch Kommunikation im Netz ist zunehmend visuell – und Bilder, Videos und Memes stellen Facebooks AI vor eine große Herausforderung, wie dieser Longread herausarbeitet (Fast Company).
- Erinnert sich noch jemand an Free Basics? Mit dieser Initiative wollte Facebook Menschen in Schwellen- in Entwicklungsländern Internet bringen – allerdings eine Facebook-Version des Internets. Indien verbannte das Projekt, doch Facebook expandierte in 55 andere Länder. James Ball beleuchtet, wie Facebook den globalen Süden mit Technik versorgt und sich damit Einfluss verschafft (Wired).
- Die Daten von Google Trends sind nicht immer verlässlich( (NDR), aber zumindest bietet Google die Möglichkeit, grobe Tendenzen abzulesen. Auch andere Plattformen werden als Suchmaschinen genutzt, gerade während der Corona-Pandemie. Doch Wissenschaftlerïnnen haben keinen Zugriff auf diese Daten. Wir brauchen ein Google Trends für Facebook, Instagram, Twitter, TikTok und Reddit, fordert Tommy Shane von First Draft (Nieman Lab).
- Im Herbst wird Apple iOS 14 auf den Markt bringen – und könnte damit das Milliardengeschäft mit personalisierter Werbung deutlich weniger lukrativ machen. Apple will Tracking standardmäßig deaktivieren, Nutzerïnnen müssen per Opt-in einwilligen. Das bedroht insbesondere das Geschäftsmodell von Facebook, analysiert Torsten Kleinz. Bis zur Veröffentlichung von iOS 14 dürften wir noch einiges zu diesem Thema lesen. Dieser Text ist ein sehr guter Anfang.
Neue Features bei den Plattformen
- „You are all caught up, also theoretisch. Rein praktisch kannst du natürlich weiterscrollen: Hier hätten wir für dich ein paar Posts, die dich interessieren könnten.“ Time Well Spent war einmal: Instagram rolls out suggested posts to keep you glued to your feed (The Verge)
- QR-Codes: Was Snapchat kann, kann Instagram schon lange. Um Accounts leichter zu finden, ist das Scannen von QR-Codes wahnsinnig praktisch, keine Frage. Nach Tests in Japan wird das Feature nun weltweit ausgerollt (The Verge).
Tipps, Tricks und Apps
- Muze: Im wunderbaren Newsletter von Johannes Klingebiel haben wir zum ersten Mal vom Muze-Messenger gelesen. Der Reiz von Muze besteht darin, Text, Gifs, Fotos, Videos und Gemaltes wie auf einer riesigen Leinwand nutzen zu können. Kann man schwer erklären, muss man gesehen haben. Ist jedenfalls mal eine ziemlich artsy Rangehensweise an das Thema Messenger.
One more thing
Très chic 😂
Header-Foto von Max Templeton bei Unsplash