Facebook-Kritik: Nur dagegen sein reicht nicht

Was ist

Zwei aktuelle Ereignisse zeigen, dass es einfach ist, auf Facebook einzuprügeln – aber nicht immer fair und zielführend. Wir nehmen die Kontroverse um das "Real Facebook Oversight Board" und die nachträgliche Relativierung der Cambridge-Analytica-Affäre zum Anlass, etwas grundsätzlicher über Kritik an Facebook nachzudenken.

Was wir vorab klarstellen wollen

In nahezu jedem Briefing beleuchten wir die Schattenseiten globaler Plattformen. Wir sind überzeugt, dass Facebook viele Dinge falsch macht – nicht unbedingt aus böser Absicht, was die politischen und gesellschaftlichen Nebenwirkungen aber nicht weniger gefährlich macht.

Facebook ist ein Unternehmen, das Kritik verdient, scharfe und durchaus auch aggressive Kritik. Oft braucht es solchen Druck, bis Facebook reagiert. Wir wollen Facebook also nicht vor Kritik in Schutz nehmen, sondern nur die Art und Weise der Kritik hinterfragen.

Was das "Real Facebook Oversight Board" ist

  • Ende September gründete die NGO The Citizens das "Real Facebook Oversight Board" (The Citizens). Das Gremium besteht aus rund 25 profilierten Facebook-Kritikerïnnen und versteht sich als bessere Version (NBC) des Oversight-Board, das Facebook selbst aufsetzen will (mehr zu dieser Art Verfassungsgericht in Ausgabe #638).
  • Letztendlich ist es also nicht "Real", sondern eher "Fake". Um Verwirrung zu vermeiden, nutzen wir die Abkürzungen: FOB (das Original) und RFOB (die Kopie).
  • Die Kritikerïnnen halten das FOB für einen halbgaren Versuch von Facebook, sich von Kritik reinzuwaschen (Axios).
  • Das RFOB diskutiert in wöchentlichen öffentlichen Zoom-Meetings über Themen wie algorithmisch befeuerte Desinformation, die Verbreitung von Verschwörungideologien oder politische Werbung auf Facebook.

Wie der Streit eskalierte

  • Facebook hielt das RFOB wenig überraschend von Anfang an für keine gute Idee. Schließlich suggeriert ja bereits der Name, dass Facebook selbst nicht in der Lage sei, ein unabhängiges Aufsichtsgremium zu schaffen.
  • Facebook-Manager Brent Harris, zuständig für Government und Global Affairs, soll Unterstützerïnnen des RFOB kontaktiert und gesagt haben, die Gründung des konkurrierenden Gremiums unterlaufe Facebooks Bemühungen. Das spiele konservativen Kritikerïnnen in die Hände, die das FOB scheitern sehen wollen.
  • Richtig hitzig wurde es dann Ende vergangener Woche, als Facebook offenbar versuchte (Vice), die Seite realfacebookoversight.org wegen einer Markenrechtsverletzung offline nehmen zu lassen.
  • Zwischenzeitlich schaltete der Provider die Domain ab. Derzeit leitet die URL auf die Webseite des RFOB bei The Citizens um.
  • Facebook streitet ab, die Seite absichtlich aus dem Netz gekickt zu haben. Angeblich habe es sich um einen Fehler gehandelt.
  • Facebook-Sprecher Andy Stone bezichtigte die Journalistin Carole Cadwalladr gar der Lüge (Twitter): "Your fake thing that accuses us of fake things was caught in our thing to prevent fake things."
  • Der Vorfall wirft aber kein gutes Licht auf Facebook und ist auch strategisch ausgesprochen kurzsichtig: Im Jahr 2020 sollte man einem der größten Tech-Konzerne der Welt nicht erklären müssen, dass der Streisand-Effekt existiert.
  • Ausgerechnet Facebook, das Redefreiheit sonst oft über andere Grundrechte stellt, macht seine Kritikerïnnen mundtot – das ist natürlich eine Steilvorlage für viele hämische Kommentare und Schlagzeilen, die dem RFOB mehr Aufmerksamkeit bescherten, als es Facebook lieb sein dürfte.

Was wir vom FOB halten

  • Am FOB gibt es einiges auszusetzen. Die Gründung zieht sich schon viel zu lang hin: Es soll zwar noch im Oktober seine Arbeit aufnehmen (CNBC), wird aber keinen Einfluss mehr auf die US-Wahl nehmen – wenn es jemals ein unabhängiges Gremium gebraucht hätte, dann in diesen Wochen.
  • "Move fast and break things", lautete Facebooks Motto einst. Facebook hat sich einen verdammt ungünstigen Zeitpunkt ausgesucht, es langsamer angehen zu lassen (Wired).
  • Hinzu kommen konzeptionelle Schwächen: Zunächst wird das FOB ausschließlich Beschwerden behandeln, wonach Facebook Inhalte zu Unrecht gelöscht habe. In einer Zeit, in der der US-Präsident fast täglich Lügen und Desinformation verbreitet, wäre es womöglich wichtiger, Fälle zu prüfen, in denen Facebook nichts unternimmt.
  • Grundsätzlich ist es aber gut, dass Facebook ein solches Gremium gründlich plant und möglichst viel externe Expertise einholt. Die lange Vorbereitungszeit liegt primär daran, dass Facebook weltweit Workshops durchgeführt und mit Organisationen, Wissenschaftlerïnnen und Aktivistïnnen gesprochen hat.
  • "The fact that the board is taking such a thoughtful approach to heavy issues really is a good sign for users of platforms and the whole world", sagt etwa Juraprofessorin Kate Klonick (NBC).

Was wir vom RFOB halten

  • Auf Twitter war oft zu lesen: Endlich formieren sich die Facebook-Kritikerïnnen zu einer schlagkräftigen Allianz und prangern Facebooks Versagen an.
  • Wir sind da etwas zurückhaltender: Ein Gutteil der Gründungsmitglieder des RFOB kritisiert Facebook bereits jetzt regelmäßig öffentlichkeitswirksam auf Twitter. Ob ein wöchentliches Zoom-Meeting wirklich weiterhilft?
  • Wir geben da einem Facebook-Sprecher recht, der sagt: "This new effort is mostly longtime critics creating a new channel for existing criticisms."
  • Auch der Name ist provokativer als nötig. Das RFOB hat inhaltlich gar nichts mit dem FOB zu tun, die beiden Gremien haben unterschiedliche Dinge im Blick. Die Gründerïnnen des RFOB verstehen sich eher als "PR-Team im Dienste der Demokratie" (Axios).
  • Auf den Stunt mit der Domain reagierte Facebook maximal unsouverän, aber nicht ganz unerwartet. Casey Newton drückt es so aus (Platformer): "(…) if you name a fake Facebook Oversight Board the “Real Facebook Oversight Board” and buy a domain name to that effect, what the hell else do you expect?"
  • Manche hinterfragen auch die Zusammensetzung der Gründungsmitglieder. "I don't see a single activist expert on this list", kritisiert etwa Jillian C. York (Twitter) von der EFF. Es gebe bereits mehr als 100 Organisationen, die weltweit daran arbeiteten, Facebook für sein Handeln verantwortlich zu halten. Diese Aktivistïnnen habe das RFOB komplett übergangen.
  • Diese Kritik können wir nicht ganz nachvollziehen. Zumindest auf der Webseite des RFOB wirkt das Gründungsteam zwar etwas akademisch und hat einen Fokus auf die westliche Welt, es sind aber auch Aktivistïnnen aus Asien und Afrika dabei.
  • Grundsätzlich ist es sinnvoll, die Kritik an Facebook zu bündeln, um den Druck zu erhöhen – damit steigt die Chance, dass Facebook darauf reagiert. Es ist aber noch zu früh, um zu beurteilen, ob das RFOB langfristig mehr ist als ein PR-Stunt.

Was von der Cambridge-Analytica-Affäre übrig bleibt

  • Die britische Datenschutzbehörde hat untersucht, ob Cambridge Analytica (CA) tatsächlich massenhaft Daten missbrauchte, um damit das Brexit-Votum und die US-Wahl 2016 zu beeinflussen.
  • Der Abschlussbericht sowie ein Brief an den zuständigen Ausschuss des britischen Parlaments (PDF) entkräften nun einige der Vorwürfe. Die 700 Terabyte und 300.000 Dokumente belegen nicht, dass CA die Manipulationsmaschine war, zu der das Datenanalyse-Unternehmen teils stilisiert wurde.
  • CA missbrauchte zwar eine Facebook-Schnittstelle, nutzte aber in erster Linie öffentlich verfügbare Daten und war vor allem gut darin, den eigenen Einfluss in Pitchdecks überzuverkaufen.
  • Diese Erkenntnis ist nicht neu, zeigt aber erneut, dass es sich lohnt, auch bei Themen, die kein gutes Licht auf Facebook werfen, genau hinzusehen.
  • Bezeichnend ist dieser Absatz (The Register):

We have heard from sources in British political circles that Cambridge Analytica's advertised powers of online suggestion were rather overblown and in fact mostly useless. In the end, it was skewered by its own hype, accused of tangibly influencing the Brexit and presidential votes on behalf of political parties and campaigners using Facebook data. Yet, no evidence could be found supporting those claims.

Was man aus dem CA-Bericht lernen kann

  • Ja, Facebook hat geschludert und es geduldet, dass zwielichtige Unternehmen APIs missbrauchen, um Daten zu scrapen. Ja, CA ist eine dubiose Datenklitsche, deren Insolvenz man nicht betrauern muss.
  • Aber für die große Manipulationserzählung, die monatelang von Medien, Ex-CA-Angestellten und später auch in einer Netflix-Doku hyperventiliert wurde, fehlen nach wie vor Beweise.
  • Das Gleiche gilt für manche "Bombshell"-Reports, die in den vergangenen Jahren die Runde machten. Oft stützen sie sich auf die Aussagen einzelner Whistleblowerïnnen oder frustrierter Mitarbeiterïnnen.
  • Das macht sie nicht automatisch unglaubwürdig, zumal Facebook solche Vorwürfe oft nur mit ein paar knappen Sätzen oder ausführlicher, dann aber im Hintergrund kommentiert. Die Berichte zeichnen aber oft kein ausgewogenes Bild und machen es sich manchmal zu einfach.

Be smart

Emotionen funktionieren besser als Fakten, Schwarz und Weiß erzeugt mehr Resonanz als Grau. Genau das, was den Ton auf Facebook oft so toxisch macht, führt dazu, dass Facebook-Kritik auch nach 16 Jahren Facebook oft noch ärgerlich unterkomplex ausfällt. Casey Newton bringt es auf den Punkt (OneZero):

Once journalists figured out that you could get infinite retweets by typing “Facebook is bad” into a box, it totally changed the tenor of the coverage.

"Warum sich Facebook nicht selbst reparieren kann", heißt ein aktueller Longread im New Yorker. Der Text zeigt, dass Facebook teils mehr Wert darauf legt, seinen Ruf zu retten als Probleme zu lösen. Fundierte Kritik ist also nötig – heute mehr denn je.


Keine Plattform für Holocaustleugnung: Was hinter Zuckerbergs Sinneswandel steckt

Was ist

Facebook wird künftig weltweit Inhalte löschen (Facebook-Newsroom), in denen die Shoa geleugnet oder verharmlost wird. Holocaustleugnung ist in etwa einem Dutzend Länder strafbar, in den USA aber legal. Nach deutschem Recht gilt die Leugnung des Holocausts als Volksverhetzung und ist strafbar. Deshalb sperrt Facebook entsprechende Postings hierzulande schon immer.

Außerdem will Facebook Nutzerïnnen, die nach Begriffen suchen, die mit dem Holocaust oder Holocaustleugnung in Verbindung stehen, künftig auf glaubwürdige Informationen verweisen. Ähnlich geht die Plattform bereits mit Suchanfragen zum Coronavirus um. Die Funktion soll im Laufe des Jahres eingeführt werden.

Warum das überraschend kommt

Vor gut zwei Jahren klang Zuckerberg noch ganz anders. "Ich bin jüdisch, und es gibt Menschen, die bestreiten, dass der Holocaust stattgefunden hat", sagte er 2018 in einem Podcast mit Kara Swisher (Vox). "Ich finde das extrem abstoßend. Letztendlich glaube ich trotzdem nicht, dass unsere Plattform das löschen sollte."

Er denke nicht, dass alle Menschen, die den Holocaust leugnen, dies absichtlich und wider besseren Wissen täten. Es sei schwer, ihnen Absicht zweifelsfrei nachzuweisen. Holocaustleugnung sei ein abstoßendes Beispiel, aber auch er selbst sage versehentlich falsche Dinge, wenn er öffentlich spreche. Facebook sollte Menschen nicht verbannen, wenn sie falsche Dinge sagten.

Warum es sich Zuckerberg anders überlegt hat

Er habe seine Meinung geändert, nachdem er Daten gesehen habe, die zeigten, dass antisemitische Gewalt zunehme, schreibt Zuckerberg in einem Facebook-Post. Die Abwägung zwischen Redefreiheit und Hassrede sei niemals eindeutig, doch "angesichts des aktuellen Zustands der Welt" glaube er, dass die Entscheidung nötig sei.

In der Ankündigung im Facebook-Newsroom zitiert Monica Bickert eine erschreckende Studie: In den USA sagen etwa ein Viertel der Menschen zwischen 18 und 39 Jahren, dass der Holocaust ein Mythos sei, übertrieben dargestellt werde oder sie sich nicht sicher seien. Ihr Fazit:

Unsere Entscheidung wird durch den gut dokumentierten weltweiten Anstieg von Antisemitismus und dem alarmierenden Level von Unkenntnis über den Holocaust gestützt.

Warum die Entscheidung überfällig war

Mark Zuckerberg hat mehr als 800 Tage gebraucht, um es sich anders zu überlegen. Doch für die Erkenntnis, dass seine eigene Auslegung von Meinungsfreiheit womöglich dazu beträgt, dass sich Vorurteile und Antisemitismus verbreiten, hätte es keine Datengrundlage gebraucht. Es hätte gereicht, auf Dutzende Organisationen und Verbände zu hören, die seit Jahren appellieren, Facebook dürfe Menschenwürde nicht der Redefreiheit unterordnen.

Entsprechend fallen die Reaktionen von Holocaust-Überlebenden, des Internationalen Auschwitz Komitees, des Jüdischen Weltkongress und der Anti-Defamation League aus. Sie sprechen von einer "starken Botschaft", einem "historischen Schritt" – fragen aber auch, warum es so lang gedauert hat.

The big picture

  • Die aktuelle Entscheidung ist eine von vielen Maßnahmen der vergangenen Monate, die zeigen, dass Facebook allmählich beginnt, mehr Verantwortung für die Inhalte zu übernehmen, die Milliarden Menschen auf der Plattform hinterlassen.
  • In "Das Silicon Valley zähmt das Wild Wild Web (ein bisschen)" fassten wir die Entwicklung im Juli zusammen.
  • Seitdem sind etliche weitere Maßnahmen hinzugekommen. Unter anderem geht Facebook nun härter gegen rechtsradikale Milizen vor, verbietet politische Werbung zumindest nach der US-Wahl und verbannt QAnon-Anhängerïnnen (mehr dazu in der vergangenen Ausgabe #674).
  • Diese Entscheidungen haben zwei Gemeinsamkeiten: Sie sind richtig – und sie kommen spät. Gerade im Fall von QAnon hat Facebook maßgeblich zum Aufstieg und der Verbreitung der radikalen und zunehmend gewaltbereiten Verschwörungsgläubigen beigetragen.
  • Natürlich hat Zuckerberg Recht, wenn er immer wieder betont, Facebook dürfe nicht zum "arbiter of truth" werden. In diesen Fällen ist das aber eine Scheindebatte: Holocaustleugnung, Antisemitismus und gefährliche Verschwörungserzählungen sind keine Meinungen, denen Facebook aus falsch verstandener Neutralität eine Plattform bieten muss.

Be smart

Viele Journalistïnnen spekulieren (The Register), ob Zuckerberg nicht ganz andere Motive hatte: Drohende Regulierung, die schlechten Umfragewerte von Donald Trump und zunehmender Druck könnten seinen Meinungsumschwung begünstigt haben.

An solchen Mutmaßungen wollen wir uns nicht beteiligen. Letztlich ist das auch nicht entscheidend. Wichtig sind jetzt zwei Dinge:

  1. Facebook muss die Ankündigungen auch umsetzen und Inhalte konsequent löschen. Das wohlformulierteste Regelwerk ist nutzlos, wenn auf die Worte keine Taten folgen.
  2. Die Community-Standards sind nur ein kleiner Teil des Problems. Wenn werbefinanzierte Plattformen ihre Algorithmen auf Interaktionen maximieren, spielt das Extremistïnnen in die Hände, die mit emotionalen Botschaften die Mechanismen sozialer Netzwerke ausnutzen. Das muss sich ändern – zur Not auch gegen Zuckerbergs Willen.

Header-Foto von Clem Onojeghuo bei Unsplash