Ansichten eines Facebook-Managers, TikToks neue Gemeinschaftsrichtlinien, Desinformations-Agenturen

Salut und herzlich Willkommen zur 604. Ausgabe des Social-Media-Watchblog-Briefings. Heute beschäftigen wir uns intensiv mit der Gedankenwelt eines hochrangigen Facebook-Managers. Ferner schauen wir auf TikToks neue Gemeinschaftsrichtlinien. Zudem stellen wir fest, dass es jetzt Desinformations-Agenturen gibt und Facebooks Privacy Checkup zwar gut gemeint ist, letztlich aber nur vor Dritten schützt – und natürlich nicht vor sich selbst. Wir wünschen eine gewinnbringende Lektüre und bedanken uns für das Interesse! Simon und Martin

Was ein Facebook-Manager über Trump denkt

Was ist: Andrew Bosworth hat ausführlich über Donald Trump, Cambridge Analytica, Filterblasen und den Herrn der Ringe nachgedacht. Der Facebook-Manager veröffentlichte das 5500-Wörter-Essay „Gedanken über 2020“ auf seinem privaten Account, den nur Facebook-Angestellte sehen können – doch die New York Times hat das interne Memo in die Hände bekommen und ins Netz gestellt (NYT). Kurz darauf teilte es Bosworth auch selbst (Facebook).

Warum das wichtig ist: Führende Mitarbeiter der großen Tech-Unternehmen halten sich mit eindeutigen politischen Aussagen zurück. Aus den öffentlichen Äußerungen von Mark Zuckerberg, Tim Cook oder Sundar Pichai kann man zwar eine (für US-Verhältnisse) liberal-progressive Haltung ableiten, eine Wahlempfehlung würden sie aber niemals abgeben (nur Jeff Bezos verbindet eine innige Abneigung mit Trump). Dafür ist die US-Gesellschaft viel zu polarisiert: Wer sich klar positioniert, bringt die Hälfte der Bevölkerung gegen sich auf.

Umso bemerkenswerter sind Bosworths Äußerungen, der mehrfach betont, dass er Trump ablehnt. Sein Wort hat bei Facebook Gewicht: Bosworth war während der US-Wahl 2016 für Facebooks Anzeigengeschäft zuständig. Heute leitet er die Sparte für virtuelle und erweiterte Realität. Er gilt als enger Vertrauter Zuckerbergs.

Das Memo ist deshalb aus drei Gründen interessant:

  1. Es ermöglicht einen seltenen Einblick in die Gedankenwelt eines Menschen, der maßgeblichen Einfluss auf Facebooks Entscheidungen hat.
  2. Was Bosworth sagt, ist nicht nur seine Privatmeinung, sondern dürfte stellvertretend für das stehen, was viele Facebook-Mitarbeiterïnnen denken. Diese Binnenperspektive, vor allem die interne Wahrnehmung der medialen Berichterstattung über Facebook, wird sonst selten bekannt.
  3. Ich stimme Bosworth nicht in allen Punkten zu. Viele Dinge, die er anspricht, finde ich aber wichtig und richtig – etwa in Bezug auf russische Trolle, Falschnachrichten und personalisierte Wahlwerbung.

Was Bosworth schreibt: Wer über Facebook berichtet, mit Facebook arbeitet oder sich dafür interessiert, wie Facebook tickt, sollte sich zehn Minuten Zeit nehmen und das komplette Memo lesen. Für alle andere fasse ich die wichtigsten Aussagen hier zusammen:

Donald Trump

  • „Ich bin kein Fan von Trump“, schreibt Bosworth. Dennoch müsse man die „unglaublichen Arbeit“ anerkennen, die Trump und Brad Parscale geleistet hätten, der 2016 Trumps digitalen Wahlkampf verantwortete.
  • Facebook sei für Trumps Wahlsieg verantwortlich, aber nicht aus den Gründen, die öffentlich diskutiert würden. Russland, Desinformation oder Cambridge Analytica hätten keine Rolle gespielt.
  • Trump sei gewählt worden, „weil er die beste digitale Anzeigenstrategie hatte, die ich je gesehen habe.“ Trump habe nicht gewonnen, weil er Falschinformationen verbreitete, sondern weil er Facebooks Werkzeuge bestmöglich nutzte.

Russland und „Fake News“

  • Russland habe versucht, die US-Wahl zu manipulieren. Die Trolle der IRA und Wahlwerbung auf Facebook seien dabei längst nicht so wichtig gewesen, wie es Medien dargestellt hätten.
  • „100 000 Werbedollar können ein mächtiges Werkzeug sein, aber dafür kann man sich keine US-Wahl kaufen“, schreibt Bosworth. Ausländische Akteure hätten die US-Gesellschaft auf andere Art und Weise spalten wollen, etwa indem sie in derselben Stadt eine Black-Lives-Matter-Kundgebung und eine Protestveranstaltung organisierten.
  • Der Großteil der Falschinformationen, die auf Facebook im Umlauf waren, sei nicht politisch, sondern ökonomisch motiviert gewesen. Hier habe Facebook Fehler gemacht und hätte Seiten, die Nutzerïnnen mit frei erfundenen Nachrichten auf Webseiten voller Werbung lockten, konsequenter abstrafen sollen.

Cambridge Analytica

  • Bosworth hält die Aufregung über die dubiose Datenfirma übertrieben: „Tatsächlich ist Cambridge Analytica ein totales Nicht-Ereignis (…) Sie haben Schlangenöl verkauft. Ihre Werkzeuge haben nicht funktioniert. Alles, was sie über sich selbst behauptet haben, ist Unsinn.“
  • Facebooks interne Daten zeigten, dass die Anzeigen von Cambridge Analytica nicht besser funktioniert hätten als die von anderen Unternehmen. In vielen Fällen hätten sie sogar schlechter performt.
  • Obwohl fast alle Details, die zu dem angeblichen Skandal im Umlauf sind, falsch seien, könne Facebook die Kritik nicht einfach ignorieren. Cambridge Analytica habe sich sensible Daten von Nutzerïnnen über eine offene Schnittstelle verschafft, die Facebook früher hätte schließen müssen.
  • Im Jahr 2020 erscheine es verrückt, dass Facebook diese Schnittstelle für Entwicklerïnnen überhaupt erst geöffnet habe – vor acht Jahren habe Facebook aber eine Menge Zuspruch dafür erhalten.

Politische Werbung

  • Politikerïnnen sind von Facebooks Faktenchecks ausgenommen (mehr dazu in Briefing #589 und #590). Sie dürfen nicht nur fast alles behaupten, was sie wollen, sondern können sogar dafür bezahlen, damit mehr Menschen ihre Lügen lesen: Selbst Anzeigen werden nicht geprüft.
  • Wenn es nach Bosworth geht, ist das auch richtig so. Er sei „verzweifelt“ versucht, alle Mittel zu nutzen, um eine Wiederwahl von Trump zu verhindern. Aber Facebook dürfe seine Macht nicht nach eigenem Gutdünken einsetzen.
  • Genau wie die Elbenkönigin Galadriel im Herrn der Ringe der Versuchung widersteht, den Ring der Macht an sich zu nehmen, müsse Facebook standhaft bleiben, „um nicht zu dem zu werden, was wir fürchten“.
  • Es gebe durchaus Grenzen der Redefreheit, die auch für Politikerïnnen gelten müssten, etwa offene Aufrufe zur Gewalt. Bosworth hält es aber für gefährlich, wenn Facebook entscheide, was wahr und was falsch ist.
  • Medien unterstellten Facebook oft ökonomische Motive, weil es Wahlwerbung im Gegensatz zu Twitter und Google nicht verbietet oder reguliert. Als ehemaliger Leiter von Facebooks Anzeigengeschäft könne Bosworth „in diesem Fall mit Sicherheit sagen, dass die Kritiker falsch liegen.“
  • Bei der Regulierung von politischer Werbung gehe es nicht um Geld. Da Facebook diese Gespräche aber nur intern führe, müsse man der Presse die Fehlschlüsse verzeihen.

Filterblasen

  • Die Furcht vor Filterblasen sei ein Mythos, der leicht zu widerlegen sei, glaubt Bosworth. In analogen Zeiten hätten Menschen meist nur eine Zeitung gelesen oder einen Fernsehsender gesehen.
  • Tatsächlich habe das Internet die Meinungsvielfalt erhöht. Entgegen der öffentlichen Auffassung kämen Facebook-Nutzerïnnen mit mehr Berichten in Kontakt, die ihrer eigenen Überzeugung widersprechen.
  • Darin liege das viel größere Problem: Polarisierung sei gefährlicher als vermeintliche Echokammern.
  • Andere Meinungen präsentiert zu bekommen, führe nicht automatisch zu mehr Empathie, sondern löse meist das Gegenteil aus: „Jedes Mal, wenn ich etwas von Breitbart lese, werde ich zehn Prozent liberaler.“
  • Facebook müsse seine Algorithmen nicht unbedingt verändern. Es sei aber sinnvoll, transparenter zu machen, welche Daten und Faktoren Einfluss auf die Inhalte haben, die Menschen in ihrem Newsfeed sehen.

Nikotin oder Zucker

  • Alle paar Monate werden soziale Netzwerke (oder wahlweise auch Smartphones) mit tödlichen Drogen verglichen: Digitale Süchte seien genauso gefährlich wie Rauchen und Alkoholkonsum.
  • Bosworth hält das für „zutiefst beleidigend“ für Betroffene. Er habe Familienangehörige, die alkoholabhängig gewesen seien. Den Begriff Sucht dürfe man nicht leichtfertig verwenden.
  • Die bessere Analogie sei Zucker: für die meisten Menschen ein Genuss, in Maßen konsumiert keine tödliche Gefahr, im Übermaß gefährlich.
  • Zucker zu verbieten, sei paternalistisch. Alle Menschen könnten frei wählen, wie sie sich ernähren.
  • „Menschen zu ermöglichen, ihre eigenen Entscheidungen zu treffen, ist gut, aber zu versuchen, ihnen Entscheidungen aufzuzwingen, funktioniert fast nie.“

Be smart: Genau wie Bosworth glaube ich nicht, dass Trump seine Wahl russischen Trollen, Falschnachrichten und den Datentricks von Cambridge Analytica zu verdanken hat. Dieses Narrativ hält sich leider bis heute.

Auch seinen Ausführungen über Filterblasen stimme ich weitgehend zu. 2017 haben Hakan Tanriverdi und ich vor dem „Filterblasen-Lamento“ gewarnt (SZ):

„Nicht jeder Ton des Lieds ist schief, aber die Platte hat einen Sprung: Seit Jahren hört sich ein Großteil der Kritik gleich an, sie ignoriert aktuelle Forschungsergebnisse und blendet aus, dass Menschen auch in prädigitalen Zeiten dazu neigten, sich mit Gleichgesinnten zu umgeben. Das ist schade, denn Facebook hat sehr wohl eine Verantwortung, und Algorithmen können gefährlich werden. Doch um diese Entwicklung zu beleuchten und zu hinterfragen, braucht es nicht mehr Dystopie, sondern mehr Differenzierung.“

Was Bosworth über politische Werbung sagt, ist dagegen schräg. Er hat Recht, dass ein Verbot oder eine Regulierung nicht alle Probleme löst. Ich glaube ihm auch, dass es Facebook nicht ums Geld geht (politische Anzeigen machen 0,5 Prozent des Jahresumsatzes aus). Trotzdem macht er es sich und Facebook viel zu einfach, wie dieser Absatz zeigt:

If we don’t want hate mongering politicians then we must not elect them. If they are getting elected then we have to win hearts and minds. If we change the outcomes without winning the minds of the people who will be ruled then we have a democracy in name only. If we limit what information people have access to and what they can say then we have no democracy at all.

Bosworth tut so, als sei Facebook eine Plattform, die allen Politikerïnnen die gleichen Chancen biete. Je weniger Facebook, eingreife, desto fairer sei das für alle Beteiligten. Die Macht von Facebook sei zu groß, um sie zu nutzen.

Dabei verkennt Bosworth, dass Facebook seine Macht längst aus der Hand gegeben hat. Die Plattform ist eben nicht neutral, sondern verstärkt Emotionen, vor allem Wut und Empörung. Wer am lautesten schreit und am schamlosesten lügt, gewinnt: Seit Donald Trump im Amt ist, hat er mehr als 15.000 Lügen und irreführende Behauptungen in die Welt gesetzt (Washington Post) – und genau mit dieser Strategie dürfte er auch in den kommenden Wahlkampf gehen.

Zumindest scheinen Bosworths Ansichten auch innerhalb von Facebook umstritten zu sein. Sowohl die New York Times als auch er selbst schreiben, dass unter seinem Posting Dutzende Angestellte widersprochen hätten. Diese Kommentare hätten „seine Meinung geändert“, sagt Bosworth.

Autor: Simon Hurtz

Die neuen Cambridge-Analytica-Dokumente

Was ist: Am Dienstag schrieben wir in Briefing #603:

„Wir haben die bislang verfügbaren Daten heruntergeladen, konnten sie aber nur oberflächlich betrachten – eine umfassende Analyse braucht schlicht mehr Zeit. Da die Aufregung über die angebliche Manipulation der US-Wahl 2016 deutlich größer war, als es der Anlass rechtfertigte, raten wir erstmal zur Vorsicht: Cambridge Analytica ist nur eines von vielen vergleichbaren Datenunternehmen, und noch immer fehlen seriöse Belege, dass sich Wählerïnnen wirklich so leicht manipulieren lassen, wie Datengurus und manche Medienberichte nahelegen.“

Mittlerweile habe ich das veröffentlichte Material in Ruhe gesichtet und meine Erkenntnisse aufgeschrieben (SZ

Scroll to Top