Facebook ist eine Blackbox – und das ist gefährlich

Was ist

Facebook hat einen Bericht vorgelegt, um den Eindruck entgegenzutreten, dass die Plattform eine Echokammer für rechte Hetze und Verschwörungsideologien ist. Doch die Zahlen werfen mehr Fragen auf, als sie beantworten. Zu allem Überfluss kommt auch noch heraus, dass Facebook eine ähnliche Auswertung für das erste Quartal unter Verschluss gehalten hat – angeblich, weil die Verantwortlichen ein PR-Desaster befürchteten.

Warum das wichtig ist

Das T in Facebook steht für Transparenz: Dass Facebook Forschenden, Medien und Öffentlichkeit ungern Einblick in die eigene Plattform gewährt, ist bekannt. Doch während einer Pandemie und vier Wochen vor der Bundestagswahl ist das besonders problematisch. Niemand außer Facebook (und womöglich nicht mal das) weiß, wie viele Menschen Desinformation ausgesetzt sind – und Forschungsprojekten, die versuchen, das Netzwerk zu durchleuchten, entzieht Facebook den Zugang.

Was die aktuelle Kontroverse ausgelöst hat

Um zu verstehen, warum mal wieder über Facebooks fragwürdiges Verständnis von Transparenz diskutiert wird, muss man vier Erzählstränge miteinander verweben: die Veröffentlichung des "Widely Viewed Content Report", die Rolle von Kevin Roose, die Abwicklung von CrowdTangle und einen zweiten Bericht, der nie veröffentlicht wurde.

1. Die Veröffentlichung des Widely Viewed Content Report

  • Vergangene Woche legt Facebook den Widely Viewed Content Report (FB) vor, der zeigen soll, wie viele Menschen welche Inhalte sehen.
  • Die Reaktionen fielen anders aus, als Facebook es sich erhofft hatte. "Das ist so, als veröffentlichte ExxonMobil ihre eigene Studie zum Klimawandel", sagt ein ehemaliger Facebook-Mitarbeiter (Washington Post).
  • Auch Brian Boland, von 2009 bis 2020 in führenden Positionen bei Facebook tätig, hält den Report für einen "PR-Stunt" (Medium). Die Daten seien weitgehend wertlos und verschleierten, statt aufzuklären.
  • Tatsächlich mutet der Bericht in Teilen seltsam an. Unter anderem enthält er die 20 Domains, die am öftesten in Newsfeeds auftauchten, darunter so überraschende Seiten wie YouTube, TikTok, Twitter und Spotify. Menschen teilen Videos, Tweets und Musik? Ach was!
  • Diese Domain-Listen seien ziemlich nutzlos, meint auch Ethan Zuckerman, der den Bericht in seinem Blog auseinandernimmt: "If the domain list included a thousand URLs, perhaps, we might be able to compare attention to a mainstream news site like CNN to a fringe newssite like the Dan Bongino podcast. But with only 20 domains (…) it’s very hard to know what’s going on."
  • Interessanter sind die Top 20 der einzelnen Links, die einige Kandidaten enthalten, mit denen wohl kaum jemand gerechnet hätte – auf Platz 1 die Promo-Seite ehemaliger NFL-Spieler der Green Bay Packers, direkt gefolgt von einem Hanf-Shop. Auch ein christlicher Online-Shop und eine Seite, auf der man ein Abo für die Propaganda-Schleuder Epoch Times abschließen kann, sollen jeweils mehr als 40 Millionen Mal gesehen worden sein.
  • Kurzum: Facebook scheint ein ernsthaftes Problem mit Spam zu haben (Twitter / Kevin Roose). Das ist erstaunlich (wobei: bei genauerem Nachdenken vielleicht auch nicht (Charlie Warzel)), lässt aber kaum Rückschlüsse darauf zu, ob Biden recht hatte, als er Facebook kürzlich vorwarf, durch die Verbreitung von Impf-Desinformation "Menschen zu töten" (wir glauben: eher nicht, mehr dazu in Briefing #735).
  • Eine weitere spannende Erkenntnis: Der Großteil der 20 Postings mit den meisten Views ist dreist geklaut. Es finden sich alte Memes oder abgeschriebene Sprüche, die zuerst auf Reddit, Twitter oder Quora geteilt wurden.
  • Eigentlich passt das gut zu Facebook, das selbst ständig Funktionen von der Konkurrenz kopiert. Trotzdem bleibt am Ende eine ernüchternde Erkenntnis (Platformer):

Steal some questions that went viral somewhere else, spam them on your page, and presto: you’re one of the most-viewed links for the entire quarter on the world’s biggest social network.

2. Die Rolle von Kevin Roose

  • Der NYT-Reporter geht Facebook seit Jahren auf die Nerven, weil er mithilfe des Tools CrowdTangle auswertet, welche Inhalte am häufigsten gelikt, geteilt und kommentiert werden.
  • Seit gut einem Jahr veröffentlicht Roose über den Twitter-Account @FacebooksTop10 täglich eine Liste mit den Quellen, die hinter den erfolgreichsten Facebook-Postings stecken. An vielen Tagen dominieren rechte bis rechtsradikale Portale und Persönlichkeiten wie Breitbart, Dan Bongino und Ben Shapiro.
  • Wenig überraschend gefällt das Facebook gar nicht. Immer wieder erklärten hochrangige Manager, warum die Zahlen angeblich in die Irre führen (The Verge). Und natürlich haben sie einen Punkt: Die Zahl der Interaktionen ist nicht gleichzusetzen mit der Reichweite von Inhalten.
  • Allerdings bleiben sie eine Erklärung schuldig, warum die Interaktionen keine Aussagekraft haben sollen. Roose behauptet schließlich nicht, dass er die reichweitenstärksten Postings sammelt, sondern eben jene mit den meisten Likes, Shares und Kommentaren. Facebook stellt diese Zahlen prominent dar, sie beeinflussen die Algorithmen und sind eine wichtige Metrik.
  • Wir wundern uns auch deshalb über die Argumentation, weil sich Facebook von seinen eigenen Zahlen (CrowdTangle gehört seit 2016 zu Facebook) falsch dargestellt fühlt, aber lange Zeit keine Alternativen anbot, obwohl Roose und Hunderte andere Journalistïnnen genau das seit Jahren fordern.
  • Durch die Veröffentlichung des Content-Reports fühlt sich Roose gewissermaßen geehrt (Futureproof). Noch nie habe ein Milliardenkonzern so viel Zeit und Mühe investiert, um ihn wie einen Idioten aussehen zu lassen.

3. Die Abwicklung von CrowdTangle

  • Je mehr Follower @FacebooksTop10 sammelte und je lauter die Rufe nach Transparenz wurden, desto heftiger debattierten Facebooks Verantwortliche intern.
  • Wir müssen der Öffentlichkeit sagen, was auf unserer Plattform los ist, argumentierte die eine Seite. Bloß nicht, hielten andere Manager dagegen. Zu viel Transparenz sei gefährlich, die Zahlen könnten das Image von Facebook weiter beschädigen.
  • Die Geheimniskrämer setzten sich durch: Vor einem Monat löste Facebook das CrowdTangle-Team auf (NYT) und verteilte Dutzende Angestellte über andere Abteilungen.

4. Der ominöse zweite Bericht

  • Neben dem aktuellen Bericht für das zweite Quartal wurde eine Auswertung für die ersten drei Monate erarbeitet, aber nie veröffentlicht.
  • Das kam nur heraus, weil das Dokument der NYT zugespielt wurde – samt internen E-Mails, denen zufolge Facebook den Bericht zurückhielt, weil es negative Schlagzeilen fürchtete.
  • Auf die Frage, warum die Zahlen zurückgehalten wurden, sagt ein Sprecher, Facebook habe erwogen, den Report früher öffentlich zu machen. Angesichts der zu erwartenden Aufmerksamkeit habe man aber noch Korrekturen am System vornehmen wollen.
  • Diese Antwort bezieht sich offensichtlich auf das Dokument für das zweite Quartal, den Facebook selbst veröffentlichte, und nicht auf den Vorgänger, auf den die Frage abzielte.
  • Mittlerweile hat Facebooks Kommunikations-Chef Andy Stone einen Dropbox-Link geteilt, der den Q1-Report enthält. Sein Tweet wurde einmal gelikt und dürfte einen verschwinden geringen Anteil der mehr als 2,8 Milliarden Menschen erreicht haben, die Facebook nutzen.
  • Darüber hinaus plant Facebook keine weitere Veröffentlichung und wird auch in seinem Firmenblog nicht darauf hinweisen.
  • Dabei ist der Bericht selbst kein Skandal, den Facebook hätte vertuschen müssen. Dafür wäre es ohnehin zu spät: Der Streisand-Effekt hat mit voller Wucht zugeschlagen. Der Report, den Facebook geheim halten wollte, erhält nun erst recht jede Menge Aufmerksamkeit.
  • Viele Medien stürzen sich darauf, dass der am meisten gesehene Link des ersten Quartals 2021 zu einem Artikel der Chicago Tribune führt, der fälschlicherweise suggerierte, ein Arzt sei an den Nebenwirkungen der Corona-Impfung gestorben.
  • Wir fragen uns aber, ob es fair ist, Facebook für schlechten Journalismus verantwortlich zu machen. Natürlich trägt Facebook eine Mitverantwortung, weil die Algorithmen solche Desinformation und irreführenden Meldungen verstärken, die starke Emotionen auslösen und entsprechend viele Interaktionen auslösen.
  • Doch das Kernproblem ist in dem Fall eher die fürchterliche Überschrift des Artikels. Zu Recht fragt Joshua Benton (Nieman Lab): "Why in the world is that more embarrassing for Facebook than it is for the Chicago Tribune?"
  • Wir halten es mit Mike Masnick, der bei Techdirt das Schlusswort spricht:

We're not going to solve the problems associated with a bunch of people believing in nonsense if we ignore the underlying parties responsible for the content itself, and focus just on the intermediaries. That doesn't mean to ignore Facebook, but it's a reminder to view the overall ecosystem.

Wie Facebook unabhängige Forschung behindert

  • Facebook lässt sich ungern in die Karten schauen. Das gilt nicht nur für Nutzerïnnen und Medien, sondern auch für die Wissenschaft.
  • Die Initiative Social Science One, die unabhängige Studien ermöglichen soll, kommt seit Jahren nur langsam voran. Einige Forscherïnnen, darunter der Deutsche Simon Hegelich, werfen Facebook vor (Political Data Science), kein echtes Interesse an Transparenz zu haben.
  • Allein in den vergangenen Wochen wurden drei Projekte gestoppt, die Facebook oder Instagram untersuchen wollten. Zuerst sperrte Facebook mehrere Wissenschaftlerïnnen der NYU aus (NYT), die über die Browser-Erweiterung AdObserver Daten sammeln wollten.
  • Kurz darauf warfen Wissenschaftlerïnnen aus Princeton von sich aus hin (Digiday). "It doesn’t make sense for us to do research for six months and then not be able to publish it", sagte einer der beteiligten Forscher.
  • Auch in Deutschland fühlen sich Forschende behindert: Die NGO AlgorithmWatch wollte untersuchen, wie der Instagram-Algorithmus funktioniert (SZ). Vor zwei Wochen beendete AlgorithmWatch die Datensammlung, weil man juristische Konsequenzen fürchtete. Facebook bestreitet (Spiegel), mit einer Klage gedroht zu haben.
  • Mit einem offenen Brief ruft AlgorithmWatch nun Mitglieder des EU-Parlaments und Regierungen der EU-Mitgliedstaaten auf, Forschung im öffentlichen Interesse zu ermöglichen. Zwei Dutzend Organisationen wie die Mozilla Foundation und Wikimedia haben mitgezeichnet, dazu bislang mehr als 1100 Einzelpersonen.

Be smart

Wenige Journalistïnnen haben so viele Quellen bei Facebook wie Casey Newton. Kürzlich schrieb er in seinem Newsletter Platformer:

No one I have spoken to at Facebook believes that NYU’s work is not fundamentally in the public interest.

Tatsächlich wäre es zu einfach, Facebook zu unterstellen, es behindere mutwillig Forschung. Der Konzern argumentiert mit Datenschutz, und mit der Cambridge-Analytica-Affäre im Hinterkopf fällt es schwer, den Einwand komplett vom Tisch zu wischen. Schließlich waren es auch damals Schnittstellen, die für Dritte geöffnet wurden, über die schließlich sensible Daten abflossen.

Die gleichen Kritikerïnnen, die Facebook auch drei Jahre nach Cambridge Analytica noch die damaligen Fehler vorhalten, fordern nun lautstark, dass Facebook alle Datenschleusen für die Forschung öffnen soll. (Das ist natürlich etwas zugespitzt, ein Teil der Kritikerïnnen argumentiert differenziert. Aber es beschreibt das Dilemma, in dem Facebook sich befindet.)

Um unser schlechtes Wortspiel noch mal aufzugreifen: Das Transparenz-T findet man höchstens bei Instagram. Aber das O in Facebook könnte auch für Offenheit stehen (sogar doppelt) – und das läge womöglich auch in Facebooks eigenem Interesse. Denn solange Facebook mauert, werden Medien spekulieren und womöglich ein allzu düsteres Bild zeichnen. Also hoffen wir auf bessere Content-Reports und mehr Intiativen wie Facebook Open Research and Transparency (The Verge).


Warum Menschen in Afghanistan ihre Social-Media-Profile löschen

Was ist

  • Die Taliban haben die Macht übernommen, und Millionen Menschen müssen um ihr Leben fürchten. Verzweifelt versuchen sie zu fliehen, unterzutauchen oder alle Spuren zu verwischen, die darauf hindeuten, dass sie beim Militär oder Hilfsorganisationen beschäftigt waren, als Ortskräfte für westliche Demokratien gearbeitet haben oder auch nur die falschen Freundïnnen hatten.
  • Dabei durchsuchen die Taliban nicht nur Wohnungen, sondern alle sozialen Netzwerke. So archaisch die Terrormiliz politisch daherkommt, so versiert ist sie im Umgang mit modernen Medien (NYT).
  • Wie fast alle extremistischen Organisationen haben sie genau verstanden, wie sie Social Media für ihre Propaganda nutzen können (Washington Post) – und wie sie dort Menschen aufspüren können, die nicht mit ihrer radikalen Ideologie übereinstimmen.
  • Deshalb löschen Menschen massenhaft alte Postings und Fotos (NBC), verbergen ihre Social-Media-Profile oder entfernen Daten von ihren Smartphones.
  • Dabei gibt es zwei Probleme: Erstens sind komplett leere Handys und Konten ohne Inhalte verdächtigt. Zweitens ist es teils gar nicht so einfach, Accounts auf privat zu stellen, Freundeslisten zu verbergen oder frühere Beiträge zu löschen – erst recht nicht auf der Flucht, ohne Strom und in ständiger Angst, entdeckt zu werden.

Was die Plattformen unternehmen

  • Facebooks Sicherheitschef Nathaniel Gleicher nennt in einem längeren Twitter-Thread einige der Maßnahmen, die Facebook ergriffen hat. Unter anderem können Nutzerïnnen in Afghanistan ihren Account nun mit einem Klick verbergen, sodass niemand ihr Profilfoto oder ihre Postings sehen kann.
  • Außerdem ist es in ganz Afghanistan nicht mehr möglich, Freundeslisten anzuzeigen und zu durchsuchen.
  • Instagram informiert Nutzerïnnen mit Pop-ups, wie sie ihren Account schützen können. Clubhouse hat die Profile Zehntausender Menschen auf privat gestellt (The Verge) und Bio und Fotos verborgen. Auch US-Behörden säubern ihre Webseiten von Fotos (Heise), die Zivilistïnnen gefährden können.
  • Zudem sperrten alle großen Plattformen und auch Messenger wie WhatsApp Konten der Taliban. Sie stufen die Gruppierung seit Jahren als Terrororganisation ein und löschen Accounts und Inhalte, die mit den Taliban assoziiert sind, selbst wenn sie für sich genommen nicht gegen die Community Standards verstoßen.
  • Unklar ist, was geschehen wird, wenn die Taliban die Regierung stellen. Dann müssen die Tech-Konzerne etwa abwägen, ob sie den Taliban die Kontrolle über die offiziellen Regierungskonten und -Seiten geben (NDR).

Warum die Selbstzensur so tragisch ist

  • Stell dir vor: Du musst noch heute alle deine Social-Media-Profile und sämtliche Fotos löschen, die du besitzt. Dann verlierst du wertvolle Erinnerungen und einen Teil deiner Identität.
  • Viele Menschen in Afghanistan stehen vor der Wahl: digitale Daten oder eine Chance aufs Überleben (Rest of World). Die Entscheidung ist eindeutig, aber trotzdem schmerzhaft.
  • Doch es gehen nicht nur Erinnerungen verloren, sondern auch wichtige Kommunikationskanäle. Viele Afghanïnnen halten über Messenger und Social Media Kontakt zu ihren Freundïnnen und Verwandten im Ausland.
  • Teils müssen sie auch Dokumente verschicken, damit ihre Verwandte ein Visum oder Einreiseerlaubnis beantragen können. Wenn sie dafür ihr Smartphone nutzen, bringen sie sich in Gefahr – und wenn sie es nicht nutzen, bringen sie sich um die kleine Chance, das Land zu verlassen.

Be smart

Seit Jahren warnen Bürgerrechtlerinnen und Datenschützer auch in Deutschland: Wir müssen aufhören, alle verfügbaren Daten zu sammeln. Gesichtserkennung und Massenüberwachung sind gefährlich. Was ist, wenn diese Daten in die falschen Hände fällen, fragen sie.

In einer Demokratie klingt das nach einer sehr hypothetischen Gefahr. In Afghanistan ist genau dieses Albtraum-Szenario wahr geworden. Die Taliban sollen biometrische Technik des US-Militärs erbeutet haben (The Intercept). Womöglich können sie sogar auf zentrale Datenbanken zuzugreifen, in denen biometrische Daten wie Fingerabdrücke und Iris-Scans gespeichert sind.

Wir empfehlen zu diesem Thema die umfangreiche Analyse von Meike Laaff und Jakob von Lindern (Zeit Online) und den pointierten Kommentar von Patrick Beuth (Spiegel), der mahnend endet:

Es geht nicht nur darum, was heute in einer Datenbank steht, sondern darum, ob das irgendwann mal jemandem als verdächtig gelten könnte. Es geht nicht darum, wie selten eine neue Überwachungsinfrastruktur im Jahr nach ihrer Einführung genutzt wird. Es geht darum, wie häufig das passiert, wenn diejenigen, die sie beschlossen haben, nicht mehr im Amt sind. Gesetzgeber müssen aufhören, nur sich selbst in ihrer Rolle zu sehen. Sind Daten erst einmal in die falschen Hände geraten, ist es dafür zu spät.


Social Media und Politik


Schon einmal im Briefing davon gehört

  • Micro Podcasting: Nicht nur Short-Form-Video liegt voll im Trend: auch kurze Podcasts sind gerade en vogue (The Verge).
  • Billboard Creator Charts: Der Einfluss von Influencerïnnen auf die Musikindustrie ist nicht erst seit TikTok gigantisch. Um diese Realität besser abzubilden, führt Billboard die sogenannten Creator Charts ein.
  • OnlyFans: Nein, doch, oh!!! Es wird auch weiterhin Adult Content bei OnlyFans (Techcrunch) geben. Allen Kontroversen zum Trotz.
  • Facebooks Datenbrille erinnert stark an Snapchats Spectacles und soll Gemini (Protocol) heißen.

Neue Features bei den Plattformen

Twitter

  • Ticketed Spaces: Twitter beginnt mit der Einführung von kostenpflichtigen Spaces (Techcrunch).
  • Spaces entdecken: Zudem testet Twitter eine Option (@TwitterSpaces), um mehr Menschen dazu zu bringen, Spaces zu nutzen: Wenn jemand, dem du folgst, einem Space beiwohnt, könnte dir das künftig ganz oben im Feed angezeigt werden.
  • Mehr Abonnentïnnen: Twitter testet eine stärkere Integration des hauseigenen Newsletter-Services Revue: Künftig können Nutzerïnnen wohl ihren Newsletter direkt im Profil bewerben (Techcrunch).
  • Bessere DM-Funktionen: Twitter rollt eine Reihe neuer Funktionen aus, um das Verschicken von DM zu vereinfachen: u.a. soll es künftig leichter werden, einen Tweet an viele unterschiedliche Leute per DM zu verschicken.

Facebook

  • 10 Jahre Messenger: Der Messenger feiert Geburtstag. Facebook feiert sich selbst und spendiert eine Reihe neuer Features (Facebook Newsroom) – darunter eine Umfrage-Funktion, „Birthday Expression Tools“ und neue Möglichkeiten, Kontakte zu teilen.
  • Telefonieren mit Facebook Blue: Bislang war die Funktion an den Messenger ausgelagert – nun könnte eine Telefon-Funktion auch wieder in die Haupt-App integriert werden (Bloomberg).

Snapchat

TikTok

  • Hast du mal 5 Minuten? TikTok testet 5-Minuten-Videos (@MattNavarra). Keine wirkliche Überraschung.
  • Mehr Realität: TikTok arbeitet an AR-Features (Gizmodo), die wir in der Form bereits von Snapchat kennen.

Instagram

  • Mehr finden: Facebooks Such-Funktionen sind ja in aller Regel ein ziemlicher Griff ins Klo. Das soll sich (TikTok sei Dank) zumindest bei Instagram jetzt ändern. Insta-Boss Mosseri gewährt einen Blick hinter die Kulissen und verspricht bessere Suchergebnisse (Instagram Newsroom), die in der Aufbereitung stark an TikTok erinnern.
  • Stories liken: Nachdem Instagram mit viel Tamtam darüber nachgedacht hatte, Likes abzuschaffen, testen sie nun die Einführung von Likes bei Stories (@alex193a). Äh, ja. Genau. Verstehen wir auch nicht.
  • Status posten: An anderer Stelle testet Instagram, ob Nutzerïnnen gern einen WhatsApp-mäßigen Status posten (digitalinformationworld) möchten. Keine Ahnung. Bin im Fitnessstudio.
  • Goodbye Swipe-up! Instagram beerdigt die Swipe-Up-Fuktion, um auf Inhalte zu verlinken. Stattdessen soll künftig der vor einigen Wochen eingeführte Link-Sticker standardmäßig für Verlinkungen genutzt werden (The Verge).

Header-Foto von Cristina Gottardi bei Unsplash