Facebook spürt die Risiken und Nebenwirkungen seiner eigenen Größe

Was ist

In den vergangenen Tagen gab es bei Facebook drei Entwicklungen, die auf den ersten Blick wenig miteinander zu tun haben:

  1. Facebook hat sich dafür entschuldigt, dass die Plattform in Sri Lanka missbraucht wurde, um Gerüchte und Hass zu streuen – mit tödlichen Konsequenzen.
  2. Facebook will 11.250 Content-Moderatorïnnen (CM) insgesamt 35 Millionen Dollar für die Traumata und anderen psychischen Folgeschäden zahlen, die ihre belastende Arbeit hinterlassen hat.
  3. Facebook hat die ersten 20 Mitglieder seines Oversight-Boards bekanntgeben, das eine Mischung aus Aufsichtsrat und Verfassungsgericht darstellen wird.

Wie das zusammenhängt

Alle drei Nachrichten zeigen (erneut): Facebook ist sich selbst über den Kopf gewachsen. Binnen eines Jahrzehnts hat sich das einstige Start-up in die wohl wichtigste globale Kommunikationsplattform verwandelt – erst recht, wenn man WhatsApp und Instagram dazuzählt.

Jede Entwicklung hängt mit dem gigantischen Ausmaß zusammen, das es Facebook schwer macht, die Risiken und Nebenwirkungen seiner eigenen Existenz zu kontrollieren:

  1. Das US-Unternehmen Facebook hat lange zu wenig darauf geachtet, wie Menschen in Schwellen- und Entwicklungsländern seine Dienste nutzen. Diese blinden Flecken haben dazu geführt, dass Extremistïnnen offen zu Gewalt aufrufen konnten, etwa in Indien, Myanmar und eben Sri Lanka.
  2. 2,5 Milliarden Nutzerïnnen hinterlassen leider auch jede Menge Dreck, den CM beseitigen müssen. Das gilt auch für kleinere soziale Netzwerke, doch je größer die Reichweite, desto schwerer die Aufgabe – und niemand ist so groß wie Facebook.
  3. Jahrelang wollte Facebook eine möglichst neutrale Plattform sein und keine Verantwortung für Inhalte übernehmen – teils sogar verständlich, aber zunehmend unmöglich: Der Einberufung des Oversight-Boards liegt die Erkenntnis (und viel öffentlicher Druck) zugrunde, dass Facebooks eigene Community-Standards nicht reichen, dass es externe Kontrolle braucht.

Trotz dieser verbindenden Meta-Ebene wollen wir die Nachrichten separat betrachten und erst im abschließenden Fazit noch einmal auf das große Ganze blicken.

1. Facebooks Rolle in Sri Lanka

  • Die Überschrift „An Update on Facebook’s Human Rights Work in Asia and Around the World“ klingt nach einer eher kleinteiligen Wasserstandsmeldung zu einem mit Sicherheit wichtigen, aber eben auch sehr komplexen Thema.
  • Zentral ist dieses Statement, das Facebook Bloomberg gegeben hat:

We deplore this misuse of our platform. We recognize, and apologize for, the very real human rights impacts that resulted.

  • Das ist beileibe nicht die erste öffentliche Entschuldigung von Facebook (Bloomberg). Aber nachdem das Unternehmen in der Vergangenheit meist nur anerkannte, dass es zu langsam reagiert habe (unter anderem auf russische Manipulationsversuche, auf die Cambridge-Analytica-Affäre, auf den Genozid in Myanmar, auf Gewaltausbrüche in Indien und Nigeria), erkennt es seine unrühmliche Rolle in Sri Lanka ungewohnt deutlich an.
  • Neben diesem Eingeständnis veröffentlicht Facebook weitere Berichte, die untersuchen, welchen Einfluss die Plattform auf Menschenrechte in Indonesien und Kambodscha hatte.
  • Dafür arbeitet das Unternehmen mit unabhängigen Menschenrechtsorganisationen und gemeinnützigen Beratungsfirmen zusammen. Sie attestieren Facebook Fortschritte, etwa im Bereich der CM und der Bekämpfung von Desinformation.

2. Facebooks symbolisches Schmerzensgeld

  • 52 Millionen Dollar für 11.250 CM – es gibt viele Möglichkeiten, diese Zahlen zu interpretieren. Zunächst sollte man verstehe, wie die Summe zustandegekommen ist und wie sie sich zusammensetzt.
  • Im September 2018 verklagte Selena Scola Facebook (NYT). Sie hatte neun Monate für einen Facebook-Dienstleister Inhalte geprüft und eine posttraumatische Belastungsstörung entwickelt. Später schlossen sich weitere CM der Sammelklage an.
  • Die Klägerïnnen werfen Facebook vor, nicht genug unternommen zu haben, um sie vor den Folgen ihrer belastenden und teils traumatisierenden Arbeit zu schützen. Außerdem fordern sie bessere psychologische Betreuung und eine Übernahme der Behandlungskosten.
  • CM müssen täglich, teils unter großen Zeitdruck, Hunderte Inhalte prüfen und kommen dabei mit den dunkelsten Abgründen des Internet in Berührung: Darstellungen von Kindesmissbrauch, Videos, in denen Tiere gequält werden, live gestreamte Suizide oder Hinrichtungen.
  • Nun hat sich Facebook mit den Klägerïnnen geeinigt (The Verge) und damit erstmals eingestanden, dass es in der Vergangenheit zu wenig getan hat, um seine verletztlichsten Mitarbeiterïnnen zu schützen. Das allein ist historisch.
  • Die Summe ist es nicht: Von den 52 Millionen Dollar bleiben nach Abzug der Anwaltskosten 35 Millionen Dollar übrig – deutlich weniger, als Facebook pro Tag verdient.
  • Jeder der gut 11.000 Personen, die seit 2015 in den USA als CM gearbeitet haben, stehen mindestens 1000 Dollar zu, die eine erste ärztliche Behandlung ermöglichen sollen. Je nach Diagnose kann sich die Summe auf bis zu 6000 Dollar erhöhen.
  • Die Anwälte der Klägerïnnen gehen davon aus, dass die Hälfte der CM zusätzliche Zahlungen erhalten wird – anders ausgedrückt: Das Risiko, dass die Arbeit Traumata, Depressionen oder andere psychische Folgeschäden hinterlässt, liegt bei 50 Prozent.
  • Wer die beiden Recherchen von Casey Newton liest, der die Arbeitsbedingungen der CM in Phoenix und in Tampa (beide The Verge) beleuchtet hat, versteht, warum die Tätigkeit so belastend ist.
  • Für die dürftig bezahlten Hilfsarbeiterïnnen, die etwa ein Neuntel des Durchschnittgehalts eines Facebook-Angestellten verdienen, sind 1000 Dollar viel Geld und eine echte Hilfe – hinzu kommt der Symbolwert des Vergleichs, der weitere Klägerïnnen ermutigen könnte.
  • Das Problem geht aber weit über die USA und Europa hinaus – und auch über Facebook. Ein Großteil der CM arbeitet in Schwellenländern, allein in Manila gibt es Zehntausende, die für Facebook, Google und andere Tech-Unternehmen den Schmutz aus dem Netz fischen.
  • Dort sind Bezahlung und Arbeitsbedingungen noch deutlich schlechter, und die öffentliche Aufmerksamkeit kleiner. Facebook und seine Subunternehmer locken CM mit dem Versprechen, dass sie das Netz zu einem besseren Ort machten – in sehr christlichen Ländern wie den Philippinen teils auch noch verbunden mit religiösen Appellen.
  • Unternehmen wie Facebook, die Dutzende Milliarden pro Jahr verdienen, können es sich nicht nur leisten, diese Hilfskräfte besser zu bezahlen und zu betreuen – sie müssen es. Zumindest, wenn sie ihrem eigenen Anspruch, die Welt zu verbessern, gerecht werden wollen.
  • Langfristig arbeiten viele der CM ohnehin daran, ihre eigene Arbeit abzuschaffen. Sie trainieren mit ihren Entscheidungen Maschinen, die künftig sichten, prüfen und löschen soll.
  • Bereits jetzt werden 89 Prozent der Inhalte bei Facebook automatisch von Maschinen gelöscht. Dennoch wird es noch dauern, bevor Software vollständig übernehmen kann: Selbst die klügste künstliche Intelligenz scheitert an Satire und erkennt den Kontext noch nicht zuverlässig genug, um ihr alle Entscheidungen zu überlassen.
  • Die Aussicht, dass Maschinen Menschen verdrängen und über Redefreiheit im Netz entscheiden, kann einem Angst machen – die Vorstellung, dass Zehntausende Menschen eine Arbeit verrichten müssen, die sie traumatisiert, ist aber mindestens genauso erschreckend.

3. Facebooks neue Richterïnnen

  • Seit mehr als anderthalb Jahren arbeitet Facebook an seinem Oversight Board, jetzt stehen die ersten 20 Namen fest (About FB). Die zehn Frauen und Männer (Oversightboard) sollen grundlegende Entscheidungen darüber treffen, wie Facebook und Instagram mit Inhalten umgehen sollen.
  • Die vier Vorsitzenden sind Catalina Botero-Marino, Jamal Greene, Michael W. McConnell und Helle Thorning-Schmidt, die unter anderem in einem Op-ed (NYT) Stellung zu ihrer neuen Aufgabe nehmen.
  • Hinzu kommen 16 weitere Personen aus allen Weltregionen mit großer inhaltlicher Bandbreite: Juristïnnen, Menschenrechtlerïnnen, Politikerïnnen. Darunter sind prominente Namen wie der ehemalige Guardian-Chefredakteur Alan Rusbridger oder die jemenitische Friedensnobelpreisträgerin Tawakkol Karman. 20 weitere Mitglieder sollen folgen.
  • In einem Gastbeitrag für OneZero erklärt Rusbridger, warum er dem Board beigetreten ist. Auch die ehemalige dänische Ministerpräsidentin Helle Thorning-Schmidt gibt in einem Interview (Zeit Online) interessante Einblicke in Auswahlprozess und Erwartungshaltung.
  • Das Gremium wird nur über wenige ausgewählte Fälle entscheiden, die Nutzerïnnen oder Facebook selbst dem Oversight Board vorlegen können. Diese Urteile sollen dann Präzedenzfälle schaffen, an denen sich Facebook bei seiner täglichen Arbeit ausrichten kann.
  • Die Arbeit ähnelt dem eines Verfassungsgerichts, das einen Rechtsrahmen vorgibt, an dem sich andere Richterïnnen orientieren.
  • Allerdings gibt es wichtige Einschränkungen: Zu Beginn wird das Board nur über Inhalte entscheiden, die entfernt wurden – nicht über Fälle, in denen Facebook der Aufforderung zum Löschen widersprochen hat.
  • Damit sind Fälle wie der von Eva Glawischnig, die auf Facebook als „miese Volksverräterin“ beschimpft wurde, zunächst nicht abgedeckt. Facebook weigerte sich bis zu einem EuGH-Urteil, die Beleidigung weltweit zu entfernen.
  • Kritikerïnnen bemängeln, dass wichtige Themen wie Facebooks intransparente, auf Emotionen optimierte Algorithmen oder das Geschäftsmodell des Überwachungskapitalismus, der auf massenhaftem Datensammeln und maximaler Datenverknüpfung beruht, ausgespart bleiben.
  • Das stimmt natürlich – aber die Abwägung zwischen Menschenrechten und Meinungsfreiheit ist eine derart herausfordernde Aufgabe, dass es uns seltsam erscheint, Facebook vorzuwerfen, das Oversight Board nicht mit weiteren Themen zu überfrachten.
  • Natürlich kann man bei jeder Gelegenheit kritisieren, was Facebook alles nicht tut (und das ist eine Menge), aber in diesem Fall soll es darum gehen, was Facebook tut.
  • Ein weiterer Vorwurf lautet, dass Facebook das Gremium nutze, um sich wahrer demokratischer Kontrolle zu entziehen.
  • Auch in diesem Fall gibt es ein Aber: Demokratische Kontrolle in Europa ist schön und gut. Aber wer entscheidet, welche Regierung Demokratie genug ist, um bei der Moderation von Inhalten mitreden zu dürfen? China, Russland, Türkei, Saudi-Arabien? Soll Trump entscheiden, was in den USA auf Facebook gesagt werden darf?
  • Deshalb könnte ein globales und weitgehend unabhängiges Gremium zumindest bei der Frage der Meinungsfreiheit die bessere Alternative sein.
  • Unserem Eindruck nach hat Facebook bei der Entwicklung des Boards vieles richtig gemacht. Der Prozess war transparent, es wurden weltweit Menschen mit unterschiedlichen Perspektiven eingebunden, die Meinungsbildung fand in zahlreichen Workshops geradezu basisdemokratisch statt.
  • Mit dem Oversight Board gibt Mark Zuckerberg einen kleinen Teil seiner nahezu unbeschränkten Machtfülle ab: Die Entscheidungen des Boards sind bindend (allerdings gibt es Einschränkungen, die Alexander Fanta bei Netzpolitik beschreibt).
  • Gleichzeitig gibt Facebook auch Verantwortung ab: In der Vergangenheit war die Moderation von Inhalten immer wieder ein großes Streitthema, bei denen es Facebook seinen Kritikerïnnen kaum Recht machen konnte. Künftig kann das Unternehmen auf das unabhängige Board verweisen.
  • So vielfältig und klug die Mitglieder des Gremium sein mögen, auch sie werden keine endgültigen, universell „richtigen“ Entscheidungen treffen. Aber es ist gut, dass sie es überhaupt versuchen dürfen.

Be smart

Zuckerberg sagt, dass Facebooks Größe dazu beitrage (The Verge), bestimmte Probleme wirksamer bekämpfen zu können als kleinere Unternehmen wie Twitter. Das stimmt nur teilweise: Vor allem (manuelle) Content-Moderation wird immer schwerer, je größer eine Plattform ist.

Maschinen werden Menschen in naher Zukunft nicht ersetzen können – vielleicht gelingt es Facebook aber auf eine andere Art und Weise, sich das Problem vom Hals zu schaffen: Vergangenes Jahr hat Zuckerberg seine „Privacy-Focused Vision for Social Networking“ beschrieben.

Demnach verlagert sich Kommunikation zunehmend in geschlossene Räume und verschlüsselte Messenger, wo Moderation unmöglich ist. Facebook will eine gemeinsame, Ende-zu-Ende verschlüsselte Plattform für WhatsApp, den Messenger und Instagrams Direktnachrichten aufbauen. Das ist gut für die Privatsphäre – aber schlecht für alle, die sich mehr Moderation und Kontrolle wünschen.


Kampf gegen Desinformation und Hass

Facebook weitet Faktenprüfung auf Österreich und Schweiz aus: Die dpa, die ja auch in Deutschland für die Faktenchecks mit verantwortlich ist, überprüft ab sofort auch Inhalte aus Österreich und Schweiz (Facebook). Zu Beginn wird die dpa vom Faktencheck-Team der Austria Presse Agentur, bzw. Keystone-SDA unterstützt.

Hateful Memes Challenge: Memes sind ein populäres Format, um Hass und Beleidigungen in sozialen Netzwerken zu streuen. Das Problem bei Memes besteht darin, dass es ungleich schwieriger ist, den Kern der Aussage zu erfassen (was übrigens für Computer und Menschen womöglich gleichermaßen gilt). Während Facebook problematische Text-, Video- und Audio-Inhalte bereits recht gut automatisiert identifizieren kann, bleiben Memes eine echte Herausforderung. Eine Challenge soll nun dabei helfen, Facebooks AI smarter zu machen (AI Facebook).

Neue Labels und Warnhinweise bei Twitter: Twitter hat damit begonnen, „irreführende“ und „umstrittene“ Botschaften zum Coronavirus zu kennzeichnen (Twitter). Dabei arbeitet das Unternehmen mit „vertrauenswürdigen Partnern“ zusammen. Welche Partner das sind, ist bislang nicht bekannt.


Datenschutz-Department

TikToks Umgang mit Inhalten: In Ausgabe #637 haben wir berichtet, dass WeChat auch nicht-chinesische Accounts überwacht. Das Vorgehen, das dabei zum Tragen kommt, war so bislang nicht bekannt. Für uns stellte sich daher die Frage, ob Inhalte der derzeit extrem populären Plattform TikTok womöglich auch dazu genutzt werden, um das Zensursystem der chinesischen Schwesterapp Douyin zu trainieren und aufzubauen. Gudrun Herrmann, Leitung Kommunikation TikTok Deutschland, Österreich, Schweiz, Niederlande, erklärt hierzu:

Nein. Inhalte auf TikTok werden nicht für derartige Zwecke verwendet. TikTok ist nicht in China verfügbar. Unsere Daten werden in den USA gespeichert mit einem zusätzlichen Backup in Singapur.

Follow the money

Adidas lässt EM digital aus- und via IGTV übertragen: Weil die Fußball Europameisterschaft dieses Jahr bekanntlich ausfallen muss, hat Adidas die EM kurzerhand ins Netz verlegt. In der Türkei wurde das komplette Turnier bei Fifa ausgetragen und via Facebook Live, IGTV und YouTube Live übertragen (Digiday).


Statistiken

Livestream Boom: Die letzten Wochen haben dafür gesorgt, dass die Zahlen bei Twitch, Facebook Gaming und YouTube Live regelrecht explodiert sind. The Verge hat einen Überblick über die wirklich beeindruckenden Zahlen:

  • Zwischen März und April wuchs der Live-Streaming-Bereich um 45%, vor allem dank Twitch und YouTube.
  • Damit ist die Branche im Vergleich zum Vorjahr um 99 % gewachsen.
  • Die Nutzung von Twitch ist um 50 % gestiegen -> 101 % mehr im Vergleich zum Vorjahr
  • Zu den größten Gewinner zählten bei Twitch vor allem die Kategorien Just Chatting, Musik und darstellende Kunst.
  • Facebook Gaming kommt zwischen März und April auf ein Wachstum von 72 % -> 238 % mehr im Vergleich zum Vorjahr.

Empfehlungen fürs Wochenende

Die neuen rechten Medienmacher: Die Kollegïnnen von Rabiat haben für die ARD eine spannende Dokumentation zum Thema neue rechte Medienmacher gedreht. In 44 Minuten gehen sie der Frage nach, wer die Produzenten sind und wie die Distribution der Inhalte funktioniert. Da ist selbst für die aufmerksamsten Watchblog-Leserïnnen noch viel drin – absolute Guck-Empfehlung! Nicht zuletzt, weil man erfährt, wie ernst es die rechten Akteure meinen – offen ausgesprochene Drohungen gegenüber den Reporterïnnen inklusive:

Solltet ihr es so zurecht schneiden, dass es gegen mich verwendet werden kann, was ich gesagt habe, (…) dann wird euch irgendwann der Blitz beim Scheißen treffen.

Umfassender Überblick zu QAnon: In den vergangenen Tagen war wieder einmal viel von QAnon die Rede. Was es damit auf sich hat, welche Rolle Donald Trump bei dieser Verschwörungsideologie spielt und warum QAnon für einige fast schon religiöse Züge annimmt, erklärt Adrienne LAFrance in einem beeindruckenden Longread für The Atlantic: The Prophecies of Q – American conspiracy theories are entering a dangerous new phase. Der Text ist übrigens auch als Audioversion verfügbar.

What I came to learn is that QAnon isn’t just a dangerous conspiracy theory. We are witnessing the birth of a new religion. And we are likely closer to the beginning of its story than the end.


Neue Features bei den Plattformen

Facebook

  • Messenger Rooms ist jetzt verfügbar. Sämtliche Hintergründe zu diesem neuen Feature haben wir ausführlich in Briefing #635 besprochen.

Instagram

  • Shops from Facebook: Instagram bastelt fleißig weiter daran, die Plattform zu einer modernen Shopping-Mall umzubauen – kuratierte Kollektionen (Twitter / Jane Manchung Wong) a la Pinterest inklusive.

LinkedIn

Houseparty

  • Co-Watching: Gemeinsames, digitales Glotzen is a thing – das Video-Chat-Tool Houseparty führt Co-Watching von Live Events (Techcrunch) ein.

Twitter


Header-Foto von United Nations COVID-19 Response bei Unsplash