Autokraten auf Facebook: Trump ist noch das kleinste Problem
Was ist
Nach einigem Hin und Her mit dem Oversight Board hat Facebook das Konto von Donald Trump für zwei Jahre gesperrt (Facebook-Newsroom). Gleichzeitig treten neue Regeln für den Umgang mit Persönlichkeiten des öffentlichen Lebens in Kraft (Facebook Transparency Center), was unter anderem Regierungschefïnnen und andere hochrangige Politikerïnnen betrifft. Wir ordnen beide Entscheidungen ein und erklären, warum die Causa Trump nicht von grundsätzlichen Problemen ablenken sollte.
Warum das wichtig ist
Jair Bolsonaro, Rodrigo Duterte, Narendro Modi, Baschar al-Assad: Autokraten, Populisten und Diktatoren auf der ganzen Welt nutzen die Reichweite, die ihnen Facebook bietet. Zum Teil verbreiten sie Lügen und Gerüchte, schüren Hass auf ihre politischen Kontrahenten und spalten die Gesellschaft. Facebook hat diesen Politikern lange Zeit fast alles durchgehen lassen, weil Mark Zuckerberg die Rolle des "arbiter of truth" ablehnt – mit teils fatalen Konsequenzen.
Bei der Entscheidung, welche Inhalte eine Plattform wie Facebook duldet, geht es nicht um Freedom of Speech, sondern um Freedom of Reach. Sagen können diese Personen weiter alles, was sie wollen, und ihnen stehen Dutzende Medien und Kanäle zur Verfügung, um damit viele Menschen zu erreichen. Die Frage ist, ob Facebook ein digitales Mikrofon hinhalten muss, um die Botschaft weiterzuverbreiten, nur weil ein Staatschef gern noch mehr Aufmerksamkeit möchte.
Was der Entscheidung vorausging
In Briefing #721 haben wir die gesamte Vorgeschichte aufgedröselt und die Entscheidung des Oversight Boards analysiert. Das hatte Anfang Mai die Sperre von Trumps Account grundsätzlich gebilligt. Die Mitglieder des Gremiums ließen es Facebook aber nicht durchgehen, Trump für unbestimmte Zeit zu blockieren. Er müsse entweder dauerhaft verbannt oder für einen klar definierten Zeitraum gesperrt werden.
Zudem gab das Board Facebook knapp ein Dutzend Policy-Empfehlungen mit auf den Weg. Im Gegensatz zur Trump-Entscheidung sind diese aber nicht bindend. Facebook solle seine "newsworthiness"-Ausnahme genauer erklären, wonach Posts bestimmter Accounts online bleiben dürfen, wenn sie von öffentlichem Interesse sind, obwohl sie gegen die Community-Standards verstoßen. Das Gleiche gilt für Fälle, in denen Facebook einflussreiche Konten vorübergehend sperrt. Es müsse öffentlich dargelegt werden, auf welcher Grundlage und welchen Verstößen die Sperre beruhe.
Was Facebook entschieden hat
Das Board räumte Facebook eine Frist von sechs Monaten ein, die Facebook aber nicht ausgereizt hat. Nach einem Monat ist die Reaktion erfolgt, die wir in zwei Teilen betrachten: der Einzelfall Trump und der generelle Umgang mit Menschen wie Trump.
1. Trump bleibt für mindestens zwei Jahre gesperrt
- Der ehemalige US-Präsident erhält seinen Account frühestens am 7. Januar 2023 zurück, also genau zwei Jahre nach dem Rauswurf.
- Das geschieht aber nicht automatisch. Vielmehr wird Facebook prüfen, ob Trump dann ein geringeres Risiko für die öffentliche Sicherheit darstellt.
- Dafür will Facebook Expertïnnen konsultieren und externe Faktoren mit einbeziehen, etwa Gewaltausbrüche, Einschränkungen der Versammlungsfreiheit und andere Indikatoren, die auf mögliche zivile Unruhen hindeuten.
- Falls sich die Situation bis dahin nicht beruhigt hat, wird die Sperre ausgeweitet und zu einem späteren Zeitpunkt erneut überprüft.
- Wenn Trump irgendwann wieder posten darf, soll ein striktes Sanktionssystem gelten. Falls er erneut gegen Facebooks Richtlinien verstößt, droht ihm ein dauerhafter Bann.
2. Facebook schafft den Freifahrtschein für Politikerïnnen ab
- Die Trump-Entscheidung hat die Schlagzeilen geschrieben, doch Facebooks Reaktion auf die Policy-Empfehlungen des Oversight Boards dürfte langfristig wichtiger sein.
- Zusätzlich zum neuen Eintrag "Public figures and civil unrest" im Transparency-Center hat Facebook seine Maßnahmen in einem 20-seitigen PDF-Dokument ausgeführt.
- Die zentrale Botschaft: Wenn Persönlichkeiten des öffentlichen Lebens gegen Facebooks Regeln verstoßen, sodass zivile Unruhe oder Gewalt droht, wird Facebook das Konto für einen Zeitraum zwischen einem Monat und zwei Jahren sperren.
- Dazu zählen Regierungsmitglieder, Kandidatïnnen für Regierungsämter, Menschen mit mehr als einer Million Follower oder Personen, die "substanzielle mediale Berichterstattung" erhalten.
- Nach dem Ablauf der Sperre folgt das gleiche Prozedere wie bei Trump. Facebook prüft, ob das Risiko geringer geworden ist, und entscheidet dann, ob die Blockade verlängert oder aufgehoben wird. Wer einmal gesperrt wurde, läuft bei einem erneuten Verstoß Gefahr, seinen Account für immer zu verlieren.
- Die Gefahr, die durch einen Post entstehen könnte, soll nun in jedem Einzelfall gegen das öffentliche Interesse abgewogen werden. Es gibt aber keine generelle "newsworthiness"-Ausnahme für bestimmte Accounts mehr.
Was die Entscheidungen bedeuten
- Die Sperre von Trump hat die erwartbaren Reaktionen ausgelöst (Axios): Linke und Liberale werfen Facebook Feigheit vor, Rechte und Konservative jammern über vermeintliche Zensur.
- Facebook kann es niemandem recht machen. Tatsächlich gibt es jenseits des Lamentos der Republikaner auch ernst zu nehmende Argumente, warum private Unternehmen nicht allein über das Schicksal gewählter Präsidenten entscheiden sollten.
- Allerdings ist es nicht Facebooks Schuld, dass es bislang keine demokratisch legitimierten Prozesse gibt, um solche Fälle vor ein unabhängiges Gremium oder Gericht zu bringen. Vor diesem Hintergrund erscheinen uns die zwei Jahre als annehmbarer Kompromiss.
- Angesichts der Reaktion von Trump auf die erneute Sperre, der die Wahl darin mal wieder als "manipuliert" bezeichnete, dürfte Facebook ihn wohl ohnehin noch länger blockieren. Wir können uns kaum vorstellen, dass Trump in den kommenden anderthalb Jahren aufhört, Lügen und Verschwörungserzählungen zu verbreiten.
- Spannender ist die Umsetzung der Policy-Empfehlungen. Einerseits stellt der neue Umgang mit Persönlichkeiten des öffentlichen Lebens einen signifikanten Wandel dar (Platformer). Es war überfällig, dass hochrangige Politikerïnnen nicht mehr automatisch qua ihres Amtes eine Vorzugsbehandlung erhalten.
- Facebook erkennt endlich an, dass Menschen mit großer Reichweite auch ein ungleich größeres Risiko darstellen als normale Nutzerïnnen: "Public figures often have broader influence across our platforms; therefore, they may pose a greater risk of harm when they violate our policies."
- Trotzdem gibt es gute Gründe, Facebooks Maßnahmen kritisch zu sehen. Die besten und ausführlichsten liefert wie gewohnt die Harvard-Forscherin Evelyn Douek (Lawfare).
- Ihre gesamte Analyse zusammenzufassen, würde den Rahmen dieses Briefings sprengen. Deshalb sprechen wir eine warme Leseempfehlung aus und greifen nur einige Argumente heraus.
- Facebook selbst sagt, dass es 15 der 19 Empfehlungen voll umgesetzt habe. Das ist sehr großzügig. Dazu zählt Facebook teils Selbstverständlichkeiten, etwa dass es seine AI-Tools verbessern will, um potenziell gefährliche Inhalte zu erkennen. Es gibt aber keine Frist oder Metriken, um die Effektivität zu beurteilen.
- Das ist nur eines von vielen Beispielen. Das Board hat oft konkrete Empfehlungen ausgesprochen. Facebook reagiert mit vagen und unverbindlichen Selbstverpflichtungen.
- Auch die zentrale Änderung, die Abkehr von der generellen "newsworthiness"-Ausnahme, ist nur die Minimallösung. Alles andere hätte in krassem Widerspruch zur Entscheidung des Oversight Boards gestanden und das Gremium de facto entwertet.
- Eine andere, mindestens genauso wichtige Ausnahme bleibt bestehen: Behauptungen von Politikerïnnen sind nach wie vor von Faktenchecks ausgenommen (Facebook Help Center). Sie dürfen Unsinn verbreiten, ohne dass ihre Lügen als solche gekennzeichnet werden.
- Als Facebook den Fall ans Oversight Board verwies, sagte das Unternehmen, dass es keinen einzigen von Trumps Posts aufgrund von "newsworthiness" bevorzugt behandelt und deshalb nicht gelöscht habe. Nun heißt es, man habe doch zwei solcher Fälle entdeckt.
- Facebook scheint also selbst nicht genau zu wissen, wie relevant die Ausnahme bei der Entscheidung wirklich ist. Folglich ist auch nicht sicher, ob es einen großen Unterschied macht, die Ausnahme abzuschaffen. Viele Prozesse bleiben intransparent, und man weiß nie genau, warum Facebook wie entscheidet.
- Eine Blackbox bleiben auch die "cross checks" von "high profile accounts". Grundsätzlich ist es sinnvoll, dass Inhalte reichweitenstarker Accounts von mehr als einem Paar Augen geprüft werden, bevor Facebook sie sperrt.
- Doch die Erklärung im Transparency-Center ist alles andere als transparent. Es ist unklar, wer genau einen zweiten Blick darauf wirft und nach welchen Kriterien entschieden wird.
- Wenn wir uns dann noch daran erinnern, dass in der Vergangenheit mehrfach Lobbyisten wie Joel Kaplan, die eine klare politische Agenda besitzen, Facebooks Policy-Entscheidung beeinflusst oder revidiert haben, dann wünschen wir uns mehr Klarheit über Facebooks interne Prozesse.
- Das Board hatte Facebook aufgefordert, seine Rolle beim Sturm auf das Kapitol am 6. Januar aufzuarbeiten (#701). Darauf ist Facebook nicht eingegangen.
- Es verweist lediglich auf die Zusammenarbeit mit unabhängigen Forscherïnnen und sagt, dass "die Verantwortung für die Ereignisse bei den Auführerïnnen und ihren Unterstützerïnnen" liege. Angesichts der Bedeutung, die Facebook für die Organisation des Putschversuchs spielte, ist das arg dünn.
Be smart
Die gute Nachricht: Deplatforming wirkt. Trump hat sein Blog nach weniger als einem Monat eingestellt (Washington Post), weil sich kaum jemand dafür interessiert hat. Selbst Prominente brauchen große Plattformen, sonst verlieren sie Reichweite.
Die schlechte Nachricht: Content-Moderation bleibt, vorsichtig ausgedrückt, verdammt kompliziert. Und je öfter Plattformen eingreifen, desto argwöhnischer werden viele Regierungen. Weltweit bereiten Staaten Gesetze vor (Politico), die Politikerïnnen nahezu bedingungslose Redefreiheit garantieren sollen.
Nigeria hat einfach mal alle Internetanbieter verpflichtet, den Zugang zu Twitter zu sperren (Guardian), nachdem ein Tweet des Präsidenten gelöscht wurde. Kaum weniger absurd mutet ein Gesetzentwurf in Florida an (Ars Technica). Der republikanische Gouverneur Ron DeSantis will "Zensur" verhindern, indem er Einwohnerïnnen die Möglichkeit gibt, Tech-Konzerne zu verklagen, die Politikerïnnen verbannen.
Es gibt eine Ausnahme: Das Gesetz gilt nicht für Unternehmen, die in Florida "einen Freizeitpark oder Entertainment-Komplex besitzen und unterhalten". Diese lachhafte Disney-Regel ist nicht der einzige Grund, warum Facebook, Twitter, Amazon, Google und andere Konzerne Klage eingereicht haben (Ars Technica).
Social Media und Politik
- Bundestag genehmigt Staatstrojaner für alle: Wir werden uns dieses Thema in den kommenden Tagen ausführlicher anschauen. Für heute verweisen wir auf die Berichterstattung der Kollegïnnen Beuth (SPIEGEL) und Meister (netzpolitik).
- TikTok-Verbot: Die Biden-Administration hat das von Präsident Trump verhängte Verbot der chinesischen Apps TikTok und WeChat wieder rückgängig gemacht (Tagesschau). Das bedeutet jedoch nicht, dass eine Untersuchung darüber, wie die Apps mit Nutzerdaten umgehen, komplett abgehakt ist. Biden hat beantragt, dass alle Apps von ausländischen Unternehmen untersucht und ihre Sicherheitsrisiken bewertet werden sollen – also TikTok und WeChat inklusive.
- Telegram geht gegen Hildmann vor: Das Profil des selbsternannten „Verschwörungspredigers“ ist auf der Plattform kaum noch zu finden (Deutschlandfunk). Genaueres weiß man aber noch nicht. Etwas nebulös das Ganze. Aber das passt ja. Zu Hildmann und zum Messenger.
Creator Ecocomy
- Mo money Pt.1: Facebook und Instagram führen eine Reihe neuer Features (Instagram Newsroom) ein, damit Creator auf den Plattformen Geld verdienen können – darunter ein „native affiliate tool“, die Option, einen Extra-Shop für Merchandise anzubieten und sogenannte Stars Challenges.
- Mo money Pt.2: Apple hat angekündigt, dass die neuen In-App-Podcast-Abos zum 15. Juni global ausgerollt werden (The Verge). Hui, das wird spannend!
Schon einmal im Briefing davon gehört
- Facebook bastelt an Smartwatch: Nächsten Sommer möchte Facebook eine Smartwatch auf den Markt bringen (The Verge). Das Besondere an dem Gerät: Die Uhr soll mit zwei Kameras ausgestattet sein – eine auf der Vorderseite für Video-Calls, eine auf der Rückseite zum Fotografieren. Well, eine Uhr von Facebook mit zwei Kameras – what in the world could possibly go wrong?!
- TikTok und Schönheitsfilter: Das MIT Technology Review berichtet, dass TikTok bei einigen Nutzerïnnen in den USA das Aussehen in den Videos verändert hätte, obwohl die Userïnnen gar keinen Filter für ihre Videos verwenden wollten. Wie es zu dieser „erzwungenen Verschönerung“ gekommen ist, konnte oder wollte TikTok bislang nicht erklären.
- Apple auf ungewöhntem Terrain: Apple hat eine ganze Menge neuer Features für iMessage und FaceTime (CNBC) angekündigt – etwa die Option, gemeinsam mit Freunden einen Film zu schauen. Das Unternehmen wildert damit stark in den Bereichen, in denen ansonsten eher Facebook und Co unterwegs waren. Das dürfte den Groll von Zuckerberg auf Cook nicht gerade minimieren.
Neue Features bei den Plattformen
- Subscribe-Button: Alle, die via Revue einen Newsletter verschicken, können demnächst in ihrem Twitter-Profil darauf hinweisen – Subscribe-Button inklusive (Mashable).
- Mehr TikTok wagen: Auch Reddit hat ordentlich an seinem Video-Player geschraubt und erinnert jetzt stark an TikTok (Digital Information World)
One more thing
Wie Instagram funktioniert: In einer neuen Artikel-Serie möchte Instagram-Boss Mosseri erklären, wie die Video/Foto/Shopping/Meme/Livestream-Plattform funktioniert. Es geht in den Artikeln u.a. darum, was eigentlich dieser Algorithmus ist, wie Feed-Posts und Stories geranked werden und wie Inhalte bei Explore landen. Vieles davon ist Power-Userïnnen sicherlich bereits bekannt. Einen so umfassenden Überblick darüber, wie Insta funktioniert, gab es bislang von Instagram selbst aber nicht.
Header-Foto von canweallgo bei Unsplash
Mitglieder-Diskussion