Zum Inhalt springen
11 Min. Lesezeit

8.7.2020 | Social-Media-Utopien, Showdown in Hongkong: Niemand traut TikTok, China Internet Report

8.7.2020 | Social-Media-Utopien, Showdown in Hongkong: Niemand traut TikTok, China Internet Report

Social-Media-Utopien: Wie Netzwerke wieder sozial werden könnten

Was ist

Es vergeht keine Woche, ohne dass in diesem Briefing die Worte Hass, Rassismus und Menschenfeindlichkeit auftauchen. Die jüngsten Beispiele: #StopHateforProfit in Briefing #650 und das Deplatforming rechtsradikaler Kanäle, Gruppen und Subreddits durch YouTube, Facebook, Twitch und Reddit in Briefing #651.

Das ist traurig, denn eigentlich schreiben wir über soziale Medien. Doch zumindest in der öffentlichen Wahrnehmung überwiegen die negativen Folgeerscheinungen die positiven Effekte – die es zweifellos gibt. Social Media vernetzen Menschen auf der ganzen Welt und geben Leuten eine Stimme, die lange nicht gehört wurden, wie etwa #MeToo und #BlackLivesMatter zeigen.

Was das bedeutet

Das Potenzial, das soziale Netzwerke haben, ist groß. Die Realität zeichnet ein anderes Bild. Doch statt abzubilden und zu beklagen, was ist, wollen wir an dieser Stelle einen konstruktiven Blick auf Social Media werfen: Wir sammeln Vorschläge, was Plattformen, Politik und Nutzerïnnen tun könnten, damit kulturpessimistische Feuilletonistïnnen nicht mehr halbironisch von „sogenannten sozialen Medien“ schreiben müssen.

Woher die Idee kommt

Unabhängig voneinander haben mehrere kluge Menschen in den vergangenen Tagen Texte veröffentlicht, die sich damit beschäftigen, wie soziale Netzwerke kleinteilig verbessert, grundlegend reformiert oder komplett neu gedacht werden könnten – auch wenn die Überschriften nicht alle danach aussehen:

  1. Nick Punt: „De-escalating Social Media” (nickpunt.com)
  2. Shira Ovice: „Bogus Ideas Have Superspreaders, Too” (NYT)
  3. Charlie Warzel: „Facebook Can’t Be Reformed” (NYT)
  4. Will Oremus: „What a Better Social Network Would Look Like” (OneZero)

Punt und Ovide machen konkrete und operationalisierbare Vorschläge. Warzel und Oremus aggregieren jeweils Ideen, die teils unrealistisch bis utopisch anmuten. Nummer 1 und 2 behandeln wir separat, die beiden anderen bündeln wir, da sie inhaltlich zusammenhängen. Wir haben alle vier Texte mit Gewinn gelesen und empfehlen sie weiter.

1. Twitter Mea Culpa

Die Ausgangsthese von Nick Punt lautet: „Social media has a conflict problem.“ Aus unterschiedlichen Gründen, die er nachvollziehbar herleitet, fällt es vielen Menschen in sozialen Netzwerken besonders schwer zuzugeben, dass sie im Unrecht sind und einen Fehler gemacht haben.

Eines der größten Probleme: Wenn einen Hunderte Menschen auf einmal teils aggressiv zurechtweisen, sinkt die Bereitschaft zur Selbstkritik massiv. Auf Twitter gibt es nur drei Optionen:

  1. Die Antworten ignorieren
  2. Den Tweet löschen
  3. Den Tweet online lassen und eine Korrektur posten

Nichts davon ist wirklich zielführend. Deshalb schlägt Punt eine neue Funktion vor – Twitter Mea Culpa:

„Twitter Mea Culpa is a way for a poster to flag their tweet as a mistake and de-escalate a situation, using the same action menu that deleting a post uses, and the same visual design as flagged tweets.“

Wer auf diese Art eingesteht, einen Fehler gemacht zu haben, schränkt die Reichweite seines Ursprungstweets ein und verhindert weitere direkte Antworten. Der Tweet bleibt aber online und kann zitiert werden.

In seinem Gedankenspiel wägt Punt weitere Optionen ab (die Möglichkeit, ein Follow-up zu verschicken oder eine Funktion, mit der andere Nutzerïnnen Vergebung signalisieren können), beleuchtet mögliche Schattenseiten (etwa den Missbrauch durch Trolle) und erklärt, warum eine Mea-Culpa-Möglichkeit besser wäre als ein Edit-Button, den Twitter (aus durchaus nachvollziehbaren Gründen) ablehnt.

Unsere Einschätzung: Ein Twitter Mea Culpa verändert garantiert nicht die Welt – und vermutlich auch Twitter nur geringfügig. Dafür ließe sich die Idee wohl relativ einfach umsetzen, könnte Nutzerïnnen in bestimmen Situation unangenehme Erfahrungen ersparen und Twitter zu einem etwas angenehmeren Ort machen. R U Listening, Jack?

2. Aus großer Reichweite folgt große Verantwortung

Shira Ovide beschreibt den Status Quo:

„If the Rock encouraged his 58 million Facebook followers to vandalize a fast-food restaurant, Facebook’s policies would treat it the same as if your neighbor blasted this to his 25 friends.“

Und leitet daraus ab:

„But whether they intend it or not, celebrities, politicians and others with large online followings can be superspreaders — not of the coronavirus but of dangerous or false information. And I wonder whether these prominent people need to be held to stricter rules.“

Anders ausgedrückt: Ovide wünscht sich, dass Plattformen bei der Content-Moderation nicht nur auf den Inhalt, sondern auch auf die Absenderïnnen achten. Sie erinnert an Beispiele wie die üble „Momo Challenge“, die erst groß wurde, nachdem Kim Kardashian den Unsinn auf Instagram verbreitete.

Auch die Analyse aktueller Corona-Verschwörungsmythen stützt diese Theorie: In Briefing #636 haben wir erklärt, wie wenige Influencerïnnen, Prominente und Politikerïnnen den viralen Unsinn befeuern.

Deshalb schlägt Ovide vor:

Unsere Einschätzung: Das Gegenargument liefert George Orwell, ausnahmsweise nicht im zu Tode zitierten 1984, sondern in seiner Fabel Farm der Tiere: „Alle Tiere sind gleich, aber manche sind gleicher.“

Natürlich ist es riskant, wenn Nutzerïnnen anders behandelt werden, nur weil sie ein größeres Publikum adressieren. Aber schon Spiderman wusste: „Aus großer Kraft folgt große Verantwortung.“ Und wenn wir Kraft durch Reichweite ersetzen, lässt sich das auf Social Media übertragen.

Für globale Plattformen ist es unmöglich, alle Beiträge perfekt zu moderieren. Content-Moderation kann immer nur darauf bedacht sein, Fehler zu minimieren und Folgeschäden zu begrenzen. Alles richtig zu entscheiden, ist aufgrund der Menge der Inhalte, die Milliarden Nutzerïnnen täglich produzieren, schlicht ausgeschlossen.

Auch deshalb sind Plattformen wie Twitter bereits dazu übergegangen (Twitter-Blog), auch den möglichen Schaden als ein Entscheidungskriterium zu berücksichtigen („If it is likely to cause harm, it should be removed“). Ein Nutzer mit elf Followern, der ein manipuliertes Video von Kim Jong-un hochlädt, ist ein bisschen egal – wenn Trump es tut, könnte die Welt ins Chaos stürzen.

Aus diesem Grund halten wir die Anregung von Shira Ovide zumindest für bedenkenswert und verweisen zudem auf Casey Newton, der bereits vor einigen Monaten schrieb (The Interface):

„Looking at the outcome is a useful frame for making individual policy decisions. There are lots of terrible pieces of social content that are essentially harmless, because no one sees them. And then there are the small few that go viral and do lots of damage. It makes sense that Twitter would focus its moderation efforts at that level. Promising to intervene in cases where there is serious harm isn’t just sensible – it’s also scalable.“

3./4. Es braucht keine Reform, es braucht eine Revolution

Wer über Facebook berichtet, hat den Satz Dutzende Male gehört: „We know we have more work to do.“ So reagiert nicht nur Mark Zuckerberg, wenn Facebook sich von russischen Trollen hat manipulieren lassen, versehentlich Nutzerdaten weitergegeben oder Rechtsradikalen eine Plattform gegeben hat. Charly Warzel drückt es so aus:

„We Know We Have More Work to Do (let’s call it W.K.W.H.M.W.T.D. for short) is the definitive utterance of the social media era, trotted out by executives whenever their companies come in for a public shaming.“

Diese lapidare Beschwichtigung soll Kritik abblocken und guten Willen signalisieren. Der Satz ist mächtig – und gefährlich:

„In Facebook’s case, what is most dangerous about W.K.W.H.M.W.T.D. is that it glosses over the fundamental structural flaws in the platform. The architecture of the social network – its algorithmic mandate of engagement over all else, the advantage it gives to divisive and emotionally manipulative content – will always produce more objectionable content at a dizzying scale.“

In seinen Reaktionen auf Fehler oder Kritik folgt Facebook dem Design-Thinking-Prozess und beschränkt sich auf die Minimum Viable Action, die kleinstmögliche Reaktion. Das Kardinalproblem – die auf maximales Engagement ausgerichteten Algorithmen, kombiniert mit personalisierter Werbung, Microtargeting und massenhafter, plattformübergreifender Datensammlung – bleibt dabei immer außen vor.

Nun könnte man sagen: Eine globale Plattform wie Facebook spiegelt die Gesellschaft wider – und die besteht nun mal nicht nur aus netten Menschen, die Flausch verteilen.

Oder man fragt: Wie kann Facebook weniger toxisch werden? Wie lassen sich Plattformen entwerfen, die positive Emotionen verstärken, statt Hass zu verstärken?

Genau das hat Warzel vergangene Woche getan (Twitter):

„odd question but: what are your most far fetched utopian ideas for fixing social media platforms? the stuff that’s likely never ever gonna happen“

Es folgten mehr als 1100 Antworten, die Warzel im letzten Drittel seiner Kolumne (NYT) selbst kurz zusammenfasst. Den viel besseren und ausführlicheren Überblick liefert aber Will Oremus (OneZero), der unter anderem folgende Ideen-Cluster bildet und jeweils einordnet:

Zu jedem Vorschlag liefert Oremus nachvollziehbare Pro- und Contra-Argumente, weshalb wir seine Analyse dringend empfehlen (das sagten wir schon, oder?).

Auch wenn ein Großteil der Antworten auf Warzels Tweet wohl nie umgesetzt werden wird, hat das öffentliche Brainstorming zumindest eines gezeigt: Eine Plattform, auf der man eine schnoddrige Frage ohne Punkt und Komma stellt und binnen Stunden Hunderte Antworten von klugen Menschen auf der ganzen Welt erhält, ist ein Ort, für den es sich zu kämpfen lohnt – mit kleinen Verbesserungen und mit großen Utopien.


Showdown in Hongkong: Niemand traut TikTok

Was ist

Das neue Gesetz zum Schutz der nationalen Sicherheit in Hongkong gibt China unter anderem weitreichenden Zugriff auf Nutzerdaten der Sonderverwaltungszone. Deshalb haben Unternehmen wie Facebook, Google, Twitter, Telegram, Microsoft und Zoom angekündigt, vorerst keine Daten mehr mit Hongkonger Sicherheitsbehörden zu teilen – aus Sorge, dass diese Informationen in China landen und dann genutzt werden könnten, um Dissidenten zu verhaften.

TikTok geht noch einen Schritt weiter: ByteDance will die App komplett aus Hongkong abziehen (Reuters). „In light of recent events, we’ve decided to stop operations of the TikTok app in Hong Kong“, sagt ein Sprecher.

Was hinter der Entscheidung steckt

ByteDance ist bekanntlich ein chinesisches Unternehmen – und allein deshalb schlägt TikTok weltweit großes Misstrauen entgegen. Ob berechtigt oder nicht, können wir nicht beurteilen. Fakt ist aber, dass vor allem die USA TikTok als Bedrohung für die nationale Sicherheit empfinden.

Mit dem Schritt will ByteDance signalisieren: Wir sind absolut unabhängig von China. So unabhängig, dass wir in unserer Reaktion sogar noch weitergehen als die US-Konzerne. Wir wollen sicherstellen, dass unter keinen Umständen Daten unserer Nutzerïnnen in Peking landen.

Genau das versichert ByteDance immer wieder öffentlich: TikTok und das chinesisches Pendant Douyin seien strikt getrennt, TikTok-Daten würden ausschließlich in den USA und in Singapur gespeichert, chinesische Zensoren hätten keinerlei Zugriff.

Was man aber auch wissen muss: Hongkong war für TikTok ein unbedeutender Markt, in dem die App angeblich sogar Verluste gemacht hat. Der Rückzug tut finanziell also nicht weh. Und Douyin bleibt in Hongkong nach wie vor aktiv (auch wenn die App nur in Festland-China installiert werden, dann aber in Hongkong genutzt werden kann).

Was TikTok droht

Es ist fraglich, ob das reicht, um die USA zu besänftigen. Die Skepsis bleibt groß, genau wie bei Huawei. Am Montag drohte US-Außenminister Mike Pompeo, Social-Media-Apps aus China zu verbieten (CNN). „Es ist etwas, das wir uns anschauen“, sagte er dem Sender Fox News. Wer TikTok nutze, müsse befürchten, dass seine „privaten Daten in Händen der Kommunistischen Partei Chinas landen.“

Für ByteDance ist das ein weiterer Rückschlag: Der neue TikTok-Chef Kevin Mayer, der von Disney kam, sollte eigentlich Vertrauen stiften. Doch die Lobby-Anstrengungen fruchten bislang nicht. Die USA drohen mit Regulierung oder noch drastischeren Maßnahmen – die Indien, für TikTok der bis dato größte Markt, bereits eingeleitet hat: Das Land hat TikTok und 58 weitere chinesische Apps verboten (Spiegel) – angeblich wegen Sicherheitsbedenken.

Was der Konflikt zeigt

ByteDance stehen wichtige Monate bevor: Schafft es das Unternehmen, die Sorgen außerhalb Chinas zu beschwichtigen? Kann TikTok langfristig mit Instagram und Snapchat konkurrieren und eine globale Plattform werden, obwohl der Entwickler aus China kommt?

Indiens Entscheidung und Pompeos Drohung sind jedenfalls schwere Dämpfer. Tech ist politisch, ob es will oder nicht. Die Spannungen zwischen den USA und China betreffen nicht nur TikTok, sondern auch US-Konzerne. Es droht ein „Splinternet“ (SZ):

„Staaten schotten sich aus politischen Gründen ab, das Netz fragmentiert sich. Die App Stores von Apple und Google werden zu Konfliktfeldern im Ringen der Mächte. Auch im Auswärtigen Amt in Berlin ist man deshalb besorgt: „Sogenanntes Decoupling – das Entstehen verschiedener voneinander abgetrennter Tech-Sphären – ist nicht in deutschem Interesse und wird von uns mit großer Sorge gesehen.


Follow the money

 


Statistiken und Trends


Neue Features bei den Plattformen

Facebook

 

Instagram

TikTok

Twitter

Amazon


Tipps, Tricks und Apps


Header-Foto von AJ Colores bei Unsplash