Social-Media-Utopien: Wie Netzwerke wieder sozial werden könnten
Was ist
Es vergeht keine Woche, ohne dass in diesem Briefing die Worte Hass, Rassismus und Menschenfeindlichkeit auftauchen. Die jüngsten Beispiele: #StopHateforProfit in Briefing #650 und das Deplatforming rechtsradikaler Kanäle, Gruppen und Subreddits durch YouTube, Facebook, Twitch und Reddit in Briefing #651.
Das ist traurig, denn eigentlich schreiben wir über soziale Medien. Doch zumindest in der öffentlichen Wahrnehmung überwiegen die negativen Folgeerscheinungen die positiven Effekte – die es zweifellos gibt. Social Media vernetzen Menschen auf der ganzen Welt und geben Leuten eine Stimme, die lange nicht gehört wurden, wie etwa #MeToo und #BlackLivesMatter zeigen.
Was das bedeutet
Das Potenzial, das soziale Netzwerke haben, ist groß. Die Realität zeichnet ein anderes Bild. Doch statt abzubilden und zu beklagen, was ist, wollen wir an dieser Stelle einen konstruktiven Blick auf Social Media werfen: Wir sammeln Vorschläge, was Plattformen, Politik und Nutzerïnnen tun könnten, damit kulturpessimistische Feuilletonistïnnen nicht mehr halbironisch von „sogenannten sozialen Medien“ schreiben müssen.
Woher die Idee kommt
Unabhängig voneinander haben mehrere kluge Menschen in den vergangenen Tagen Texte veröffentlicht, die sich damit beschäftigen, wie soziale Netzwerke kleinteilig verbessert, grundlegend reformiert oder komplett neu gedacht werden könnten – auch wenn die Überschriften nicht alle danach aussehen:
- Nick Punt: „De-escalating Social Media” (nickpunt.com)
- Shira Ovice: „Bogus Ideas Have Superspreaders, Too” (NYT)
- Charlie Warzel: „Facebook Can’t Be Reformed” (NYT)
- Will Oremus: „What a Better Social Network Would Look Like” (OneZero)
Punt und Ovide machen konkrete und operationalisierbare Vorschläge. Warzel und Oremus aggregieren jeweils Ideen, die teils unrealistisch bis utopisch anmuten. Nummer 1 und 2 behandeln wir separat, die beiden anderen bündeln wir, da sie inhaltlich zusammenhängen. Wir haben alle vier Texte mit Gewinn gelesen und empfehlen sie weiter.
1. Twitter Mea Culpa
Die Ausgangsthese von Nick Punt lautet: „Social media has a conflict problem.“ Aus unterschiedlichen Gründen, die er nachvollziehbar herleitet, fällt es vielen Menschen in sozialen Netzwerken besonders schwer zuzugeben, dass sie im Unrecht sind und einen Fehler gemacht haben.
Eines der größten Probleme: Wenn einen Hunderte Menschen auf einmal teils aggressiv zurechtweisen, sinkt die Bereitschaft zur Selbstkritik massiv. Auf Twitter gibt es nur drei Optionen:
- Die Antworten ignorieren
- Den Tweet löschen
- Den Tweet online lassen und eine Korrektur posten
Nichts davon ist wirklich zielführend. Deshalb schlägt Punt eine neue Funktion vor – Twitter Mea Culpa:
„Twitter Mea Culpa is a way for a poster to flag their tweet as a mistake and de-escalate a situation, using the same action menu that deleting a post uses, and the same visual design as flagged tweets.“
Wer auf diese Art eingesteht, einen Fehler gemacht zu haben, schränkt die Reichweite seines Ursprungstweets ein und verhindert weitere direkte Antworten. Der Tweet bleibt aber online und kann zitiert werden.
In seinem Gedankenspiel wägt Punt weitere Optionen ab (die Möglichkeit, ein Follow-up zu verschicken oder eine Funktion, mit der andere Nutzerïnnen Vergebung signalisieren können), beleuchtet mögliche Schattenseiten (etwa den Missbrauch durch Trolle) und erklärt, warum eine Mea-Culpa-Möglichkeit besser wäre als ein Edit-Button, den Twitter (aus durchaus nachvollziehbaren Gründen) ablehnt.
Unsere Einschätzung: Ein Twitter Mea Culpa verändert garantiert nicht die Welt – und vermutlich auch Twitter nur geringfügig. Dafür ließe sich die Idee wohl relativ einfach umsetzen, könnte Nutzerïnnen in bestimmen Situation unangenehme Erfahrungen ersparen und Twitter zu einem etwas angenehmeren Ort machen. R U Listening, Jack?
2. Aus großer Reichweite folgt große Verantwortung
Shira Ovide beschreibt den Status Quo:
„If the Rock encouraged his 58 million Facebook followers to vandalize a fast-food restaurant, Facebook’s policies would treat it the same as if your neighbor blasted this to his 25 friends.“
Und leitet daraus ab:
„But whether they intend it or not, celebrities, politicians and others with large online followings can be superspreaders — not of the coronavirus but of dangerous or false information. And I wonder whether these prominent people need to be held to stricter rules.“
Anders ausgedrückt: Ovide wünscht sich, dass Plattformen bei der Content-Moderation nicht nur auf den Inhalt, sondern auch auf die Absenderïnnen achten. Sie erinnert an Beispiele wie die üble „Momo Challenge“, die erst groß wurde, nachdem Kim Kardashian den Unsinn auf Instagram verbreitete.
Auch die Analyse aktueller Corona-Verschwörungsmythen stützt diese Theorie: In Briefing #636 haben wir erklärt, wie wenige Influencerïnnen, Prominente und Politikerïnnen den viralen Unsinn befeuern.
Deshalb schlägt Ovide vor:
- Für Accounts mit mehr als einer halben Million Follower sollen verschärfte Regeln gelten.
- Wer Inhalte postet, die gegen die Richtlinien der Plattform verstoßen oder die von unabhängigen Faktenprüferïnnen widerlegt wurden, erhält einen Strike (ähnlich dem YouTube-System).
- Ab einer gewissen Anzahl von Strikes wird die Reichweite des Accounts eingeschränkt. Facebook könnte seinen Algorithmus entsprechend anpassen, Twitter könnte etwa Retweets blockieren.
- Einflussreiche Nutzerïnnen könnten immer noch alles sagen, was sie wollen (Freedom of Speech), aber sie erreichten nicht mehr alle Menschen, die sie adressieren wollen (Freedom of Reach).
- Eine noch radikalere Idee wäre es, Inhalte von besonders großen Accounts nur noch nach vorheriger Prüfung freizugeben.
- YouTube macht das bereits, bevor es Videos für bestimmte Werbeschaltungen freigibt. Medien machen es ohnehin jeden Tag. Die Plattformen entwickelten sich dann noch mehr in Richtung „Publishern“.
Unsere Einschätzung: Das Gegenargument liefert George Orwell, ausnahmsweise nicht im zu Tode zitierten 1984, sondern in seiner Fabel Farm der Tiere: „Alle Tiere sind gleich, aber manche sind gleicher.“
Natürlich ist es riskant, wenn Nutzerïnnen anders behandelt werden, nur weil sie ein größeres Publikum adressieren. Aber schon Spiderman wusste: „Aus großer Kraft folgt große Verantwortung.“ Und wenn wir Kraft durch Reichweite ersetzen, lässt sich das auf Social Media übertragen.
Für globale Plattformen ist es unmöglich, alle Beiträge perfekt zu moderieren. Content-Moderation kann immer nur darauf bedacht sein, Fehler zu minimieren und Folgeschäden zu begrenzen. Alles richtig zu entscheiden, ist aufgrund der Menge der Inhalte, die Milliarden Nutzerïnnen täglich produzieren, schlicht ausgeschlossen.
Auch deshalb sind Plattformen wie Twitter bereits dazu übergegangen (Twitter-Blog), auch den möglichen Schaden als ein Entscheidungskriterium zu berücksichtigen („If it is likely to cause harm, it should be removed“). Ein Nutzer mit elf Followern, der ein manipuliertes Video von Kim Jong-un hochlädt, ist ein bisschen egal – wenn Trump es tut, könnte die Welt ins Chaos stürzen.
Aus diesem Grund halten wir die Anregung von Shira Ovide zumindest für bedenkenswert und verweisen zudem auf Casey Newton, der bereits vor einigen Monaten schrieb (The Interface):
„Looking at the outcome is a useful frame for making individual policy decisions. There are lots of terrible pieces of social content that are essentially harmless, because no one sees them. And then there are the small few that go viral and do lots of damage. It makes sense that Twitter would focus its moderation efforts at that level. Promising to intervene in cases where there is serious harm isn’t just sensible – it’s also scalable.“
3./4. Es braucht keine Reform, es braucht eine Revolution
Wer über Facebook berichtet, hat den Satz Dutzende Male gehört: „We know we have more work to do.“ So reagiert nicht nur Mark Zuckerberg, wenn Facebook sich von russischen Trollen hat manipulieren lassen, versehentlich Nutzerdaten weitergegeben oder Rechtsradikalen eine Plattform gegeben hat. Charly Warzel drückt es so aus:
„We Know We Have More Work to Do (let’s call it W.K.W.H.M.W.T.D. for short) is the definitive utterance of the social media era, trotted out by executives whenever their companies come in for a public shaming.“
Diese lapidare Beschwichtigung soll Kritik abblocken und guten Willen signalisieren. Der Satz ist mächtig – und gefährlich:
„In Facebook’s case, what is most dangerous about W.K.W.H.M.W.T.D. is that it glosses over the fundamental structural flaws in the platform. The architecture of the social network – its algorithmic mandate of engagement over all else, the advantage it gives to divisive and emotionally manipulative content – will always produce more objectionable content at a dizzying scale.“
In seinen Reaktionen auf Fehler oder Kritik folgt Facebook dem Design-Thinking-Prozess und beschränkt sich auf die Minimum Viable Action, die kleinstmögliche Reaktion. Das Kardinalproblem – die auf maximales Engagement ausgerichteten Algorithmen, kombiniert mit personalisierter Werbung, Microtargeting und massenhafter, plattformübergreifender Datensammlung – bleibt dabei immer außen vor.
Nun könnte man sagen: Eine globale Plattform wie Facebook spiegelt die Gesellschaft wider – und die besteht nun mal nicht nur aus netten Menschen, die Flausch verteilen.
Oder man fragt: Wie kann Facebook weniger toxisch werden? Wie lassen sich Plattformen entwerfen, die positive Emotionen verstärken, statt Hass zu verstärken?
Genau das hat Warzel vergangene Woche getan (Twitter):
„odd question but: what are your most far fetched utopian ideas for fixing social media platforms? the stuff that’s likely never ever gonna happen“
Es folgten mehr als 1100 Antworten, die Warzel im letzten Drittel seiner Kolumne (NYT) selbst kurz zusammenfasst. Den viel besseren und ausführlicheren Überblick liefert aber Will Oremus (OneZero), der unter anderem folgende Ideen-Cluster bildet und jeweils einordnet:
- Soziale Netzwerke in gemeinnützige NGOs verwandeln
- Algorithmen durch Redakteure ersetzen
- Datensammlung und verhaltensbasierte Werbung einschränken
- Weiße Managerïnnen durch Schwarze, queere Frauen ersetzen
- Alternative Plattformen fördern
Zu jedem Vorschlag liefert Oremus nachvollziehbare Pro- und Contra-Argumente, weshalb wir seine Analyse dringend empfehlen (das sagten wir schon, oder?).
Auch wenn ein Großteil der Antworten auf Warzels Tweet wohl nie umgesetzt werden wird, hat das öffentliche Brainstorming zumindest eines gezeigt: Eine Plattform, auf der man eine schnoddrige Frage ohne Punkt und Komma stellt und binnen Stunden Hunderte Antworten von klugen Menschen auf der ganzen Welt erhält, ist ein Ort, für den es sich zu kämpfen lohnt – mit kleinen Verbesserungen und mit großen Utopien.
Showdown in Hongkong: Niemand traut TikTok
Was ist
Das neue Gesetz zum Schutz der nationalen Sicherheit in Hongkong gibt China unter anderem weitreichenden Zugriff auf Nutzerdaten der Sonderverwaltungszone. Deshalb haben Unternehmen wie Facebook, Google, Twitter, Telegram, Microsoft und Zoom angekündigt, vorerst keine Daten mehr mit Hongkonger Sicherheitsbehörden zu teilen – aus Sorge, dass diese Informationen in China landen und dann genutzt werden könnten, um Dissidenten zu verhaften.
TikTok geht noch einen Schritt weiter: ByteDance will die App komplett aus Hongkong abziehen (Reuters). „In light of recent events, we’ve decided to stop operations of the TikTok app in Hong Kong“, sagt ein Sprecher.
Was hinter der Entscheidung steckt
ByteDance ist bekanntlich ein chinesisches Unternehmen – und allein deshalb schlägt TikTok weltweit großes Misstrauen entgegen. Ob berechtigt oder nicht, können wir nicht beurteilen. Fakt ist aber, dass vor allem die USA TikTok als Bedrohung für die nationale Sicherheit empfinden.
Mit dem Schritt will ByteDance signalisieren: Wir sind absolut unabhängig von China. So unabhängig, dass wir in unserer Reaktion sogar noch weitergehen als die US-Konzerne. Wir wollen sicherstellen, dass unter keinen Umständen Daten unserer Nutzerïnnen in Peking landen.
Genau das versichert ByteDance immer wieder öffentlich: TikTok und das chinesisches Pendant Douyin seien strikt getrennt, TikTok-Daten würden ausschließlich in den USA und in Singapur gespeichert, chinesische Zensoren hätten keinerlei Zugriff.
Was man aber auch wissen muss: Hongkong war für TikTok ein unbedeutender Markt, in dem die App angeblich sogar Verluste gemacht hat. Der Rückzug tut finanziell also nicht weh. Und Douyin bleibt in Hongkong nach wie vor aktiv (auch wenn die App nur in Festland-China installiert werden, dann aber in Hongkong genutzt werden kann).
Was TikTok droht
Es ist fraglich, ob das reicht, um die USA zu besänftigen. Die Skepsis bleibt groß, genau wie bei Huawei. Am Montag drohte US-Außenminister Mike Pompeo, Social-Media-Apps aus China zu verbieten (CNN). „Es ist etwas, das wir uns anschauen“, sagte er dem Sender Fox News. Wer TikTok nutze, müsse befürchten, dass seine „privaten Daten in Händen der Kommunistischen Partei Chinas landen.“
Für ByteDance ist das ein weiterer Rückschlag: Der neue TikTok-Chef Kevin Mayer, der von Disney kam, sollte eigentlich Vertrauen stiften. Doch die Lobby-Anstrengungen fruchten bislang nicht. Die USA drohen mit Regulierung oder noch drastischeren Maßnahmen – die Indien, für TikTok der bis dato größte Markt, bereits eingeleitet hat: Das Land hat TikTok und 58 weitere chinesische Apps verboten (Spiegel) – angeblich wegen Sicherheitsbedenken.
Was der Konflikt zeigt
ByteDance stehen wichtige Monate bevor: Schafft es das Unternehmen, die Sorgen außerhalb Chinas zu beschwichtigen? Kann TikTok langfristig mit Instagram und Snapchat konkurrieren und eine globale Plattform werden, obwohl der Entwickler aus China kommt?
Indiens Entscheidung und Pompeos Drohung sind jedenfalls schwere Dämpfer. Tech ist politisch, ob es will oder nicht. Die Spannungen zwischen den USA und China betreffen nicht nur TikTok, sondern auch US-Konzerne. Es droht ein „Splinternet“ (SZ):
„Staaten schotten sich aus politischen Gründen ab, das Netz fragmentiert sich. Die App Stores von Apple und Google werden zu Konfliktfeldern im Ringen der Mächte. Auch im Auswärtigen Amt in Berlin ist man deshalb besorgt: „Sogenanntes Decoupling – das Entstehen verschiedener voneinander abgetrennter Tech-Sphären – ist nicht in deutschem Interesse und wird von uns mit großer Sorge gesehen.„
Follow the money
-
- Shopping first, social second (1): Verishop ist ein E-Commerce-Angebot für Luxusartikel, das von Snapchats ehemaligem Chief Business Officer, Imran Khan, gegründet wurde. Das Spannende an Verishop ist, dass jetzt – nach erfolgreichem Launch des Shops – peu a peu Social-Features hinzugefügt werden (Axios) – etwa Feeds und Influencer-Content. Als Vorbild für diese Vorgehensweise dient Alibaba.
- Shopping first, social second (2): Statt des Activity-Buttons zeigt Instagram nun testweise den Shopping-Button an (Techcrunch). Zwar versteckt sich hinter dem Shopping-Button nichts Neues – Nutzer werden auf die selbe Shopping-Seite weitergeleitet wie es bislang über die Explore-Page der Fall war. Sehr wohl bekommt das Shopping-Feature damit mehr Aufmerksamkeit – up and front!
Statistiken und Trends
- China Internet Report: Die zur Alibaba-Group gehörige South China Morning Post hat den dritten China Internet Report veröffentlicht. Wer sich für die neuesten Trends in China interessiert, kommt an dieser Bestandsaufnahme eigentlich nicht drum herum. Wer mag, lädt sich das PDF herunter. No worries, nur die Pro-Version kostet Geld. Wer keine Lust hat, sich das PDF herunterzuladen, der schaut sich entweder das YouTube-Video an oder wartet auf eine der nächsten Briefing-Ausgaben, in der wir noch einmal ausführlicher auf einzelne Trends eingehen werden.
Neue Features bei den Plattformen
-
- Neue Gruppen-Funktionen: Nutzerinnen können jetzt in Gruppen nach Dateien suchen. Zudem können nun Badges verteilt werden – etwa, um Moderatoren besser zu erkennen. Beides ist bei Digital Information World nachzulesen.
- Lasso ist dicht: Im November 2018 schrieben wir in Ausgabe #502: „Einige Entwickler bei Facebook mussten wieder einmal über mehrere Monaten ihren Stolz am Eingang abgeben und eine App klonen: das Ergebnis hört auf den Namen Lasso und soll als Konkurrenz zu TikTok ins Feld geschickt werden.“ Heute ist klar: Das Kopieren hat in diesem Fall nicht funktioniert. TikTok geht weiter durch die Decke. Lasso wird eingestellt. Facebook investiert jetzt lieber all seine Ressourcen in Reels – ein noch viel krasserer TikTok-Klon (YouTube /. Alec Wilcock).
- Alle Stories auf einen Blick: Instagram arbeitet daran, Stories mehr Platz einzuräumen. Verständlicherweise, muss man sagen. Stories sind das Flagship-Feature schlechthin. Komisch genug, dass es bislang nur so wenig Platz in der App einnimmt. Nachdem zunächst getestet wurde, ob zwei statt nur einer Reihe Stories beim Nutzer reüssieren, legt Instagram jetzt noch einmal eine Schippe drauf und bietet testweise alle Stories auf einen Blick an. Fair enough. Aber wie sagt Morten so schön: „Himmel, ist das unübersichtlich!“
TikTok
- Neue Cover-Optionen: Bislang starten TikToks auf dem ersten Frame – ein Cover, wie wir es aus Mediatheken oder von YouTube kennen, gibt es bisher nicht. Das könnte sich womöglich bald ändern. In den USA testet TikTok derzeit die Option, für TikToks ein eigenes Cover anzulegen (Twitter / Deven Machette).
- Colloborative Fleets: Twitter arbeitet ja bekanntlich bereits seit einiger Zeit an seiner eigenen Version von Stories – sie nennen es Fleets. Nun hat jemand einen Screenshot geteilt, der einen spannenden Twist zeigt: gemeinsam erstellte Fleets. Mal abgesehen davon, dass die UX noch super hässlich ist, finden wir die Idee erstmal ziemlich spannend!
Amazon
- Watch Parties: Auch Amazon bietet jetzt Watch Parties an(The Verge). Prime-Nutzer in den USA können testweise mit bis zu 100 anderen Personen zusammen ausgewählte Filme anschauen und darüber quatschen. Wir hatten uns in unseren Briefings ja anfänglich über die Idee der Watch Parties amüsiert. Das war allerdings vor der Corona-Pandemie. Jetzt können auch wir der Idee zunehmend mehr abgewinnen und finden es nachvollziehbar, dass alle großen Streaming-Anbieter an entsprechenden Features arbeiten – siehe WarnerMedias, Disneys und Netflix Zusammenarbeit mit Scener (The Verge).
Tipps, Tricks und Apps
- Link Drop: Die Idee von Link Drop ist denkbar simpel: Account machen, Chrome- oder Firefox-Extension installieren, interessante Links sammeln und einmal am Tag per E-Mail sämtliche Links serviert bekommen. Sweet! Leider gibt es bislang keine Option, seinen Account wieder zu löschen. Von daher raten wir allen, die das Feature ausprobieren wollen, eine E-Mail-Adresse zu nutzen, die bei Bedarf wieder weggeschmissen werden kann. Das ist sowieso immer eine gute Idee, um neue Programme zu testen. Einfach einen E-Mail-Alias einrichten, der dann auf die Hauptadresse weiterleitet.
Header-Foto von AJ Colores bei Unsplash
Mitglieder-Diskussion