Wie Social-Media-Angebote wieder sozialer werden könnten

Das Potenzial, das soziale Netzwerke haben, ist groß. Die Realität zeichnet ein anderes Bild. Doch statt abzubilden und zu beklagen, was ist, wollen wir an dieser Stelle einen konstruktiven Blick auf Social Media werfen.

Weiterempfehlen

Share on whatsapp
Share on facebook
Share on linkedin
Share on twitter
Share on email

Was ist

Es vergeht keine Woche, ohne dass in diesem Briefing die Worte Hass, Rassismus und Menschenfeindlichkeit auftauchen. Die jüngsten Beispiele: #StopHateforProfit in Briefing #650 und das Deplatforming rechtsradikaler Kanäle, Gruppen und Subreddits durch YouTube, Facebook, Twitch und Reddit in Briefing #651.

Das ist traurig, denn eigentlich schreiben wir über soziale Medien. Doch zumindest in der öffentlichen Wahrnehmung überwiegen die negativen Folgeerscheinungen die positiven Effekte – die es zweifellos gibt. Social Media vernetzen Menschen auf der ganzen Welt und geben Leuten eine Stimme, die lange nicht gehört wurden, wie etwa #MeToo und #BlackLivesMatter zeigen.

Was das bedeutet

Das Potenzial, das soziale Netzwerke haben, ist groß. Die Realität zeichnet ein anderes Bild. Doch statt abzubilden und zu beklagen, was ist, wollen wir an dieser Stelle einen konstruktiven Blick auf Social Media werfen: Wir sammeln Vorschläge, was Plattformen, Politik und Nutzerïnnen tun könnten, damit kulturpessimistische Feuilletonistïnnen nicht mehr halbironisch von "sogenannten sozialen Medien" schreiben müssen.

Woher die Idee kommt

Unabhängig voneinander haben mehrere kluge Menschen in den vergangenen Tagen Texte veröffentlicht, die sich damit beschäftigen, wie soziale Netzwerke kleinteilig verbessert, grundlegend reformiert oder komplett neu gedacht werden könnten – auch wenn die Überschriften nicht alle danach aussehen:

  1. Nick Punt: „De-escalating Social Media” (nickpunt.com)
  2. Shira Ovice: „Bogus Ideas Have Superspreaders, Too” (NYT)
  3. Charlie Warzel: „Facebook Can’t Be Reformed” (NYT)
  4. Will Oremus: „What a Better Social Network Would Look Like” (OneZero)

Punt und Ovide machen konkrete und operationalisierbare Vorschläge. Warzel und Oremus aggregieren jeweils Ideen, die teils unrealistisch bis utopisch anmuten. Nummer 1 und 2 behandeln wir separat, die beiden anderen bündeln wir, da sie inhaltlich zusammenhängen. Wir haben alle vier Texte mit Gewinn gelesen und empfehlen sie weiter.

1. Twitter Mea Culpa

Die Ausgangsthese von Nick Punt lautet: "Social media has a conflict problem." Aus unterschiedlichen Gründen, die er nachvollziehbar herleitet, fällt es vielen Menschen in sozialen Netzwerken besonders schwer zuzugeben, dass sie im Unrecht sind und einen Fehler gemacht haben.

Eines der größten Probleme: Wenn einen Hunderte Menschen auf einmal teils aggressiv zurechtweisen, sinkt die Bereitschaft zur Selbstkritik massiv. Auf Twitter gibt es nur drei Optionen:

  1. Die Antworten ignorieren
  2. Den Tweet löschen
  3. Den Tweet online lassen und eine Korrektur posten

Nichts davon ist wirklich zielführend. Deshalb schlägt Punt eine neue Funktion vor – Twitter Mea Culpa:

"Twitter Mea Culpa is a way for a poster to flag their tweet as a mistake and de-escalate a situation, using the same action menu that deleting a post uses, and the same visual design as flagged tweets."

Wer auf diese Art eingesteht, einen Fehler gemacht zu haben, schränkt die Reichweite seines Ursprungstweets ein und verhindert weitere direkte Antworten. Der Tweet bleibt aber online und kann zitiert werden.

In seinem Gedankenspiel wägt Punt weitere Optionen ab (die Möglichkeit, ein Follow-up zu verschicken oder eine Funktion, mit der andere Nutzerïnnen Vergebung signalisieren können), beleuchtet mögliche Schattenseiten (etwa den Missbrauch durch Trolle) und erklärt, warum eine Mea-Culpa-Möglichkeit besser wäre als ein Edit-Button, den Twitter (aus durchaus nachvollziehbaren Gründen) ablehnt.

Unsere Einschätzung: Ein Twitter Mea Culpa verändert garantiert nicht die Welt – und vermutlich auch Twitter nur geringfügig. Dafür ließe sich die Idee wohl relativ einfach umsetzen, könnte Nutzerïnnen in bestimmen Situation unangenehme Erfahrungen ersparen und Twitter zu einem etwas angenehmeren Ort machen. R U Listening, Jack?

2. Aus großer Reichweite folgt große Verantwortung

Shira Ovide beschreibt den Status Quo:

"If the Rock encouraged his 58 million Facebook followers to vandalize a fast-food restaurant, Facebook’s policies would treat it the same as if your neighbor blasted this to his 25 friends."

Und leitet daraus ab:

"But whether they intend it or not, celebrities, politicians and others with large online followings can be superspreaders — not of the coronavirus but of dangerous or false information. And I wonder whether these prominent people need to be held to stricter rules."

Anders ausgedrückt: Ovide wünscht sich, dass Plattformen bei der Content-Moderation nicht nur auf den Inhalt, sondern auch auf die Absenderïnnen achten. Sie erinnert an Beispiele wie die üble "Momo Challenge", die erst groß wurde, nachdem Kim Kardashian den Unsinn auf Instagram verbreitete.

Auch die Analyse aktueller Corona-Verschwörungsmythen stützt diese Theorie: In Briefing #636 haben wir erklärt, wie wenige Influencerïnnen, Prominente und Politikerïnnen den viralen Unsinn befeuern.

Deshalb schlägt Ovide vor:

  • Für Accounts mit mehr als einer halben Million Follower sollen verschärfte Regeln gelten.
  • Wer Inhalte postet, die gegen die Richtlinien der Plattform verstoßen oder die von unabhängigen Faktenprüferïnnen widerlegt wurden, erhält einen Strike (ähnlich dem YouTube-System).
  • Ab einer gewissen Anzahl von Strikes wird die Reichweite des Accounts eingeschränkt. Facebook könnte seinen Algorithmus entsprechend anpassen, Twitter könnte etwa Retweets blockieren.
  • Einflussreiche Nutzerïnnen könnten immer noch alles sagen, was sie wollen (Freedom of Speech), aber sie erreichten nicht mehr alle Menschen, die sie adressieren wollen (Freedom of Reach).
  • Eine noch radikalere Idee wäre es, Inhalte von besonders großen Accounts nur noch nach vorheriger Prüfung freizugeben.
  • YouTube macht das bereits, bevor es Videos für bestimmte Werbeschaltungen freigibt. Medien machen es ohnehin jeden Tag. Die Plattformen entwickelten sich dann noch mehr in Richtung „Publishern“.

Unsere Einschätzung: Das Gegenargument liefert George Orwell, ausnahmsweise nicht im zu Tode zitierten 1984, sondern in seiner Fabel Farm der Tiere: "Alle Tiere sind gleich, aber manche sind gleicher."

Natürlich ist es riskant, wenn Nutzerïnnen anders behandelt werden, nur weil sie ein größeres Publikum adressieren. Aber schon Spiderman wusste: "Aus großer Kraft folgt große Verantwortung." Und wenn wir Kraft durch Reichweite ersetzen, lässt sich das auf Social Media übertragen.

Für globale Plattformen ist es unmöglich, alle Beiträge perfekt zu moderieren. Content-Moderation kann immer nur darauf bedacht sein, Fehler zu minimieren und Folgeschäden zu begrenzen. Alles richtig zu entscheiden, ist aufgrund der Menge der Inhalte, die Milliarden Nutzerïnnen täglich produzieren, schlicht ausgeschlossen.

Auch deshalb sind Plattformen wie Twitter bereits dazu übergegangen (Twitter-Blog), auch den möglichen Schaden als ein Entscheidungskriterium zu berücksichtigen ("If it is likely to cause harm, it should be removed"). Ein Nutzer mit elf Followern, der ein manipuliertes Video von Kim Jong-un hochlädt, ist ein bisschen egal – wenn Trump es tut, könnte die Welt ins Chaos stürzen.

Aus diesem Grund halten wir die Anregung von Shira Ovide zumindest für bedenkenswert und verweisen zudem auf Casey Newton, der bereits vor einigen Monaten schrieb (The Interface):

"Looking at the outcome is a useful frame for making individual policy decisions. There are lots of terrible pieces of social content that are essentially harmless, because no one sees them. And then there are the small few that go viral and do lots of damage. It makes sense that Twitter would focus its moderation efforts at that level. Promising to intervene in cases where there is serious harm isn’t just sensible – it’s also scalable."

3./4. Es braucht keine Reform, es braucht eine Revolution

Wer über Facebook berichtet, hat den Satz Dutzende Male gehört: "We know we have more work to do." So reagiert nicht nur Mark Zuckerberg, wenn Facebook sich von russischen Trollen hat manipulieren lassen, versehentlich Nutzerdaten weitergegeben oder Rechtsradikalen eine Plattform gegeben hat. Charly Warzel drückt es so aus:

"We Know We Have More Work to Do (let’s call it W.K.W.H.M.W.T.D. for short) is the definitive utterance of the social media era, trotted out by executives whenever their companies come in for a public shaming."

Diese lapidare Beschwichtigung soll Kritik abblocken und guten Willen signalisieren. Der Satz ist mächtig – und gefährlich:

"In Facebook’s case, what is most dangerous about W.K.W.H.M.W.T.D. is that it glosses over the fundamental structural flaws in the platform. The architecture of the social network – its algorithmic mandate of engagement over all else, the advantage it gives to divisive and emotionally manipulative content – will always produce more objectionable content at a dizzying scale."

In seinen Reaktionen auf Fehler oder Kritik folgt Facebook dem Design-Thinking-Prozess und beschränkt sich auf die Minimum Viable Action, die kleinstmögliche Reaktion. Das Kardinalproblem – die auf maximales Engagement ausgerichteten Algorithmen, kombiniert mit personalisierter Werbung, Microtargeting und massenhafter, plattformübergreifender Datensammlung – bleibt dabei immer außen vor.

Nun könnte man sagen: Eine globale Plattform wie Facebook spiegelt die Gesellschaft wider – und die besteht nun mal nicht nur aus netten Menschen, die Flausch verteilen.

Oder man fragt: Wie kann Facebook weniger toxisch werden? Wie lassen sich Plattformen entwerfen, die positive Emotionen verstärken, statt Hass zu verstärken?

Genau das hat Warzel vergangene Woche getan (Twitter):

"odd question but: what are your most far fetched utopian ideas for fixing social media platforms? the stuff that’s likely never ever gonna happen"

Es folgten mehr als 1100 Antworten, die Warzel im letzten Drittel seiner Kolumne (NYT) selbst kurz zusammenfasst. Den viel besseren und ausführlicheren Überblick liefert aber Will Oremus (OneZero), der unter anderem folgende Ideen-Cluster bildet und jeweils einordnet:

  • Soziale Netzwerke in gemeinnützige NGOs verwandeln
  • Algorithmen durch Redakteure ersetzen
  • Datensammlung und verhaltensbasierte Werbung einschränken
  • Weiße Managerïnnen durch Schwarze, queere Frauen ersetzen
  • Alternative Plattformen fördern

Zu jedem Vorschlag liefert Oremus nachvollziehbare Pro- und Contra-Argumente, weshalb wir seine Analyse dringend empfehlen (das sagten wir schon, oder?).

Auch wenn ein Großteil der Antworten auf Warzels Tweet wohl nie umgesetzt werden wird, hat das öffentliche Brainstorming zumindest eines gezeigt: Eine Plattform, auf der man eine schnoddrige Frage ohne Punkt und Komma stellt und binnen Stunden Hunderte Antworten von klugen Menschen auf der ganzen Welt erhält, ist ein Ort, für den es sich zu kämpfen lohnt – mit kleinen Verbesserungen und mit großen Utopien.

Scroll to Top

Briefing testen

Salut! Über 3500 Kollegïnnen haben unseren kostenpflichtigen Newsletter bereits abonniert. Wenn Du magst, schicken wir dir gern die nächsten zwei Ausgaben zur Probe – kostenfrei und unverbindlich.