Monat: Juli 2020

23.7.2020 | Kampf um TikTok, Twitter kickt QAnon, BKA liest bei WhatsApp mit, Mozillas TheirTube

Kampf um TikTok

Was ist

Bei TikTok brennt die Hütte. Woche für Woche wird der Ton rauer, die Kritik lauter. Politikerïnnen warnen eindringlich, Indien hat die App bereits verboten, die USA denken darüber nach. Auch ein (erzwungener) Verkauf von TikTok an ein nicht-chinesisches Unternehmen wird derzeit ins Spiel gebracht. Der Versuch einer Einordnung:

Worum geht es konkret?

  • TikTok gehört zum chinesischen Startup ByteDance.
  • Zwar sammelt TikTok einer Untersuchung der Washington Post zufolge nicht mehr Daten als Facebook (was nicht unbedingt ein Kompliment ist), doch viele Politikerïnnen und Datenschützerïnnen befürchten, dass TikTok sensible Daten mit chinesischen Behörden teilen könnte.
  • Vor allem in den USA schlagen Teile des politischen Establishments Alarm: Sie stufen TikTok als nationales Sicherheitsrisiko und prüfen ein Verbot der App (siehe Briefing #652).
  • Auf Smartphones des US-Militärs ist die Nutzung von TikTok bereits untersagt (Military). Mitarbeitern des DNC und RNC wird nahegelegt, die App nur auf einem separaten Gerät zu nutzen (CNN). US-Bundesangestellten könnte die Nutzung auf Dienstgeräten bald verboten werden (The Information).
  • US-Präsident Trump ruft via Facebook-Anzeige (CNN) dazu auf, die App nicht zu nutzen.
  • Das Unternehmen beteuert, keine Daten mit der chinesischen Regierung zu teilen. Auch stünden die Server, die Daten von TikTok-Nutzerïnnen verarbeiten, gar nicht in China. Das chinesische Regime habe keinen Zugriff und keinen Einfluss auf das Unternehmen.
  • Dass eine solch rigorose Abschottung für ein chinesisches Unternehmen überhaupt möglich ist, wird von vielen angezweifelt – zumeist mit Verweis auf das „National Intelligence Law“ (lawfareblog), das Unternehmen enge Verbindungen zur Regierung vorschreibt. Ben Thompson schreibt:

All Chinese Internet companies are compelled by the country’s National Intelligence Law to turn over any and all data that the government demands, and that power is not limited by China’s borders. Moreover, this requisition of data is not subject to warrants or courts, as is the case with U.S. government requests for data from Facebook or any other entity; the Chinese government absolutely could be running a learning algorithms in parallel to ByteDance’s on all TikTok data.

We may share your information with law enforcement agencies, public authorities or other third parties if we consider that we are legally required to do so or if such use is reasonably necessary to: comply with a legal process or request;

  • Zudem gibt es angeblich Überschneidungen bei den Teams (The Information), die sich um TikTok, die chinesische Zwillings-App Douyin und weitere Apps aus dem Haus ByteDance kümmern:

ByteDance’s different apps share technologies for personalized recommendation and other engineering resources.

  • Auch verschleiert TikTok der Washington Post zufolge einen Teil des Datenstroms – Zitat:

TikTok even takes steps to obfuscate how the app works, which the company told The Washington Post is meant to thwart hackers, but obviously could have other purposes. Even by watching the app's network requests, you can't get the whole picture.

  • Unterm Strich gibt es keine eineindeutigen Beweise – weder für die eine, noch für die andere Seite. Es geht um Vertrauen. Doch wie David Pierce bei Protocol anmerkt, ist es mit Vertrauen bei China so eine Sache:

China is willing and able to use data to suppress dissent, distribute propaganda and harm people.

Warum ist das alles überhaupt interessant?

___STEADY_PAYWALL___

  • Zum ersten Mal erleben wir, dass ein Online-Dienst, der seine Ursprünge in China hat, weltweit genutzt wird. Insbesondere in der jungen Zielgruppe ist die App populär.
  • Über Jahrzehnte dominierten die USA, wenn es um Mainstream-Kultur ging. Genau diese Dominanz stellt TikTok ernsthaft in Frage.
  • Es geht bei TikTok nicht nur um Datenschutzaspekte, sondern um ökonomische, politische und kulturelle Machtfragen:

 

  1. Es geht um die Zukunft des Netzes und die Frage, ob sich das Internet in ein Splinternet verwandelt (Wikipedia).
  2. Es geht um die Frage, wer darüber (mit-)entscheidet, welche Inhalte bei den Nutzerïnnen landen: US-amerikanische Unternehmen, bei denen die Sorge besteht, dass sie zu lax moderieren? Oder Unternehmen aus China, bei denen die Sorge besteht, dass sie zu viel moderieren ("zensieren")?
  3. Es geht um wirtschaftliche Fragen: Kann ein Unternehmen mit Wurzeln in China den westlichen Markt aufmischen, während westlichen Unternehmen der Zugang zum chinesischen Markt verwehrt bleibt?
  4. Es geht um geopolitische Fragen: Die Drohung, eine App zu verbieten, wird zur politischen Handlungsmasse.
  5. Es geht um Glaubensfragen: Ben Thompson, bislang nicht gerade als politischer Hardliner aufgefallen, fordert den Verkauf von TikTok an ein nicht-chinesisches Unternehmen, um „die Welt vor Chinas Krieg gegen den Liberalismus zu schützen“.

Wie könnte es weitergehen?

  • Wenn die USA die App nicht verbieten oder hart regulieren, dürfte der Siegeszug von TikTok vorerst weitergehen.
  • Sollte ein Verbot kommen, muss sich ByteDance überlegen, ob sie die App tatsächlich verkaufen möchten. Zu wichtig ist der amerikanische Werbemarkt derzeit für das Unternehmen: Gut die Hälfte aller Umsätze erzielt TikTok in den USA.
  • Allerdings dürfte für TikTok mindestens eine zweistellige Milliardensumme veranschlagt werden. Wer das bezahlen soll, ist mit Blick auf die politischen Implikationen fraglich.
  • Vielleicht kommt ByteDance aber auch einem Verbot zuvor: Angeblich werden bereits vorsichtige erste Gespräche geführt (The Information).

Be smart

ByteDance ist bereits zur Hälfte in US-Hand. Auch sind 4 von 5 Mitgliedern des Aufsichtsrats Amerikaner. Ein Verkauf an US-amerikanische Investoren wäre also gar kein so großer Kulturschock. Dennoch ist dieses Szenario mindestens aus zwei Gründen unwahrscheinlich:

  1. Ein Verkauf an ein nicht-chinesisches Unternehmen bedeutet nicht automatisch das Ende des Konflikts. Schließlich haben die Installation eines Ex-Disney-Managers als neuem CEO (New York Times), eine Neuaufstellung des Management-Boards (Pandaily), die Verstärkung der Lobby-Bemühungen (New York Times), die Ankündigung, Tausende neue Jobs zu schaffen (Axios) sowie die Diskussion um ein neues Headquarter außerhalb von China (The Guardian) auch noch nicht dazu geführt, ausreichend Vertrauen zu gewinnen.
  2. Zudem fielen bei einer Übernahme wohl Teile des Codes, der TikTok (und Douyin) so populär macht, in die Hände Dritter. Dass ByteDance dies zulässt, ist fraglich. Dann doch lieber wieder auf den lukrativen Heimatmarkt konzentrieren (The Information).

Wie auch immer das alles ausgeht, Facebook ist natürlich bereits vorbereitet, um TikTok das Leben schwer zu machen: Der TikTok-Klon Reels steht kurz vorm internationalen Rollout (Techcrunch).


Twitter kickt QAnon – endlich

Was ist

Twitter hat eine Reihe von Maßnahmen gegen die rechtsradikale QAnon-Bewegung angekündigt. Sie sollen Reichweite und Sichtbarkeit der Verschwörungsmythen reduzieren.

Warum das wichtig ist

QAnon steht längst nicht mehr nur für ein paar Spinnerïnnen, die man einfach ignorieren kann. Die Bewegung ist gefährlich, und ihre Lügen haben Konsequenzen:

  • Was vor drei Jahren auf 4chan begann, reicht mittlerweile weit in die Gesellschaft hinein.
  • QAnon-Anhängerïnnen glauben, die Demokraten bereiteten einen Staatsstreich gegen Donald Trump vor. Sie wittern überall Pädophilen-Netzwerke, ihr Weltbild ist geprägt von Rassismus und Antisemitismus.
  • In den USA wurden mehrfach bewaffnete QAnon-Unterstützerïnnen festgenommen, teils schossen sie auf andere Menschen.
  • Der US-Präsident und einflussreiche Republikaner teilen Inhalte der Bewegung oder retweeten einflussreiche Accounts (Politico). Bei den kommenden US-Wahlen werden zahlreiche QAnon-Anhängerïnnen antreten (NYT).
  • Die Verschwörungsmythen sind auch in Deutschland angekommen: Vor allem auf Telegram vermischen sich Corona-Leugnerïnnen und QAnon-Gläubige. Auf einigen Kanälen rufen sie zum bewaffneten Widerstand auf.

Wie Twitter gegen QAnon vorgeht

Ein ganzes Maßnahmenpaket soll verhindern, dass sich die Verschwörungserzählungen weiter ausbreiten und QAnon-Anhängerïnnen andere Nutzerïnnen belästigen und bedrohen:

  • Twitter wird Accounts dauerhaft sperren, die sich zusammenschließen, um koordinierte Angriffe auf andere Personen durchzuführen.
  • Inhalte und Konten, die in Verbindung mit QAnon stehen, sollen nicht mehr in den Trends und Empfehlungen auftauchen. Dasselbe gilt für Suchergebnisse und Unterhaltungen.
  • Bestimmte URLs, die auf Domains führen, die Twitter QAnon zurechnet, können nicht mehr geteilt werden.

Im Zuge dieser Maßnahmen hat Twitter bereits 7000 Accounts gesperrt (NBC). Insgesamt beträfen die Schritte rund 150.000 Konten, sagt eine Person, die im Namen von Twitter spricht, aber anonym bleiben will, weil sie gezielte Hasskampagnen fürchtet.

Wie Twitter das Vorgehen begründet

Twitter spricht im Zusammenhang mit QAnon von "Verhalten, das das Potential habe, 'offline harm' auszulösen". Wie berechtigt diese Sorge ist, zeigt diese Atlantic-Titelgeschichte, in der Adrienne LaFrance ausführlich erklärt, wie und warum Verschwörungsmythen wie QAnon eine reale Gefahr darstellen.

Zu spüren bekamen das in den vergangenen Jahren immer wieder Prominente, die von QAnon-Anhängerïnnen digital verfolgt, belästigt und bedroht wurden. Erst vergangene Woche schrieb etwa Chrissy Teigen (Twitter):

I have block chained over one million people, ONE MILLION people today and I am still flooded with sick psychopaths. So please, spare me the "just ignore them, they’re just trolls"

Dementsprechend erleichtert reagiert sie jetzt auf Twitters Entscheidung. Einem Account, der von "Zensur" spricht, antwortet sie:

You don’t have a "right" to coordinate attacks and make death threats. It is not an "opinion" to call people pedophiles who rape and eat children.

Be smart

Der Trend, den wir in Briefing #654 als allmählichen Abschied vom "Wild Wild Web" beschrieben haben, setzt sich fort. Plattformen verschärfen ihr Vorgehen gegen Rechtsradikale, Rassistïnnen und Verschwörungsideologïnnen. Sie erkennen, dass digitaler Hass analoge Folgen hat, und handeln dementsprechend.

Deplatforming verbannt die Wut nicht aus den Köpfen, sondern nur aus der Öffentlichkeit. Das birgt Gefahren, manche Bewegungen formieren sich in dunkleren Ecken neu und radikalisieren sich weiter. Studien deuten aber daraufhin, dass in den meisten Fällen die Vorteile überwiegen: Wenn Verschwörungsmythen weniger sichtbar sind, sinkt die Gefahr, dass sich das Gift noch weiter in die Gesellschaft hineinfrisst.

Twitter ist die erste große Plattform, die konsequent gegen QAnon vorgeht. Reddit hat einzelne Richtlinie, die etwa koordinierte Hasskampagnen verbieten, Facebook sperrte im Frühjahr mehrere Seiten, Gruppen und Konten (PDF). Eine konsistente Policy fehlt aber bislang, und der Guardian enthüllte kürzlich, dass QAnon-Verschwörungsmythen auf Facebook Hunderttausende Menschen erreichen.

Das könnte sich bald ändern (NYT):

Facebook is preparing to take similar steps to limit the reach of QAnon content on its platform, said two Facebook employees with knowledge of the plans, who spoke on the condition of anonymity. The company has been coordinating with Twitter and other social media companies and plans to make an announcement next month, the employees said.


Das BKA liest bei WhatsApp mit: kein Hack, trotzdem wichtig

 

Was ist

Eine Recherche von Florian Flade und Hakan Tanriverdi (Offenlegung: die wir persönlich kennen und schätzen) löste viele Reaktionen aus. Kein Wunder bei dieser Überschrift: "BKA kann bei WhatsApp mitlesen" (Tagesschau)

Auf die anfängliche Aufregung folgte viel Kritik – und zwar nicht unbedingt am BKA, sondern an der Aufmachung von BR und Tagesschau.

 

Was die Kritikerïnnen sagen

Vor allem auf Twitter bemängelten viele die angeblich übertriebene Darstellung der Recherche. Auch manche Medien hielten Debunkings für nötig: "Nein, das BKA kann eure WhatsApp-Nachrichten nicht einfach so mitlesen" (t3n)

Im Wesentlichen geht es um zwei Vorwürfe:

  1. Ermittlerinnen benötigen physischen Zugriff auf das Smartphone. Das ist eine enorm hohe Hürde. Und wer das (entsperrte) Handy einer Zielperson hat, kann ohnehin auf alle Daten, Kontakte und Nachrichten zugreifen, sofern sie sich nicht zusätzlich gesichert sind.
  2. Das BKA hat nicht etwa WhatsApp gehackt, sondern nutzt eine ganz normale Funktion: Die Beamtïnnen koppeln das Smartphone mit dem Web-Client in einem andere Browser ("WhatsApp Web") und können anschließend über den eigenen Rechner auf vergangene Konversation zugreifen und künftige Unterhaltungen mitlesen. Wenn das Smartphone gekoppelt ist, werden Nutzerïnnen aber durch eine dauerhafte Benachrichtigung gewarnt und können die Verbindung jederzeit aufheben. Das sind keine guten Voraussetzung, um Kriminelle zu überwachen, die sich auch nur ein kleines bisschen mit Technik auskennen.

 

Was die Journalistïnnen sagen

Flo und vor allem Hakan antworten vielen Menschen, die sich auf Twitter über angeblichen Clickbait beschweren. Ihre Argumentation: Die Aussage der Überschrift ist korrekt, faktisch liest das BKA auf WhatsApp mit. Außerdem ist im Teaser von einer "regulären Funktion" die Rede, ein Hack wird nirgends nahegelegt.

Der wichtigste Grund für die Berichterstattung lautet aber: Das BKA hat den Umweg über den Web-Client von WhatsApp bereits im Fall eines Terrorverdächtigen genutzt, der gemeinsam mit dem Breitscheidplatz-Attentäter Anis Amri und einem französischen Extremisten eine Serie von Bombenanschlägen geplant haben soll.

Bislang war nicht bekannt, dass Ermittlerïnnen neben dem Staatstrojaner auch auf solche Low-Tech-Methoden setzen, um verschlüsselte Messenger-Nachrichten abzugreifen. Technisch ist das natürlich banal, aber allein die Tatsache, dass das BKA auf diesem Weg versucht, bei WhatsApp mitzulesen, ist eine wichtige Information und könnte die Debatte über den Einsatz des Staatstrojaners neu befeuern.


Social Media & Politik

  • Interaktionen vs. Reach bei Facebook: Viele Journalisten-Kollegïnnen nutzen Crowdtangle, um zu ermitteln, welche Posts bei Facebook gerade am meisten Aufmerksamkeit erhalten – also am meisten Retweets, Likes und Comments verbuchen. Zumeist leiten sie daraus ab, dass dies auch die Inhalte sind, die am meisten Menschen erreichen. Genau das sei aber gar nicht der Fall, argumentiert John Hegeman, Facebooks News-Feed-Boss. Vielmehr müssten dafür die Links angeschaut werden, die am meisten Impressions erhalten – und die würden sich stark von den häufig durch Interessensgruppen gepuschten Inhalten unterscheiden.

Kampf gegen Desinformation

  • Desinfo bei TikTok recherchieren: Bei TikTok gibt es mittlerweile natürlich auch allerhand Spinnerïnnen, die Desinformationen verteilen. Um entsprechende Inhalte ausfindig zu machen, gibt es verschiedene Möglichkeiten: Das YouTiube-Tutorial von First Draft kennt sie alle. Bookmark!
  • TheirTube: Ein neues Projekt von Mozilla lässt Nutzerïnnen in die Filterblasen von unterschiedlichen Personas eintauchen: Konservative, Liberale, Klimawandel-Leugner, Prepper, Verschwörungstheoretiker und Frutarier (hä?!) stehen bei their.tube (!) zur Auswahl. Ganz spannend – auch wenn wir die Aussagekraft noch nicht wirklich einschätzen können.


Neue Features bei den Plattformen

Messenger

  • App Lock: Facebook führt einen Mechanismus ein, um neugierige Freunde davon abzuhalten, mal eben kurz die Nachrichten im Messenger zu checken: App Lock heißt das neue, sinnvolle Feature.

Instagram

Spotify

  • Video Podcasts: Wenn nicht gerade Corona ist, sitzen bei einer Podcast-Aufnahme meistens mindestens zwei Menschen zusammen in einem Raum vor ihren Mikros. Dass sich das auch durchaus für Bewegtbild eignet, haben viele YouTuber bereits erkannt. Jetzt möchte Spotify nachziehen und ernennt Video Podcasts (Techcrunch) zum eigenen Genre. Spannend!
  • Curated Podcast Playlists: Podcasts sind eine prima Sache. Allerdings gibt es noch die eine oder andere Schwierigkeit, spannende und passende Podcasts zu entdecken. Spotifys neue Playlists sollen dabei helfen (The Verge).

Google

  • ShopLopp: Googles R&D-Abteilung Area 120 lässt einen neuen Testballon steigen: Shoploop (Techcrunch) ist eine Video-Shopping-App, die Social Media und E-Commerce miteinander verbinden soll. Spannendes Thema. Demnächst mehr dazu an dieser Stelle.

Tipps, Tricks und Apps

  • Meetings that should have been an email: Producthunt kuratiert täglich spannende Tools. Im aktuellen Newsletter geben sie Tool-Tipps zum Thema „Virtuelle Meetings“.
  • Taler by Shopify: Unsere Cover-Bilder basteln wir mit Canva – einem relativ simplen Online-Grafik-Werkzeug, das Techcrunch zufolge um die 6 Milliarden Dollar wert ist. Völlig irre. Jedenfalls bekommt Canva nun Konkurrenz aus dem Hause Shopify. Die Erfolgs-App des Deutschen Gründers Tobias Lütke hat ein neues Nebenprojekt gelauncht, das ebenfalls dabei hilft, Grafiken für Social & Co zu erstellen. Say hello to Taler.
  • Ethical Explorer: Gefühlt vor einer halben Ewigkeit haben wir hier beim Social Media Watchblog quasi wöchentlich über die Time-Well-Spent-Bewegung von Tristan Harris berichtet. Da das Thema heute nicht mehr ganz so groß auf der Agenda der internationalen Presse steht, freuen wir uns um so mehr, dass aus dem Omidyar Netzwerk nachgelegt wird und eine Art Leitfaden-Design-Thinking-Spiel veröffentlicht wurde, um bessere Entscheidung bei der Kreation von neuen Produkten zu treffen. Hier geht es zur Website von Ethical Explorer. Hier geht es zum Field Guide als PDF, hier zu den Tech Risk Zones.


Header-Foto von Thomas de Luze bei Unsplash


21.7.2020 | Von NetzDG bis Privacy-Shield: Parlamente und Gerichte nehmen das Netz ins Visier

Von NetzDG bis Privacy-Shield: Parlamente und Gerichte nehmen das Netz ins Visier

Was ist

In den vergangenen Wochen wurden eine Menge Urteile gefällt, Gesetze verabschiedet und Kartellverfahren vorangetrieben, die das Netz und die großen Plattformen betreffen. Wir geben einen Überblick, wer gerade wo und wie versucht, den digitalen Raum zu regulieren.

Warum das wichtig ist

Jahrzehntelang hat die Politik weitgehend taten- und hilflos zugesehen, wie Tech-Konzerne immer mächtiger wurden. Sie hat die Tragweite der digitalen Revolution unterschätzt und es versäumt, Gesetze den neuen Gegenebenheiten anzupassen. Stattdessen haben die Plattformen ihre Regeln einfach selbst geschrieben.

Das Ergebnis ist das "Wild Wild Web", das wir in Briefing #654 beschrieben haben. Selbst Facebook sagt mittlerweile, das aktuelle Datenschutzrecht sei "unzureichend" (Washington Post) – wobei solche Aussagen und White Paper (PDF) natürlich mit einem Eigeninteresse verbunden sind: Facebook will Einfluss auf künftige Gesetzgebung nehmen. Umso wichtiger sind Politikerïnnen und Juristïnnen, die verstehen, wie sie das wilde Web zähmen können.

Deutschland: Urheberrecht

___STEADY_PAYWALL___

  • Vor gut einem Jahr wurde die EU-Urheberrechtsreform beschlossen. Jetzt muss Deutschland die Richtlinie bis Juni 2022 in nationales Recht umsetzen.
  • Kürzlich veröffentliche das Bundesjustizministerium einen Diskussionsentwurf, der unter anderem klären soll, wie die besonders kontrovers diskutierten Upload-Filter gestaltet werden können.
  • Tabea Rößner, netzpolitische Sprecherin der Grünen, hat mir erklärt (SZ), wie sie den Entwurf einschätzt.
  • Ihre Kernaussage: "Der größte Humbug der Urheberrechtsdebatte aus dem vergangenen Jahr war die Behauptung von Union und SPD, die Richtlinie könne national ohne Upload-Filter umgesetzt werden.
  • Es führt also kein Weg an Upload-Filtern vorbei. Jetzt geht es darum, den Schaden möglichst gering zu halten.
  • Der aktuelle Entwurf enthält einige sinnvolle Vorschläge und versucht, die Rechte von Nutzerïnnen und Kreativen zu stärken. Ausführlichere Analysen gibt es bei Netzpolitik, iRights und LTO.

Deutschland: Maßnahmenpaket gegen Hasskriminalität

  1. Telegram, Discord und andere problematische Foren und Plattformen bleiben außen vor.
  2. Es werden automatisch IP-Adressen und Usernamen ans BKA geschickt – ohne richterliche Prüfung.
  3. Viele Sonderstaatsanwaltschaften sind jetzt schon überfordert. Es droht eine Überlastung der Justizbehörden der Länder (LTO). Der Richterbund fordert deshalb mehr Personal (RND).
  4. Tech-Konzerne müssen Inhalte selbst melden. Damit verbleibt ein wichtiger Teil der Entscheidung in den Händen der Content-Moderatorïnnen, denen es oft an Expertise mangelt.

Deutschland: Kartellamt vs. Facebook

  • Der BGH hat dem Bundeskartellamt Recht gegeben. Die Behörde hatte Facebook verboten, Daten von WhatsApp, Facebook und Instagram miteinander zu verknüpfen.
  • Das Oberlandesgericht Düsseldorf hatte im August den Vollzug der Anordnung außer Kraft gesetzt.
  • Mit dem aktuellen Urteil gilt wieder: Facebook darf Daten nur zusammenführen, wenn Nutzerïnnen explizit zustimmen.
  • Das Kartellamt kann nun von Facebook verlangen, innerhalb von vier Monaten einen Plan zu präsentieren, um die Zusammenführung von Daten zu "Superprofilen" zu stoppen.
  • Das Hauptverfahren geht aber vor dem OLG weiter, könnte sich noch lange hinziehen und vor dem EuGH landen (Handelsblatt).
  • Detailliertere und juristisch fundierte Analysen gibt es bei Heise und der SZ.

EU: Schrems vs. "Privacy Shield"

  • Vergangene Woche hat der EuGH entschieden: Das transatlantische Datenschutzabkommen "Privacy Shield" ist ein leeres Versprechen – es schützt Daten eben nicht, zumindest nicht ausreichend.
  • Nach dem Safe-Harbor-Abkommen ist es die zweite Vereinbarung zwischen EU und USA, die von den Luxemburger Richterïnnen gestoppt wird.
  • Geklagt hatte erneut Max Schrems, der abermals zeigt, wie viel auch einzelne Bürgerïnnen mit (enormen) Beharrungsvermögen erreichen können.
  • Der EuGH ist der Meinung, dass der Privacy Shield keinen Schutz vor US-amerikanischen Überwachungsprogrammen wie Prism oder Upstream bietet. Die USA müssten nun "solide Datenschutzrechte für alle Menschen – auch für Ausländer – einführen", sagt Schrems.
  • Das Urteil betrifft rund 5000 Unternehmen, die sich bei ihrer Datenübermittlung auf das bislang gültige Abkommen berufen hatten. Ihnen fehlt nun vorerst die Grundlage, weiter Daten europäischer Nutzerïnnen in den USA zu verarbeiten.
  • Die Auswirkungen der Entscheidungen sind noch unklar. Es gibt unterschiedliche Interpretationen, ob auch die sogenannten Standardvertragsklauseln davon betroffen sind, auf die sich etwa Facebook stützt.
  • Schrems ist überzeugt, dass auch die Klauseln nun ungültig sind. Facebook beteuert dagegen, der EuGH habe die Wirksamkeit der Klauseln bestätigt.
  • Die EU-Kommission hatte sich bereits darauf vorbereitet, dass der Privacy Shield scheitern könnte. Sie arbeitet jetzt mit den USA an einem neuen Regelwerk und will unter anderem die Standardvertragsklauseln anpassen.
  • Die Berliner Datenschutzbeauftragte Maja Smoltczyk sagt, Nutzerïnnen könnten Schadenersatz von Unternehmen verlangen (Heise), die weiter rechtswidrig Daten übermitteln.
  • Die Folgen für Nutzerïnnen beleuchtet Lisa Hegemann (Zeit), der Jurist Ingemar Kartheuser analysiert das Urteil (LTO) aus der Sicht betroffener Unternehmen.

EU: Digital Service Act

  • Das EuGH-Urteil wurde rauf- und runterberichtet. Vergleichsweise wenig mediale Aufmerksamkeit erhält dagegen ein anderes Vorhaben, an dem die EU-Kommission derzeit arbeitet: das "Gesetz für digitale Dienste", besser bekannt als Digital Service Act.
  • Zu Unrecht: "Das neue Gesetz könnte die digitale Welt für immer verändern", schreiben Tomas Rudl und Alexander Fanta (Netzpolitik).
  • Die EU will damit den digitalen Binnenmarkt vereinheitlichen, einen Kontrollrahmen für Plattformen wie Facebook und YouTube schaffen sowie fairen Wettbewerb sichern.
  • Unter anderem könnte eine sogenannte Ex-ante-Regulierung ermöglichen, bereits dann kartellrechtliche Maßnahmen einzuleiten oder Übernahmen zu verbieten, wenn auf Grundlage einer Analyse des Status Quo künftige problematische Auswirkungen antizipiert werden.
  • Das gilt etwa für Facebooks Digitalwährung Libra oder die Übernahmen von WhatsApp oder Instagram, die dann wohl nicht genehmigt worden wären.
  • Bislang ist das Vorhaben eine Absichtserklärung, einen konkreten Textentwurf will die EU-Kommission erst Ende des Jahres vorlegen. Das Gesetz hat aber eine solche Tragweite, dass es sich lohnt, sich bereits jetzt damit auseinanderzusetzen.
  • Auch deshalb empfehlen wir die ausführliche Analyse von Netzpolitik, die deutlich macht, warum das Digitale-Dienste-Gesetz so wichtig ist.

USA: TikTok-Verbot und Kartellermittlungen

  • Über die Drohungen der USA, TikTok zu verbieten, haben wir in den vergangenen Wochen mehrfach berichtet. Außerdem planen wir dazu einen größeren Aufschlag.
  • Obwohl es gut in unsere Liste passt, erwähnen wir das Thema an dieser Stelle nur kurz und sagen: Der Konflikt zeigt, dass Regierungen ihre Konflikte zunehmen im Netz austragen und Einfluss auf Tech-Konzerne nehmen.
  • Auch abseits von TikTok laufen in den USA momentan eine Menge Ermittlungen, die das Netz nachhaltig prägen könnten. Dieser ständig aktualisierte Überblick (NYT) zeigt, wo und warum US-Kongress, Staatsanwältïnnen und Kartellbehörden gegen Amazon, Apple, Facebook und Google ermitteln.
  • Unter anderem müssen Jeff Bezos, Mark Zuckerberg, Sundar Pichai und Tim Cook von Apple am 27. Juli vor dem Rechtsausschuss des US-Repräsentantenhauses aussagen.
  • Auch die US-Handelskommission ermittelt gegen die Tech-Konzerne. Angeblich erwägt die FTC (WSJ), Zuckerberg und Sheryl Sandberg unter Eid zu vernehmen.
  • Das Verfahren gegen Facebook dürfte sich aber noch länger hinziehen: Eigentlich sollte es vor der US-Wahl 2020 abgeschlossen sein, jetzt sieht es aber so aus, als werde es bis 2021 dauern (NYT).
  • Deutlich schnellere Fortschritte machen die Ermittlungen des US-Justizministeriums gegen Google. Unter Führung von Kalifornien machen 48 Staatsanwältïnnen der Bundesstaaten Druck und treiben das Verfahren voran (Politico).
  • Es geht darum, ob Google seine marktbeherrschende Stellung ausnutzt (Bloomberg), eigene Produkte in Suchergebnissen bevorzugt und immer weniger Nutzerïnnen auf die Webseiten von anderen Unternehmen weiterleitet.
  • Im vergangenen Jahr habe ich ausführlich über die Veränderung der Google-Suchergebnisse geschrieben (SZ), der damalige Anlass: Erstmals lösten mehr als die Hälfte der Suchanfragen keinen weiteren Klick aus.
  • In einer dreiteiligen Serie versucht der SEO-Experte Rand Fishkin (1, 2, 3) bei SparkToro, den Google-Algorithmus zu durchleuchten. Sein Fazit: Google pusht eigene Dienste unverhältnismäßig, und wer auf der ersten Seite auftauchen will, muss fast immer eine Anzeige kaufen.
  • Besonders auffällig ist das bei Suchen nach Videos – wo fast immer in erster Linie Ergebnisse von YouTube auftauchen (WSJ).
  • Im Mai nannte die New York Times die Ermittlungen gegen Google "one of the biggest antitrust actions by the United States since the late 1990s".
  • Im vergangenen Jahr hat die EU-Kommission Google die dritte Milliardenstrafe binnen drei Jahren aufgebrummt. Das Kartellverfahren in den USA könnte Google noch härter treffen.

Be smart

Die Versäumnisse der vergangenen Jahre lassen sich nicht ungeschehen machen. Aber Parlamente, Gerichte und Kartellämter haben es in der Hand, das Web der 20er-Jahre entscheidend mitzuprägen. Von Straf- über Urheber- und Datenschutz- bis Wettbewerbsrecht müssen sie fast alle Rechtsgebiete modernisieren, um aus dem Netz der Großkonzerne wieder ein Netz der Nutzerïnnen zu machen.

In Hongkong, China und den USA zeigt sich aber, dass Regierungen dem Netz auch schaden können. Das World Wide Web darf sich nicht in ein Splinternet verwandeln, in dem je nach Land eigene Regeln gelten und bestimmte Dienste nicht erreichbar sind. in einer digitalisierten und globalisierten Welt braucht es deshalb möglichst globale oder zumindest supranationale Institutionen, um das Netz sinnvoll zu regulieren.


Kampf gegen Desinformation

  • TikTok startet die Kampagne „Be Informed“ (Fast Company), um Nutzerïnnen in Sachen Medienkompetenz zu schulen. Mehr Kompetenz ist immer eine gute Sache! Von daher: 👍🏻
  • Facebook: Facebook hat angekündigt, sämtliche Beiträge von Präsidentschaftskandidaten mit Hinweisen auf öffentliche Quellen zu versehen (Axios), wenn die Postings Bezug auf Wahlen nehmen – und zwar ganz unabhängig davon, ob die Beiträge Fehlinformationen enthalten.

Video Boom

  • AGF-Studie: 90 Prozent der Jugendlichen schauen täglich Videos im Fernsehen oder im Netz. Das ist das Ergebnis einer aktuellen AGF-Studie (PDF, Pressemitteilung, Video), die sich mit dem Videokonsumverhalten von Kindern und Jugendlichen im Alter zwischen 3 und 17 Jahren beschäftigt. Besonders spannend: Bei den Lieblings-Apps für Videos liegt in allen Alterssegmenten YouTube klar vorn. Netflix folgt auf dem zweiten Platz. Einzige Ausnahme: „Bei den 10- bis 13-Jährigen hat sich TikTok bereits auf den 2. Platz vorgeschoben.“


Neue Features bei den Plattformen

Instagram

  • Shop und Facebook Pay: Instagram gibt weiter Gas, was das Thema E-commerce angeht. Ab dieser Woche wird das bereits im vergangenen Jahr angekündigte Shopping-Feature ausgerollt (The Verge). Zudem können Nutzerïnnen fortan auch bei Instagram Facebook Pay nutzen. Gern schauen wir uns diesen Themenkomplex in einer der kommenden Ausgaben ausführlicher an. Follow the money.

Snapchat

  • Profilseiten: Snapchat kann jetzt auch Fanpages. Also halt in chic. Vorerst handelt es sich zwar nur um einen Test mit ausgewählten Unternehmen. Aber schon ganz bald könnten Firmen auch bei Snapchat eigene Präsenzen aufbauen (müssen).
  • Minis: In Ausgabe #646 hatten wir darauf hingewiesen, dass Snapchat sogenannte Mini Apps einführen möchte. Jetzt lässt Snapchat Taten folgen und läutet mit dem Launch von vier Apps eine neue Ära für die Plattform ein. Mit dabei: das populäre Meditationsprogramm „Headspace“, ein Lern-Programm mit dem Namen „Flashcards“, ein interaktiver Messenger-Service namens „Prediction Master“ und „Let’s Do It“, eine App von Snapchat, die es Freundïnnen erleichtern soll, sich auf etwas zu einigen. Wie solche Mini-Programme innerhalb von Snapchat aussehen könnten, zeigt dieser Trailer (YouTube).

Twitter

  • Neues Interface für Direktnachrichten: Twitter macht jetzt einen auf LinkedIn / Facebook und lässt Nutzerïnnen Direktnachrichten schreiben, ohne den Feed verlassen zu müssen. Eigentlich nice. Nur können wir aus Sicherheitsbedenken nicht empfehlen, Direktnachrichten bei Twitter jenseits einer initialen Kontaktaufnahme zu nutzen. Eine End-2-End-Verschlüsselung wäre ein Traum. Come on Twitter, you can do it!

Reddit

Google


Tipps, Tricks und Apps

  • Online-Recherche-Newsletter: Der sehr geschätzte Kollege Sebastian Meineck hat einen Newsletter zum Thema Online-Recherche gelauncht. Wer sich für Tools und Apps aus diesem Metier interessiert, sollte Sebastians Newsletter hier direkt abonnieren. Dort gibt es z.B. so tolle Hinweise wie den zur Reverse Analytics-Suche – ein Service, der aufzeigt, hinter welchen Websites möglicherweise dieselben Menschen stecken. Mega spannend!

One more thing


Header-Foto von Nathan Dumlao bei Unsplash


16.7.2020 | Twitter-Hack, Debatte um Signal, Mobiles Internet

Besorgniserregender Twitter-Hack

Was ist

Zahlreiche prominente Twitter-Accounts, darunter die von Joe Biden, Barack Obama, Bill Gates, Elon Musk, Jeff Bezos, Mike Bloomberg, Kanye West sowie der Unternehmen Apple, Bitcoin.org, Coinbase und Ripple wurden am Mittwoch kompromittiert (The Verge).

Was ist passiert?

  • Bereits seit einigen Jahren versuchen auf Twitter immer wieder sogenannte Bitcoin-Scammer andere davon zu überzeugen, ihnen Bitcoins zu schicken.
  • Dabei handelt es sich quasi um eine modernere Variante des „Ich bin ein Schwager des Königs von Timbuktu und habe 1700000000 Dollar, die ich das gern dir überweisen muss“.
  • Beim aktuellen Twitter-Hack wurden folgende Tweets veröffentlicht:

Wie ist das möglich?

___STEADY_PAYWALL___

  • Bislang ist noch nicht klar, wie die Angreifer auf die Konten zugreifen konnten. Twitter hüllt sich bislang in Schweigen.
  • Der bekannte InfoSec-Journalist Joseph Cox schreibt bei Vice, dass ein Twitter-Insider an der Aktion beteiligt war und Dritten womöglich Zugang zu einem internen Tool verschaffen konnte:

"A Twitter insider was responsible for a wave of high profile account takeovers on Wednesday, according to leaked screenshots obtained by Motherboard and two sources who took over accounts."

"We used a rep that literally done all the work for us," one of the sources told Motherboard. The second source added they paid the Twitter insider. Motherboard granted the sources anonymity to speak candidly about a security incident. A Twitter spokesperson told Motherboard that the company is still investigating whether the employee hijacked the accounts themselves or gave hackers access to the tool."

Und jetzt?

Es gilt, den Vorfall lückenlos aufzuklären. Schließlich gehört Twitter zur wichtigsten Kommunikationsplattform der Welt. Dass Twitter-Mitarbeiter anscheinend in der Lage sind, auf die Accounts von hochrangigen Politikern und Wirtschaftslenkern zuzugreifen, sollte einem Sorgen bereiten. Denn am Ende kann die Welt froh sein, dass es sich bei diesem Vorfall „nur“ um Bitcoin-Scammer gehandelt hat. Nicht auszudenken, was passiert, wenn andere Akteure derart prominente Accounts gehijackt hätten.


Kontroverse um die Signal-PIN: Ist der Messenger jetzt unsicher?

Was ist

Renommierte IT-Sicherheitsexpertïnnen kritisieren Signal. Sie warnen vor einer neuen Funktion: Die App fordert Nutzerïnnen auf, eine PIN zu vergeben. Dadurch werden unter anderem Kontakte verschlüsselt auf den Servern von Signal gespeichert, damit sie bei einem Gerätewechsel wiederhergestellt werden können.

Warum das wichtig ist

2015 schrieb Edward Snowden: "I use Signal every day." (Twitter). Wer die Webseite von Signal aufruft, findet Empfehlungen von Jack Dorsey, Laura Poitras und Bruce Schneier. Signal ist der Liebling der IT-Sec-Community, Aktivistïnnen auf der ganzen Welt nutzen den Messenger, Dutzende Millionen Menschen chatten lieber über Signal als über WhatsApp. Die Kontroverse wirft Fragen auf:

  • Ist Signal jetzt unsicher?
  • Müssen sich normale Nutzerïnnen Sorgen machen?
  • Kommt jetzt die Zeit von Threema, dem Schweizer Krypto-Messenger? (Spoiler: nein/nein/vielleicht)

Außerdem zeigt sie, dass die Ansprüche und Erwartungen der bisweilen recht harschen IT-Expertïnnen nicht immer deckungsgleich mit denen vieler Nutzerïnnen sind. Supersichere Produkte erfordern fast immer Kompromisse beim Komfort – und sind damit weniger massenkompatibel.

Warum die Expertïnnen warnen

Die Kritikerïnnen halten es grundsätzlich für eine schlechte Idee, sensible Daten wie Kontakte auf Servern zu speichern. Obwohl Signal keine Nachrichten sichert, sagt etwa der bekannte IT-Sicherheitsexperte The Grugq (Vice):

"Having contacts is a lot. It isn’t messages, sure. But I don’t like it. I don’t want them to have anything. Make the networks dumb and the clients smart."

Auch Matthew Green, Kryptografie-Forscher und Professor and der Johns-Hopkins-Universität, hat Sicherheitsbedenken. Vergangene Woche verkündete er, sich nach einem neuen Messenger umzuschauen (Twitter):

"I really liked Signal. And it bums me out that I’m going to have to stop using it."

In dem folgenden Twitter-Thread und auf seinem Blog (Cryptographic Engineering) erklärt Green die Hintergründe. Auf Deutsch gibt es gut verständliche Zusammenfassungen von Golem und Heise. Green fürchtet, dass der Upload die Kontaktliste und andere Daten angreifbar macht, weil Nutzerïnnen zu einfache PINs vergeben, etwa vierstellige Zahlenkombinationen. Die Daten sind zwar zusätzlich durch Intels Software Guard Extensions (SGX) abgesichert. In den vergangenen Jahren gab es aber mehrere Sicherheitslücken in dieser Enklave.

Was Signal sagt

Signal-Gründer Moxie Marlinspike hat auf die Vorwürfe in einem langen und lesenswerten Twitter-Thread geantwortet. In 14 Tweets macht er drei Punkte:

  1. Andere Messenger, die im Laufe der Diskussion teils als Alternative genannt wurden, speichern ebenfalls Kontakte serverseitig – im Klartext. Wer sich besonders große Mühe gibt, die Privatsphäre seiner Nutzerinnen zu schützen, zieht ein Publikum an, das besonders kritisch ist. Für Außenstehende erzeugt das dann den Eindruck, dass Signal unsicher sei und andere Messenger nicht.
  2. Die PIN ist nötig, um Signal mittelfristig von der Telefonnummer zu entkoppeln. Das ist eine Möglichkeit, die seit langem gefordert wird, da die Handynummer ein wichtiges Identifikationsmerkmal ist. Außerdem schützt sie die Kontakte der Nutzer sogar, weil sie dann nicht über iOS/Apple bzw. Android/Google synchronisiert werden müssen.
  3. Es gibt einen großen Kulturunterschied zwischen "normalen" Menschen und Leuten aus der Infosec-Community. In Moxies eigenen Worten:

"It is sometimes difficult for me to have design discussions with people who work in infosec, in part because of what feels like a gap between what one might consider "practical" and what I've found to be so. I'm not sure how to bring the user stories Signal sees into a common basis for discussion. I almost wish there were some way that we could open up Signal user support channels, so interested people in this space could have the perspective of doing that for 24hrs (without somehow degrading the quality of Signal user support)?"

Was wir davon halten

Das Wichtigste zuerst: Wir werden Signal weiter nutzen und empfehlen. Die Verschlüsselung bleibt absolut sicher (WhatsApp verwendet dasselbe Kryptografie-Protokoll), und Signal sammelt nur ein Minimum an Metadaten.

Das zeigt sich etwa in Hong Kong, wo die großen Tech-Konzerne in Reaktion auf das chinesische Sicherheitsgesetz reihenweise aufhörten, Daten auf Anfrage an lokale Behörden zu übermitteln. Signal schrieb dazu nur (Twitter):

"We'd announce that we're stopping too, but we never started turning over user data to HK police. Also, we don't have user data to turn over."

Signal speicherte bislang lediglich die Zeitpunkte der Registrierung sowie der letzten Interaktion mit der App. Dass nun Kontakte hinzukommen, ändert nichts an der Tatsache, dass Signal einer der sichersten und datensparsamsten Messenger ist.

Die Entwicklerïnnen haben zwei Fehler gemacht:

  1. Die Kommunikation war schlecht. Nutzerïnnen wurden nur aufgefordert, eine PIN zu vergeben, ohne dass genau erklärt wurde, wofür diese gut sein soll. Beim Start der App wurde man immer wieder dazu aufgefordert, das hat viele Menschen verärgert.
  2. Anfangs sollte die Funktion verpflichtend sein. Es war keine Möglichkeit vorgesehen, die PIN und damit die Synchronisierung der Kontakte zu deaktivieren.

Moxie hat auf die Kritik reagiert: Die PINs werden optional (Twitter / Moxie Marlinspike). Das ist ein sinnvoller Kompromiss: Erfahrene Nutzerïnnen, die Sicherheitsbedenken haben, können die Funktion auf Wunsch ausschalten. Alle anderen profitieren vom zusätzlichen Komfort – und mittelfristig womöglich von der Option, Signal ohne Handynummer verwenden zu können.

Be smart

Im Februar stellte Andy Greenberg Signals große Zukunftspläne vor (Wired): absolut sichere Kommunikation und maximaler Schutz der Privatsphäre für möglichst viele Menschen. Unter anderem unterstützte WhatsApp-Gründer Brian Acton die Entwicklung mit 50 Millionen Dollar. Acton, der WhatsApp auch wegen Meinungsverschiedenheiten mit Mark Zuckerberg verlassen hat, berät jetzt die Signal-Foundation und will dem Messenger dabei helfen, die Massen zu erreichen:

"I’d like for Signal to reach billions of users. I know what it takes to do that. I did that. I’d love to have it happen in the next five years or less."

Bereits damals warnte Matthew Green (Twitter):

"To be clear: you can’t necessarily make "privacy" people perfectly happy while also having a billion users. There are going to be compromises. I just wonder if getting big will be worth it in the end. We’ll have to see."


Kampf gegen Desinformation

  • Watermark: Die Trusted News Initiative (TNI) richtet ein gemeinsames Frühwarnsystem (Variety) ein, um die Verbreitung von Desinformationen während der bevorstehenden US-Präsidentschaftswahlen zu bekämpfen. Zum Netzwerk von TNI gehören AP, Washington Post, AFP, BBC, CBC/Radio-Canada, European Broadcasting Union, Facebook, Financial Times, First Draft, Google/YouTube, The Hindu, Microsoft, Reuters, Reuters Institute for the Study of Journalism, Twitter und das Wall Street Journal.

Video Boom


Stats

  • (Fast) niemand nutzt ein freies Internet: Das Smartphone ist weltweit das wichtigste Gerät, um das Internet zu nutzen. Allerdings nutzen Menschen kein offenes, freies Internet auf ihren mobilen Endgeräten: die allermeiste Zeit nutzen sie ein Internet im Internet, vermittelt durch die kommerziellen Interessen von populären App-Anbietern wie Facebook, YouTube und Co. Stolze 88 Prozent der Zeit, die Nutzerïnnen im mobilen Internet verbringen, gehen laut einer aktuellen Untersuchung von eMarketer auf das Konto von Apps. Das bringt enorme Konsequenzen mit sich: Wer Menschen erreichen möchte, muss zwangsläufig auch in den Anwendungen stattfinden – und zwar zu den Bedingungen, die die Plattformen diktieren.


Neue Features bei den Plattformen

YouTube


Tipps, Tricks und Apps

  • Bellingcat’s Online Investigation Toolkit: Wer sich für (investigative) Recherchetools interessiert, kommt an diesem Google Doc nicht vorbei: Maps, Satellites & Streetview, Location Based Searches, Image & Video Verification, Social Media, Transportation, Date & Time, WhoIs, IPs & Website Analysis, People & Phone Numbers, Archiving & Downloading, Company Registries, Data Visualization, Online Security & Privacy, Finding Experts, Guides & Handbooks – alles, was das Reporter-Herz begehrt.
  • Etherpad: Bereits seit Jahren bietet Etherpad eine spannende Alternative zu Google, um gemeinsam an Docs zu arbeiten. Bislang mutete das Angebot allerdings immer etwas nerdig an – quasi wie aus einer Szene eines schlechten Hackerfilms. Jetzt hat sich Etherpad ordentlich aufgehübscht und dürfte auch für normale Nutzerïnnen attraktiver sein.
  • Atlas of Surveillance: Studierende haben sich in den USA angeschickt, einen spannenden Atlas zu kreieren: es geht um Werkzeuge staatlicher Überwachung. Mega interessant!

Header-Foto von Tony Zhen bei Unsplash


14.7.2020 | Wild Wild Web, TikTok erwägt Distanz zu China, Vertikales Scrollen ist das neue Swipen

Das Silicon Valley zähmt das Wild Wild Web (ein bisschen)

Was ist

In den vergangenen Tagen haben die großen Tech-Plattformen reihenweise rassistische, rechtsradikale und gewaltverherrlichende Kanäle, Gruppen, Seiten und Konten verbannt. Auch der Twitch-Account von Donald Trump wurde vorübergehend gesperrt (wobei man durchaus der Meinung sein kann, dass mindestens zwei der Adjektive auch auf den US-Präsidenten zutreffen, sodass er gar nicht einzeln aufgezählt werden müsste).

Wer wen gekickt hat

___STEADY_PAYWALL___

Ganz aktuell:

  • Twitter hat Konten der rechtsextremen Identitären Bewegung gesperrt. Facebook und Instagram haben bereits vor zwei Jahren durchgegriffen.
  • Verfassungsschutz-Präsident Thomas Haldenwang hatte kurz zuvor explizit vor der Gefahr der sogenannten Neuen Rechten gewarnt und sie als "Superspreader von Hass und Gewalt" (SZ) bezeichnet.
  • Die Sperrung der Twitter-Profile sei für die Identitäre Bewegung "ein erheblicher Einschnitt", sagt Extremismusforscher Jakob Guhl (DLF) vom Londoner Institute for Strategic Dialogue.
  • "Der Versuch der Identitären Bewegung, rechtsextreme Positionen mit einem bürgerlichen Anstrich zu tarnen, ist gescheitert", sagt Miro Dittrich (ZDF) von der Amadeu-Antonio-Stiftung.
  • Neben deutschen Extremistïnnen wurden auch Ableger in Italien und Dänemark verbannt, außerdem die rechtsradikale belgische Studierendenorganisation Schild en Vrienden (Politico).

Von vergangener Woche (auch schon in Briefing #651 zu lesen)

Warum das wichtig ist

In einer Telefonkonferenz mit Journalistïnnen sagte Reddit-Chef Steve Huffman:

"I have to admit that I’ve struggled with balancing my values as an American, and around free speech and free expression, with my values and the company’s values around common human decency."

Dieses Zitat beschreibt das Dilemma, in dem Facebook, YouTube, Twitter, Reddit und andere Unternehmen stecken. Genauer gesagt: das Dilemma, in dem sie glauben zu stecken. Denn tatsächlich hat vieles von dem, was die Plattformen jahrelang stillschweigend duldeten, nichts mit Meinungs- oder Redefreheit zu tun. Kein Mensch der Welt hat ein Anrecht darauf, dass ihm jedes private Unternehmen ein Mikrofon unter die Nase hält.

Huffman hat entschieden: Reddit soll keine Plattform für Hass und Menschenfeindlichkeit mehr sein. Isoliert betrachtet wäre das nur der überfällige Sinneswandel eines jungen Gründers, der allmählich erwachsen wird. Doch wenn binnen einer Woche fünf Großkonzerne ähnliche Entscheidungen treffen, steht das für mehr.

"Goodbye to the Wild Wild Web", verabschiedet Kevin Roose (NYT) die Ära der nahezu unbeschränkten Redefreiheit:

"But arriving all at once, they felt like something much bigger: a sign that the Wild Wild Web — the tech industry’s decade-long experiment in unregulated growth and laissez-faire platform governance — is coming to an end. In its place, a new culture is taking shape that is more accountable, more self-aware and less willfully naïve than the one that came before it."

Warum das gut ist

Das Wild Wild Web hat dem World Wide Web schwer geschadet. Wenige Großkonzerne haben das Sagen – und Extremistïnnen spielen Katz und Maus mit ihnen. Sie kapern die Plattformen, Pöbeln, Provozieren und loten die Grenzen des Sagbaren aus. Sie profitieren von Algorithmen, die das Laute und Schrille weiter verstärken und Nuancen und Differenzierung unsichtbar machen.

Netzwerke wie Facebook sind weder neutral noch ein Spiegel der Gesellschaft. Was auf YouTube trendet, bestimmen nicht nur die Nutzerïnnen, sondern auch YouTubes mächtige Empfehlungsmaschine. John Herrman drückt es so aus (NYT):

"YouTube isn’t so much the marketplace of ideas as a marketplace for some ideas, if those ideas work well in video format, in the context of a subscription-driven social environment consumed mostly on phones, in which compensation is determined by viewership, subject matter and potential for sponsorship."

Es war immer ein Mythos, dass ein Minimum an Regeln (gepaart mit einem noch viel eklatanteren Defizit an Durchsetzung jener Regeln) allen die gleichen Chancen gibt, ihre Ideen und Überzeugungen zu verbreiten. Im Zeitalter der Aufmerksamkeitsökonomie gewinnt meist, wer am vehementesten meint, am lautesten schreit oder am skrupellosesten auf Andersdenkende losgeht.

Die vergangenen Jahre haben gezeigt, dass Deplatforming helfen kann, den besonders wüsten Schreihälsen dauerhaft die Bühne zu entziehen. Alex Jones und Milo Yiannopoulos haben massiv an Einfluss verloren (Vice), nachdem YouTube und Twitter ihre Kanäle und Konten dicht gemacht haben. In Briefing #614 haben wir ausführliche über eine Studie geschrieben, die unter anderem die Wirksamkeit von Deplatforming belegt.

Wenn Facebook, Twitter, YouTube, Reddit und Twitch nun durchgreifen, ist das weder Zensur, noch bedroht es die Meinungsfreiheit. Es ist ein erster von vielen nötigen Schritten, um das Wild Wild Web zu zähmen und zu entgiften.

Wie sich das Timing erklärt

Was hat sich geändert? Warum hat Reddit nach vielen Jahren entschieden, dass der Großteil der rund 800.000 Menschen, die r/The_Donald bevölkern, doch nicht harmlos ist? Warum greift Twitter ausgerechnet jetzt durch, obwohl Sellner und seine Gefolgsleute die Plattform immer wieder für ihre menschenfeindlichen Aktionen missbraucht haben?

Wir zitieren erneut John Herrman, der in erster Linie wirtschaftliche Motive sieht:

"These areas of previously unfettered growth – in far-right content, in groups with a tendency to harass and intimidate other users and in certain political circles — are, finally, more trouble than they’re worth. Maybe they alienate a platform’s own employees, making them uncomfortable or ashamed. Maybe they’ve attracted the wrong kind of attention from advertisers or even a critical mass of users."

Das ist sicher ein Grund – aber nicht der einzige. Reddit-Chef Huffman sagt (NYT):

"We have advertisers who care about these things. But this was a decision — a series of decisions, really — to make Reddit better."

Das ganze Interview ist absolut lesenswert. Huffman erläutert darin nachvollziehbar, welcher interne Diskussionsprozess zur Entscheidung führte und gesteht offen seine eigene Naivität ein:

"When we started Reddit 15 years ago, we didn’t ban things. And it was easy, as it is for many young people, to make statements like that because, one, I had more rigid political beliefs and, two, I lacked perspective and real-world experience."

Was er sagt, klingt glaubwürdig. Auch Nilay Patel, der Chefredakteur von The Verge, nimmt Huffman den Idealismus ab (Twitter):

"Sometimes the answer is as simple as people looking at the thing they've made and deciding they would like to be more proud of it than they are."

Es ist zu einfach, Tech-Konzerne und ihre Chefs immer nur auf finanzielle Motive oder Machtstreben zu reduzieren. Mark Zuckerberg, Jack Dorsey, Susan Wojcicki und Steve Huffman haben Werte und Überzeugungen. Natürlich wollen sie, dass ihre Produkte die Welt verbessern.

Man kann darüber streiten, ob das gelingt. Man kann den Moralkompass von Zuckerberg kritisieren, der Redefreiheit fast schon verabsolutiert. Man kann den Konzernen vorwerfen, dass ihre Handlungen oft nicht mal den eigenen Regeln entsprechen. Aber manchmal entscheiden mächtige Managerïnnen auch einfach, weil sie überzeugt sind, dass es wichtig und richtig ist – und nicht, weil das dem Aktienkurs hilft.

Wir wissen natürlich nicht, was genau in den aktuellen Fällen den Ausschlag gegeben hat. Neben Altruismus gibt es eine Reihe weiterer möglicher Gründe:

  • Die Welt verändert sich rasant. Gerade die "Black Lives Matter"-Proteste haben ein neues Bewusstsein geschaffen. In diesem Klima riskieren Konzerne, die Rassistïnnen eine Bühne bieten, Nutzerïnnen und Werbekunden zu verärgern.
  • Der Werbeboykott, der derzeit Facebook trifft, zeigt, dass Unternehmen bereit sind, ihre Budgets umzuverteilen. Ob bei allen moralische Überzeugungen ausschlaggebend sind, ist fraglich. Fakt ist aber, dass Aktionen wie #StopHateforProfit den öffentlichen Druck erhöhen, hasserfüllte Inhalte konsequenter zu löschen. (mehr dazu: #649)
  • Auch die Angestellten der Konzerne können Druck machen: Hunderte Facebook-Mitarbeiterïnnen streikten, weil Zuckerberg ein Posting von Trump unverändert stehen ließ. Gerade im (für US-Verhältnisse) linksliberalen Silicon Valley, in dem viele große Unternehmen um die klügsten Köpfe konkurrieren, kann eine solche Haltung junge, politisch denkende Entwicklerïnnen abschrecken. (mehr dazu: #643)
  • Die Corona-Pandemie hat bei den Plattformen ein Umdenken bewirkt: Es gibt Inhalte, die vielleicht nicht strafbar sind, aber doch so eindeutig gefährlich ("Wassertrinken hilft gegen Covid 19", "5G verbreitet das Virus"), dass sie gelöscht werden müssen (mehr dazu: #633). Und das gilt nicht nur für unwissenschaftlichen Unsinn, sondern auch für politische Inhalte. Forscherin Joan Donovan schreibt (Wired):

"It’s no coincidence that this newfound boldness on the part of social media companies is coming in the middle of a global pandemic. The past few months of work dealing with medical misinformation surrounding Covid-19 has taught these companies an important lesson: They must – and they can – take decisive action to control who and what is on their sites. It’s about time, and it had better be just the beginning."

Ja, aber

Aus drei Gründen ist es zu früh für große Freude:

  1. Die Ereignisse der vergangenen Woche allein bewirken kaum etwas. Sie bekommen erst dann eine größere Bedeutung, wenn sich der Trend, der sich abzuzeichnen scheint, bewahrheitet. Bis dahin bleiben es fünf Entscheidungen, die nur Symptome bekämpfen – Symptome des Wild Wild Web, das die Plattformen selbst hervorgebracht haben.
  2. Viele der verbannten Extremistïnnen rufen dazu auf, sich woanders neu zu formieren. Sie ziehen sich auf Plattformen zurück, wo noch weniger moderiert wird – und wo die Öffentlichkeit noch weniger davon mitbekommt. Vor allem bei großen Accounts wirkt Deplatforming. Wenn aber die Boogaloo-Bewegung zu Telegram umzieht, ist wenig gewonnen. r/The_Donald hat sich seit Jahren auf die Sperre vorbereitet und wird alles versuchen, den harten Kern zusammenzuhalten.
  3. Bei den aktuellen Fällen waren die Entscheidungen eindeutig und überfällig. Es gibt aber einen großen Graubereich. "Hass" und "Hatespeech" sind schwammige Begriffe. Sollen die Plattformen selbst entscheiden, wo die Grenze liegt? Wer schreibt die Regeln für das Netz, das nach dem Wild Wild Web kommt? Es braucht demokratische und juristische Kontrolle – und Institutionen wie das Facebook-Oversight-Board, das zumindest einen kleinen Teil der Entscheidungsgewalt externalisiert.

Be smart

Vergangene Woche gab es noch einen sechsten Massenban: Indien hat 59 chinesische Apps gesperrt, darunter TikTok. Jetzt erwägen auch die USA, TikTok zu verbieten (WSJ).

Vielleicht folgt auf das globale Wild Wild Web kein zivilisiertes World Wide Web – sondern ein "Splinternet" (Future Today Institute), das Jannis Brühl heraufziehen sieht (SZ):

"Wie unter einem Brennglas zeigt sich in Hongkong, wie die sozialen Medien zu Kampfplätzen der Geopolitik geworden sind. Das soziale Web von Facebook bis Tiktok lebt von den Inhalten seiner Nutzer, seien es Fotos vom Familienausflug oder politische Parolen. Der Versuch der Staaten, diese Datenströme zu kontrollieren, verändert das Netz. Regierungen errichten digitale Mauern und sabotieren die Globalisierungsmaschine Internet."


Social Media & Politik

  • Auf Distanz zu China: ByteDance erwägt Änderungen an der Unternehmensstruktur von TikTok, um die Bedenken der US-Regierung hinsichtlich des Zugangs des chinesischen Unternehmens zu den Daten amerikanischer Nutzer zu zerstreuen, berichtet das Wall Street Journal. Das Unternehmen denke darüber nach, einen Hauptsitz außerhalb Chinas einzurichten und einen unabhängigen Vorstand für TikTok einzusetzen.
  • Plattformgrundgesetz: Die EU arbeitet an einem revolutionären Vorhaben, das die Macht von Konzernen wie Google und Facebook beschränken soll, berichten Tomas Rudl und Alexander Fanta bei netzpolitik. Das neue Gesetz könne die digitale Welt für immer verändern, so die Autoren. Im Kern geht es um drei Ziele:
  1. Vereinheitlichung des digitalen Binnenmarkts
  2. Schaffung eines Kontrollrahmens für derzeit übermächtig scheinende Plattformen
  3. Sicherung des fairen Wettbewerbs

Follow the money

  • Zahltag: YouTuber, die am Partnerprogramm teilnehmen, können ihre Videos mit Google-Anzeigen monetarisieren. Um den Kreativen dabei zu helfen, genauer zu verstehen, wie viel sie eigentlich verdienen, hat YouTube eine neue Monetarisierungskennzahl namens Revenue Per Mille (RPM) veröffentlicht (Business Insider), die alle Einnahmen pro 1.000 Aufrufe berechnet. YouTubes 45-Prozent-Cut ist dabei schon inbegriffen. Im Gegensatz zur CPM-Rate berücksichtigt die RPM alle YouTube-Einnahmen: von Google platzierte Anzeigen, YouTube Premium, Channel Memberships, Super Chat und Super Sticker.

Schon einmal im Briefing davon gehört

  • Digitale Grenze: Das Tech-Wunderkind Palmer Luckey sorgte 2014 mit dem Verkauf von Oculus an Facebook weltweit für Schlagzeilen (FAZ). Nach seinem Abgang bei Oculus im März 2017 gründete Luckey mit drei ehemaligen Mitarbeitern von Palantir das Unternehmen Anduril. Erklärtes Ziel: Soft- und Hardware zur Absicherung von Grenzen. Der erste große Deal ist jetzt in trockenen Tüchern. Bis 2022 sollen 200 autonome Überwachungs-Türme an der Grenze zu Mexiko errichtet werden. Der Deal könnte wesentlich weniger Geld verschlingen als die von Trump einst so prominent geforderte Mauer: einige hundert Millionen Dollar vs. 15 Milliarden Dollar. Die Washington Post schreibt:

"The Trump administration has awarded a major border security contract to a California technology start-up that will use artificial intelligence on an unprecedented scale, pairing the president’s giant steel barrier with the kind of “virtual wall” long favored by Democrats to prevent illegal crossings from Mexico."


Neue Features bei den Plattformen

Snapchat

  • TikTok-Style: Snapchat testet die vertikale Navigation von öffentlichen Videos – eine Technik, die an TikTok erinnert und sich mittlerweile auch viel nativer anfühlt als horizontal zu wischen. Bei Twitter gibt es ein Video davon:

Header-Foto von Ehimetalor Akhere Unuabona bei Unsplash


Das Silicon Valley zähmt das Wild Wild Web (ein bisschen)

Was ist

In den vergangenen Tagen haben die großen Tech-Plattformen reihenweise rassistische, rechtsradikale und gewaltverherrlichende Kanäle, Gruppen, Seiten und Konten verbannt. Auch der Twitch-Account von Donald Trump wurde vorübergehend gesperrt (wobei man durchaus der Meinung sein kann, dass mindestens zwei der Adjektive auch auf den US-Präsidenten zutreffen, sodass er gar nicht einzeln aufgezählt werden müsste).

Wer wen gekickt hat

Ganz aktuell:

  • Twitter hat Konten der rechtsextremen Identitären Bewegung gesperrt. Facebook und Instagram haben bereits vor zwei Jahren durchgegriffen.
  • Verfassungsschutz-Präsident Thomas Haldenwang hatte kurz zuvor explizit vor der Gefahr der sogenannten Neuen Rechten gewarnt und sie als „Superspreader von Hass und Gewalt“ (SZ) bezeichnet.
  • Die Sperrung der Twitter-Profile sei für die Identitäre Bewegung „ein erheblicher Einschnitt“, sagt Extremismusforscher Jakob Guhl (DLF) vom Londoner Institute for Strategic Dialogue.
  • „Der Versuch der Identitären Bewegung, rechtsextreme Positionen mit einem bürgerlichen Anstrich zu tarnen, ist gescheitert“, sagt Miro Dittrich (ZDF) von der Amadeu-Antonio-Stiftung.

Von vergangener Woche (auch schon in Briefing #651 zu lesen)

  • Reddit hat r/The_Donald, r/ChapoTrapHouse und rund 2000 weitere rassistische und extremistische Subreddits dicht gemacht (The Verge).

Warum das wichtig ist

In einer Telefonkonferenz mit Journalistïnnen sagte Reddit-Chef Steve Huffman:

„I have to admit that I’ve struggled with balancing my values as an American, and around free speech and free expression, with my values and the company’s values around common human decency.“

Dieses Zitat beschreibt das Dilemma, in dem Facebook, YouTube, Twitter, Reddit und andere Unternehmen stecken. Genauer gesagt: das Dilemma, in dem sie glauben zu stecken. Denn tatsächlich hat vieles von dem, was die Plattformen jahrelang stillschweigend duldeten, nichts mit Meinungs- oder Redefreheit zu tun. Kein Mensch der Welt hat ein Anrecht darauf, dass ihm jedes private Unternehmen ein Mikrofon unter die Nase hält.

Huffman hat entschieden: Reddit soll keine Plattform für Hass und Menschenfeindlichkeit mehr sein. Isoliert betrachtet wäre das nur der überfällige Sinneswandel eines jungen Gründers, der allmählich erwachsen wird. Doch wenn binnen einer Woche fünf Großkonzerne ähnliche Entscheidungen treffen, steht das für mehr.

„Goodbye to the Wild Wild Web“, verabschiedet Kevin Roose (NYT) die Ära der nahezu unbeschränkten Redefreiheit:

„But arriving all at once, they felt like something much bigger: a sign that the Wild Wild Web — the tech industry’s decade-long experiment in unregulated growth and laissez-faire platform governance — is coming to an end. In its place, a new culture is taking shape that is more accountable, more self-aware and less willfully naïve than the one that came before it.“

Warum das gut ist

Das Wild Wild Web hat dem World Wide Web schwer geschadet. Wenige Großkonzerne haben das Sagen – und Extremistïnnen spielen Katz und Maus mit ihnen. Sie kapern die Plattformen, Pöbeln, Provozieren und loten die Grenzen des Sagbaren aus. Sie profitieren von Algorithmen, die das Laute und Schrille weiter verstärken und Nuancen und Differenzierung unsichtbar machen.

Netzwerke wie Facebook sind weder neutral noch ein Spiegel der Gesellschaft. Was auf YouTube trendet, bestimmen nicht nur die Nutzerïnnen, sondern auch YouTubes mächtige Empfehlungsmaschine. John Herrman drückt es so aus (NYT):

„YouTube isn’t so much the marketplace of ideas as a marketplace for some ideas, if those ideas work well in video format, in the context of a subscription-driven social environment consumed mostly on phones, in which compensation is determined by viewership, subject matter and potential for sponsorship.“

Es war immer ein Mythos, dass ein Minimum an Regeln (gepaart mit einem noch viel eklatanteren Defizit an Durchsetzung jener Regeln) allen die gleichen Chancen gibt, ihre Ideen und Überzeugungen zu verbreiten. Im Zeitalter der Aufmerksamkeitsökonomie gewinnt meist, wer am vehementesten meint, am lautesten schreit oder am skrupellosesten auf Andersdenkende losgeht.

Die vergangenen Jahre haben gezeigt, dass Deplatforming helfen kann, den besonders wüsten Schreihälsen dauerhaft die Bühne zu entziehen. Alex Jones und Milo Yiannopoulos haben massiv an Einfluss verloren (Vice), nachdem YouTube und Twitter ihre Kanäle und Konten dicht gemacht haben. In Briefing #614 haben wir ausführliche über eine Studie geschrieben, die unter anderem die Wirksamkeit von Deplatforming belegt.

Wenn Facebook, Twitter, YouTube, Reddit und Twitch nun durchgreifen, ist das weder Zensur, noch bedroht es die Meinungsfreiheit. Es ist ein erster von vielen nötigen Schritten, um das Wild Wild Web zu zähmen und zu entgiften.

Wie sich das Timing erklärt

Was hat sich geändert? Warum hat Reddit nach vielen Jahren entschieden, dass der Großteil der rund 800.000 Menschen, die r/The_Donald bevölkern, doch nicht harmlos ist? Warum greift Twitter ausgerechnet jetzt durch, obwohl Sellner und seine Gefolgsleute die Plattform immer wieder für ihre menschenfeindlichen Aktionen missbraucht haben?

Wir zitieren erneut John Herrman, der in erster Linie wirtschaftliche Motive sieht:

„These areas of previously unfettered growth – in far-right content, in groups with a tendency to harass and intimidate other users and in certain political circles — are, finally, more trouble than they’re worth. Maybe they alienate a platform’s own employees, making them uncomfortable or ashamed. Maybe they’ve attracted the wrong kind of attention from advertisers or even a critical mass of users.“

Das ist sicher ein Grund – aber nicht der einzige. Reddit-Chef Huffman sagt (NYT):

„We have advertisers who care about these things. But this was a decision — a series of decisions, really — to make Reddit better.“

Das ganze Interview ist absolut lesenswert. Huffman erläutert darin nachvollziehbar, welcher interne Diskussionsprozess zur Entscheidung führte und gesteht offen seine eigene Naivität ein:

„When we started Reddit 15 years ago, we didn’t ban things. And it was easy, as it is for many young people, to make statements like that because, one, I had more rigid political beliefs and, two, I lacked perspective and real-world experience.“

Was er sagt, klingt glaubwürdig. Auch Nilay Patel, der Chefredakteur von The Verge, nimmt Huffman den Idealismus ab (Twitter):

„Sometimes the answer is as simple as people looking at the thing they’ve made and deciding they would like to be more proud of it than they are.“

Es ist zu einfach, Tech-Konzerne und ihre Chefs immer nur auf finanzielle Motive oder Machtstreben zu reduzieren. Mark Zuckerberg, Jack Dorsey, Susan Wojcicki und Steve Huffman haben Werte und Überzeugungen. Natürlich wollen sie, dass ihre Produkte die Welt verbessern.

Man kann darüber streiten, ob das gelingt. Man kann den Moralkompass von Zuckerberg kritisieren, der Redefreiheit fast schon verabsolutiert. Man kann den Konzernen vorwerfen, dass ihre Handlungen oft nicht mal den eigenen Regeln entsprechen. Aber manchmal entscheiden mächtige Managerïnnen auch einfach, weil sie überzeugt sind, dass es wichtig und richtig ist – und nicht, weil das dem Aktienkurs hilft.

Wir wissen natürlich nicht, was genau in den aktuellen Fällen den Ausschlag gegeben hat. Neben Altruismus gibt es eine Reihe weiterer möglicher Gründe:

  • Die Welt verändert sich rasant. Gerade die „Black Lives Matter“-Proteste haben ein neues Bewusstsein geschaffen. In diesem Klima riskieren Konzerne, die Rassistïnnen eine Bühne bieten, Nutzerïnnen und Werbekunden zu verärgern.
  • Der Werbeboykott, der derzeit Facebook trifft, zeigt, dass Unternehmen bereit sind, ihre Budgets umzuverteilen. Ob bei allen moralische Überzeugungen ausschlaggebend sind, ist fraglich. Fakt ist aber, dass Aktionen wie #StopHateforProfit den öffentlichen Druck erhöhen, hasserfüllte Inhalte konsequenter zu löschen. (mehr dazu: #649)
  • Auch die Angestellten der Konzerne können Druck machen: Hunderte Facebook-Mitarbeiterïnnen streikten, weil Zuckerberg ein Posting von Trump unverändert stehen ließ. Gerade im (für US-Verhältnisse) linksliberalen Silicon Valley, in dem viele große Unternehmen um die klügsten Köpfe konkurrieren, kann eine solche Haltung junge, politisch denkende Entwicklerïnnen abschrecken. (mehr dazu: #643)
  • Die Corona-Pandemie hat bei den Plattformen ein Umdenken bewirkt: Es gibt Inhalte, die vielleicht nicht strafbar sind, aber doch so eindeutig gefährlich („Wassertrinken hilft gegen Covid 19“, „5G verbreitet das Virus“), dass sie gelöscht werden müssen (mehr dazu: #633). Und das gilt nicht nur für unwissenschaftlichen Unsinn, sondern auch für politische Inhalte. Forscherin Joan Donovan schreibt (Wired):

„It’s no coincidence that this newfound boldness on the part of social media companies is coming in the middle of a global pandemic. The past few months of work dealing with medical misinformation surrounding Covid-19 has taught these companies an important lesson: They must – and they can – take decisive action to control who and what is on their sites. It’s about time, and it had better be just the beginning.“

Ja, aber

Aus drei Gründen ist es zu früh für große Freude:

  1. Die Ereignisse der vergangenen Woche allein bewirken kaum etwas. Sie bekommen erst dann eine größere Bedeutung, wenn sich der Trend, der sich abzuzeichnen scheint, bewahrheitet. Bis dahin bleiben es fünf Entscheidungen, die nur Symptome bekämpfen – Symptome des Wild Wild Web, das die Plattformen selbst hervorgebracht haben.
  2. Viele der verbannten Extremistïnnen rufen dazu auf, sich woanders neu zu formieren. Sie ziehen sich auf Plattformen zurück, wo noch weniger moderiert wird – und wo die Öffentlichkeit noch weniger davon mitbekommt. Vor allem bei großen Accounts wirkt Deplatforming. Wenn aber die Boogaloo-Bewegung zu Telegram umzieht, ist wenig gewonnen. r/The_Donald hat sich seit Jahren auf die Sperre vorbereitet und wird alles versuchen, den harten Kern zusammenzuhalten.
  3. Bei den aktuellen Fällen waren die Entscheidungen eindeutig und überfällig. Es gibt aber einen großen Graubereich. „Hass“ und „Hatespeech“ sind schwammige Begriffe. Sollen die Plattformen selbst entscheiden, wo die Grenze liegt? Wer schreibt die Regeln für das Netz, das nach dem Wild Wild Web kommt? Es braucht demokratische und juristische Kontrolle – und Institutionen wie das Facebook-Oversight-Board, das zumindest einen kleinen Teil der Entscheidungsgewalt externalisiert.

Be smart

Vergangene Woche gab es noch einen sechsten Massenban: Indien hat 59 chinesische Apps gesperrt, darunter TikTok. Jetzt erwägen auch die USA, TikTok zu verbieten (WSJ).

Vielleicht folgt auf das globale Wild Wild Web kein zivilisiertes World Wide Web – sondern ein „Splinternet“ (Future Today Institute), das Jannis Brühl heraufziehen sieht (SZ):

„Wie unter einem Brennglas zeigt sich in Hongkong, wie die sozialen Medien zu Kampfplätzen der Geopolitik geworden sind. Das soziale Web von Facebook bis Tiktok lebt von den Inhalten seiner Nutzer, seien es Fotos vom Familienausflug oder politische Parolen. Der Versuch der Staaten, diese Datenströme zu kontrollieren, verändert das Netz. Regierungen errichten digitale Mauern und sabotieren die Globalisierungsmaschine Internet.“

10.7.2020 | Unabhängiger Civil-Rights-Audit: Facebook fällt durch, Festival bei Minecraft, mieser Start für Quibi

Unabhängiger Civil-Rights-Audit: Facebook fällt durch

 

Was ist

Facebook steht gewaltig unter Druck:

  • Die Initiatorïnnen von #StopHateforProfit haben sich mit der Facebook-Führungsriege getroffen. Ihr Fazit fällt vernichtend aus.
  • Facebook hat einen Civil-Rights-Audit veröffentlicht, an dem unabhängige Expertïnnen mehr als zwei Jahre gearbeitet haben. Ihr Fazit fällt vernichtend aus.

 

Warum das wichtig ist

In Briefing #638 haben wir erklärt, warum Facebook sich selbst über den Kopf gewachsen ist, weil es die Risiken und Nebenwirkungen seiner eigenen Größe kaum noch kontrollieren kann. Die aktuellen Entwicklungen sind zwangsläufige Folgeerscheinungen: Wenn eine Plattform, die 2,5 Milliarden Menschen vernetzt, in 95 von 100 Fällen richtig entscheidet, macht sie immer noch viele Fehler – verdammt viele Fehler.

Facebook-Manager Nick Clegg sagt (Facebook-Newsroom): „It is worth remembering that the vast majority of those billions of conversations are positive.” Das mag zutreffen, aber es bleiben immer noch jede Menge Inhalte übrig, die alles andere als positiv sind: Hass, Rassismus, Antisemitismus.

Zumal Facebook der Gesellschaft eben nicht nur einen Spiegel vorhält, wie es selbst immer wieder beteuert. Seine Algorithmen verstärken negative Emotionen und spielen Extremistïnnen in die Hände (OneZero). Gepaart mit dem Freifahrtschein für den US-Präsidenten ergibt das eine bisweilen toxische Mischung.

 

Wie sich das auf Facebook auswirkt

___STEADY_PAYWALL___

Wut und Hass haben Konsequenzen – auch für Facebook: Der Werbeboykott (mehr dazu in Briefing #649 und #650) weitet sich aus. Das mag den kurzfristigen Gewinn kaum schmälern, dem Ruf schadet es aber sehr wohl. „Facebook muss komplett umdenken”, sagt etwa Ryan Gellert (SZ), Europa Chef von Patagonia.

Zumindest öffentlich erkennt das nun auch Facebook selbst an. Während Zuckerberg vergangene Woche bei einem internen Meeting noch sagte, die Werbekunden würden „bald genug” wieder zurückkommen (The Information), klingt das bei Europa-Chefin Angelika Gifford mittlerweile anders (Handelsblatt):

"Ich weiß nicht, ob er das so gesagt hat. Ich versichere aber: Wir sind innerhalb des Unternehmens sehr, sehr alarmiert. Jeder von uns."

Gifford deutet an, dass Zuckerberg heute womöglich anders mit Trumps Drohungen („When the looting starts, the shooting starts”) umginge:

"Müsste er noch mal entscheiden, würde er den Beitrag vielleicht online lassen, aber darauf hinweisen, dass er gegen unsere Standards verstößt."

Ende Juni hatte ein Sprecher noch gesagt (Washington Post), Facebooks neue Richtlinien wirkten sich nicht auf Trumps Beitrag aus. Der Umgang mit den Beiträgen des US-Präsidenten stand dann auch im Zentrum der zwei Ereignisse, die wir in diesem Briefing näher beleuchten:

 

Das Treffen mit #StopHateforProfit

Am Dienstag haben sich Mark Zuckerberg, Sheryl Sandberg, Chris Cox, Nick Clegg und weitere Facebook-Managerïnnen mit Bürgerrechtlerïnnen getroffen, die hinter dem Werbeboykott stecken, dem sich mittlerweile mehr als 1000 Unternehmen angeschlossen haben. In einem Zoom(!)-Meeting (NYT) sprachen sie mehr als eine Stunde über die zehn Anliegen der Initiatiorïnnen (Stop Hate for Profit).

Wenn man Facebook Glauben schenkt, war es ein produktiver Austausch (Axios):

"This meeting was an opportunity for us to hear from the campaign organizers and reaffirm our commitment to combating hate on our platform. They want Facebook to be free of hate speech and so do we. That's why it's so important that we work to get this right. We know we will be judged by our actions not by our words and are grateful to these groups and many others for their continued engagement."

Die Reaktionen der Gegenseite vermitteln einen anderen Eindruck:

  • Jessica J. González, Free Press: „#StopHateForProfit didn’t hear anything today to convince us that Zuckerberg and his colleagues are taking actions. (…). I’m deeply disappointed that Facebook still refuses to hold itself accountable.”
  • Rashad Robinson, Color of Change: „It’s so frustrating. We are doing a lot of work for a multibillion-dollar company and it’s just always dispiriting we have to do this for them because they won’t do it for themselves.”
  • Jonathan Greenblatt, Anti-Defamation-League: „We know there's a lot of good and well-intentioned people at Facebook, but the company is intentionally flawed.”
  • Derrick Johnson, NAACP: „For the past two years, we've watched conversations blossom into nothingness. No media outlet would allow what Facebook is allowing on its platform.”

Wer mehr über die Motive und Erwartungshaltungen der Organisatorïnnen wissen will, sollte zwei Interviews lesen, die Robinson vor (Guardian) und nach (NYT) dem Treffen gegeben hat. Unter anderem erklärt er, warum der Boykott wirkt, auch wenn er sich wohl kaum in Facebooks Quartalszahlen niederschlagen wird:

"I do think that the cultural significance of so many big brands stepping away is huge. Facebook cannot just credit this to crazy outside activists, because you can’t really call Unilever and Coca-Cola crazy outsiders."

Im Gegensatz zu vielen Kritikerïnnen bemüht er sich um Differenzierung und erkennt durchaus an, dass die Menschen, die Facebook leiten, keine bösen Absichten haben:

"I think Facebook’s heart is in the right place sometimes. But their heart doesn’t make decisions inside the corporation. (…) I like Sheryl and I feel like a lot of the attacks on her are gendered. She is earnest, personable, smart."

Für Robinson ist eines der zentralen Probleme die Organisationsstruktur von Facebook, die alle Entscheidungsgewalt in einer Person bündelt:

"With Mark there are moments when he just doesn’t understand something around the implications of race. This is why a single person shouldn’t control something that’s talked about as a public square. He’ll always have deep blind spots."

Wenn Zuckerberg nicht freiwillig abtritt, wird sich daran auch nichts ändern. Seine Aktien sichern ihm nahezu uneingeschränkte Kontrolle. Doch es gibt zumindest Ansätze, Facebook stärker für externe Meinungen zu öffnen, etwa das Oversight-Board, das wir in den Ausgaben #580 und #638 vorgestellt haben.

Das wird allerdings noch eine Weile auf sich warten lassen: (Twitter / @OversightBoard):

"We understand many people are eager for the Board to officially begin our task of providing independent oversight of Facebook’s content decisions. We share this urgency, but the Board won’t be operational until late Fall."

Das ist ungünstig: Anfang November wird in den USA gewählt. Wenn man die vergangenen Wochen betrachtet, dürfte Facebook in den kommenden Monaten noch eine Menge kniffliger inhaltlicher Entscheidungen treffen müssen. Das Gremium hätte dabei helfen können.

 

Der Civil-Rights-Audit

Mehr als zwei Jahre haben die Menschenrechtsexpertinnen Laura Murphy und Megan Cacace untersucht, ob Facebook genug unternimmt, um seine Nutzerïnnen vor Hass und Rassismus zu schützen, politische Wahlen abzusichern, Privatsphäre zu gewährleisten und Missbrauch zu verhindern. Sie haben mehr als 100 Organisationen, Hunderte Einzelpersonen und etliche Kongressmitglieder befragt.

Nach Updates im Dezember 2018 und Juni 2019 hat Facebook nun den endgültigen Bericht veröffentlicht (jeweils Facebook-Newsroom). Eines muss man Facebook auf jeden Fall zugute halten: Es hat die Untersuchung selbst in Auftrag gegeben und den beiden Autorinnen freie Hand gelassen: Das 89-seitige Dokument (PDF) ist schonungslos und in seiner Kritik teils drastisch.

Ausführlichere Analysen finden sich etwa in den Newslettern von Judd Legum (Popular Information) und Casey Newton (Revue). Den wohl besten Überblick gibt Recode, das fünf zentrale Kritikpunkte zusammenfasst:

  1. Die Ausnahmen, die Facebook für Trump gemacht hat, seien gefährlich. Mehrere Beiträge des US-Präsidenten verstießen eindeutig gegen Facebooks Richtlinien. Ihm freie Hand zu lassen, schüre Rassismus und könne zu Gewalt führen.
  2. Redefreiheit dürfe nicht das höchste Gut sein – zumal Facebook in erster Linie mächtigen Politikerïnnen eine Bühne gebe, deren Beiträge und Anzeigen es anders behandelt.
  3. Obwohl Facebook immer wieder vereinzelt rechtsradikale Seiten und Gruppen lösche, florierten Menschenfeindlichkeit und Hass. Unabhängige Wissenschaftlerïnnen könnten das Problem nicht erforschen, weil sie keinen ausreichenden Zugang zu internen Daten erhalten.
  4. Dabei habe die Corona-Pandemie gezeigt, dass Facebook durchaus in der Lage ist, konsequent gegen problematische Inhalte vorzugehen. Facebook selbst sagt, dass die Entscheidung bei wissenschaftlichen Themen, bei denen es eindeutig richtige und falsche Aussagen gebe, leichter falle. Der Bericht fordert, dass Facebook diese Entschlossenheit auch auf bestimmte politische Inhalte übertragen muss, bei denen die schädlichen Auswirkungen genauso eindeutig seien.
  5. Facebook solle eine Person einstellen, die für Menschenrechte zuständig ist. Es müsse eine Position im Top-Management mit echter, unabhängiger Entscheidungskompetenz und einem eigenen Team sein.

Die Reaktionen von Sheryl Sandberg auf die beiden Zwischenberichte und den Abschlussbericht ähneln sich:

  • We know that we need to do more: to listen, look deeper and take action to respect fundamental rights.” (2018)
  • „Today’s report gives another update on our progress and points out where we need to do more.” (2019)
  • We have a long way to go – but we are making progress.”

Erst im vergangenen Briefing haben wir Charly Warzel zitiert, der sich über die immergleichen Floskeln der Tech-Managerinnen mokierte (NYT):

"We Know We Have More Work to Do (let’s call it W.K.W.H.M.W.T.D. for short) is the definitive utterance of the social media era."

Sandberg verweist aber zurecht darauf, dass Facebook eine Menge Fortschritte gemacht und wichtige Reformen angestoßen habe. Der gute Wille ist erkennbar. Nur sind die Autorinnen des Berichts eben überzeugt, dass diese fast immer rein reaktiven Einzelmaßnahmen bei Weitem nicht ausreichen, um die negativen Auswirkungen der Plattform in den Griff zu bekommen.

 

Be smart

Der Bericht dreht sich auf 89 Seiten nur um Facebook, die blaue App, und beschäftigt sich vorrangig mit den USA. Menschenrechte sind aber ein globales Thema (Techonomy) – und Facebook besteht nicht nur aus einer, sondern aus drei riesigen Kommunikationsplattformen.

Offenbar arbeitet Facebook weiter mit Hochdruck daran (WABetaInfo), den Messenger, WhatsApp und Instagram auf eine gemeinsame technische Grundlage zu stellen. Der Trend geht weg vom Newsfeed, hin zu privaten Gruppen und Messengern, die von außen nicht einsehbar sind. Unabhängige Untersuchungen und Moderation von Inhalten werden damit noch schwerer.

Ende Juli werden Jeff Bezos, Tim Cook, Sundar Pichai und Mark Zuckerberg vor dem Kongress aussagen müssen. Der Justizausschuss prüft, ob wenige Unternehmen zu viel Macht im digitalen Raum haben. Das dürfte Facebook deutliche größere Sorgen bereiten als ein Menschenrechtsbericht.


Follow the money

  • Twitter Subscription Service: Twitter scheint darüber nachzudenken, die Plattform (oder zumindest Teile davon) zu einem Bezahlangebot umzuwandeln. The Verge berichtet von Job-Angeboten, die darauf hindeuten. Twitter selbst hat sich noch nicht geäußert, das entsprechende Job-Angebot aber neu formuliert – der Hinweis auf ein Bezahlangebot ist darin nun nicht mehr zu finden. Spannend!
  • WhatsApp & Businesses: Es ist ja bereits seit längerem ein erklärtes Ziel, WhatsApp stärker für Business-Partner zu öffnen. Jetzt geht das Unternehmen die nächsten vorsichtigen Schritte und führt QR-Codes für Geschäfte (Facebook Newsroom) ein. Techcrunch schreibt:

"Instead of manually entering a business phone number, you can scan a QR code from a receipt, a business display at the storefront, a product or even posted on the web, in order to connect with the company. Businesses that are using these can also set up welcome messages to start conversations once they’ve been added by a user. (They will have to use the WhatsApp Business app or the WhatsApp Business API to do this, of course.)"


Schon einmal im Briefing davon gelesen

  • Digitale Souveränität: Wir verfolgen beim Watchblog schon lange die These, dass wir bei all den Tools und Apps, die uns im digitalen Raum zur Verfügung stehen, erst ganz am Anfang stehen. Wir lernen erst, damit umzugehen. Wir beginnen erst zu verstehen, wie sie Gesellschaft, Politik, Wissenschaft und Wirtschaft verändern. Alle sind daher in der Pflicht, sich die Frage zu stellen, wie ein souveräner Umgang mit ihnen aussehen könnte. Umso erfreulicher ist es, wenn auch die Unternehmen selbst diese Pflicht erkennen: Facebook startet in Indien ein Programm, um Schülern „digital safety“ und „only well-being“ näher zu bringen (Techcrunch). Natürlich wird das auf eine Art auch Facebook-gebrandet passieren. Aber solche Vorstöße sind uns tausendmal lieber als sich lediglich darum zu scheren, Marketing-Verbindungsoffiziere in jedem Winkel dieser Erde zu stationieren.
  • TikTok is all about dancing? Nope. Es gibt auch User, die interpretieren TikTok eher als eine Art Best-of-Pinterest (Vox). Sehr artsy und smart.
  • Twitter Summer Camp: Um den Kids der Angestellen auch in Corona-Zeiten eine Art Summer Camp bieten zu können, startet Twitter ein Online-Ferienlager (hrexecutive).

"Classes focused on topics of parents’ choice, as well as activities like cooking lessons, yoga classes and music sessions, are among the offerings in the program"

  • Festival bei Minecraft: In unserem jüngsten Deep Dive zu TikTok hatten wir darauf hingewiesen, dass die App nicht das einzige Phänomen ist, das die etablierten Social-Media-Plattformen unter Druck setzt. Auch Online-Games werden immer stärker zu Orten der Begegnung und damit zu einer neuen Form sozialer Netzwerke. Graduierungspartys in Minecraft (Wired) und virtuelle Konzerte in Fortnite (Tobias van Schneider) sind gute Beispiele für diese Entwicklung. Das Rave Family Block Fest setzt dem Trend jetzt die Krone auf: Ein dreitägiges EDM-Festival mit über 900 Musikern auf 85 Bühnen – darunter Deadmau5, Maya Jane Coles und Steve Aoki. Tickets für das Event kosten 10 Dollar und können über Eventbrite erworben werden. Wie das alles funktioniert, erklären euch entweder eure Kids oder die Festival-Website: rave.family!

Empfehlungen fürs Wochenende

  • Eine polnische Firma schafft gerade unsere Anonymität ab: Sebastian Meineck und Daniel Laufer zeigen bei netzpolitik das Missbrauchspotenzial von PimEyes, einer kostenlosen Suchmaschine für 900 Millionen Gesichter. Alle, von denen es Fotos im Internet gibt, könnten schon Teil ihrer Datenbank sein. Spannend und gruselig zugleich.
  • Schaut überhaupt jemand Quibi? Wir haben in unserem Newsletter den Launch von Quibi von Anfang an begleitet. Dass die Video-App nach so viel Hype einen so schlechten Start hinlegen würde, hatten wir nicht erwartet. Wer sich noch einmal in aller Ruhe mit der Geschichte von Quibi vertraut machen möchte, sollte diesen Vulture-Longread lesen: Is Anyone Watching Quibi? Im Kern geht es um die Frage, wie ein Startup, das mit so viel Geld ausgestattet wurde, so grandios vor die Wand fahren konnte:

"In market research following its Oscars and Super Bowl ads, 70 percent of respondents said they thought Quibi was a food-delivery service"

🤭


Neue Features bei den Plattformen

Instagram

  • Pinned Comments: In Ausgabe #637 hatten wir erstmalig darauf hingewiesen, dass Instagram an einem Feature bastelt, dass es ermöglicht, bestimmte Kommentare oben zu pinnen. Die Idee dahinter: Gepinnte Kommentare sollen zeigen, welcher Ton erwünscht ist. Jetzt ist das Feature bald für alle verfügbar (The Verge).

Tinder


One more thing

Wenn es der US-Präsident nicht hinbekommt, dann muss sich Facebook halt kümmern, oder was?! Alles so verrückt.


Header-Foto von Jeppe Mønster bei Unsplash


Wie Social-Media-Angebote wieder sozialer werden könnten

Was ist

Es vergeht keine Woche, ohne dass in diesem Briefing die Worte Hass, Rassismus und Menschenfeindlichkeit auftauchen. Die jüngsten Beispiele: #StopHateforProfit in Briefing #650 und das Deplatforming rechtsradikaler Kanäle, Gruppen und Subreddits durch YouTube, Facebook, Twitch und Reddit in Briefing #651.

Das ist traurig, denn eigentlich schreiben wir über soziale Medien. Doch zumindest in der öffentlichen Wahrnehmung überwiegen die negativen Folgeerscheinungen die positiven Effekte – die es zweifellos gibt. Social Media vernetzen Menschen auf der ganzen Welt und geben Leuten eine Stimme, die lange nicht gehört wurden, wie etwa #MeToo und #BlackLivesMatter zeigen.

Was das bedeutet

Das Potenzial, das soziale Netzwerke haben, ist groß. Die Realität zeichnet ein anderes Bild. Doch statt abzubilden und zu beklagen, was ist, wollen wir an dieser Stelle einen konstruktiven Blick auf Social Media werfen: Wir sammeln Vorschläge, was Plattformen, Politik und Nutzerïnnen tun könnten, damit kulturpessimistische Feuilletonistïnnen nicht mehr halbironisch von "sogenannten sozialen Medien" schreiben müssen.

Woher die Idee kommt

Unabhängig voneinander haben mehrere kluge Menschen in den vergangenen Tagen Texte veröffentlicht, die sich damit beschäftigen, wie soziale Netzwerke kleinteilig verbessert, grundlegend reformiert oder komplett neu gedacht werden könnten – auch wenn die Überschriften nicht alle danach aussehen:

  1. Nick Punt: „De-escalating Social Media” (nickpunt.com)
  2. Shira Ovice: „Bogus Ideas Have Superspreaders, Too” (NYT)
  3. Charlie Warzel: „Facebook Can’t Be Reformed” (NYT)
  4. Will Oremus: „What a Better Social Network Would Look Like” (OneZero)

Punt und Ovide machen konkrete und operationalisierbare Vorschläge. Warzel und Oremus aggregieren jeweils Ideen, die teils unrealistisch bis utopisch anmuten. Nummer 1 und 2 behandeln wir separat, die beiden anderen bündeln wir, da sie inhaltlich zusammenhängen. Wir haben alle vier Texte mit Gewinn gelesen und empfehlen sie weiter.

1. Twitter Mea Culpa

Die Ausgangsthese von Nick Punt lautet: "Social media has a conflict problem." Aus unterschiedlichen Gründen, die er nachvollziehbar herleitet, fällt es vielen Menschen in sozialen Netzwerken besonders schwer zuzugeben, dass sie im Unrecht sind und einen Fehler gemacht haben.

Eines der größten Probleme: Wenn einen Hunderte Menschen auf einmal teils aggressiv zurechtweisen, sinkt die Bereitschaft zur Selbstkritik massiv. Auf Twitter gibt es nur drei Optionen:

  1. Die Antworten ignorieren
  2. Den Tweet löschen
  3. Den Tweet online lassen und eine Korrektur posten

Nichts davon ist wirklich zielführend. Deshalb schlägt Punt eine neue Funktion vor – Twitter Mea Culpa:

"Twitter Mea Culpa is a way for a poster to flag their tweet as a mistake and de-escalate a situation, using the same action menu that deleting a post uses, and the same visual design as flagged tweets."

Wer auf diese Art eingesteht, einen Fehler gemacht zu haben, schränkt die Reichweite seines Ursprungstweets ein und verhindert weitere direkte Antworten. Der Tweet bleibt aber online und kann zitiert werden.

In seinem Gedankenspiel wägt Punt weitere Optionen ab (die Möglichkeit, ein Follow-up zu verschicken oder eine Funktion, mit der andere Nutzerïnnen Vergebung signalisieren können), beleuchtet mögliche Schattenseiten (etwa den Missbrauch durch Trolle) und erklärt, warum eine Mea-Culpa-Möglichkeit besser wäre als ein Edit-Button, den Twitter (aus durchaus nachvollziehbaren Gründen) ablehnt.

Unsere Einschätzung: Ein Twitter Mea Culpa verändert garantiert nicht die Welt – und vermutlich auch Twitter nur geringfügig. Dafür ließe sich die Idee wohl relativ einfach umsetzen, könnte Nutzerïnnen in bestimmen Situation unangenehme Erfahrungen ersparen und Twitter zu einem etwas angenehmeren Ort machen. R U Listening, Jack?

2. Aus großer Reichweite folgt große Verantwortung

Shira Ovide beschreibt den Status Quo:

"If the Rock encouraged his 58 million Facebook followers to vandalize a fast-food restaurant, Facebook’s policies would treat it the same as if your neighbor blasted this to his 25 friends."

Und leitet daraus ab:

"But whether they intend it or not, celebrities, politicians and others with large online followings can be superspreaders — not of the coronavirus but of dangerous or false information. And I wonder whether these prominent people need to be held to stricter rules."

Anders ausgedrückt: Ovide wünscht sich, dass Plattformen bei der Content-Moderation nicht nur auf den Inhalt, sondern auch auf die Absenderïnnen achten. Sie erinnert an Beispiele wie die üble "Momo Challenge", die erst groß wurde, nachdem Kim Kardashian den Unsinn auf Instagram verbreitete.

Auch die Analyse aktueller Corona-Verschwörungsmythen stützt diese Theorie: In Briefing #636 haben wir erklärt, wie wenige Influencerïnnen, Prominente und Politikerïnnen den viralen Unsinn befeuern.

Deshalb schlägt Ovide vor:

  • Für Accounts mit mehr als einer halben Million Follower sollen verschärfte Regeln gelten.
  • Wer Inhalte postet, die gegen die Richtlinien der Plattform verstoßen oder die von unabhängigen Faktenprüferïnnen widerlegt wurden, erhält einen Strike (ähnlich dem YouTube-System).
  • Ab einer gewissen Anzahl von Strikes wird die Reichweite des Accounts eingeschränkt. Facebook könnte seinen Algorithmus entsprechend anpassen, Twitter könnte etwa Retweets blockieren.
  • Einflussreiche Nutzerïnnen könnten immer noch alles sagen, was sie wollen (Freedom of Speech), aber sie erreichten nicht mehr alle Menschen, die sie adressieren wollen (Freedom of Reach).
  • Eine noch radikalere Idee wäre es, Inhalte von besonders großen Accounts nur noch nach vorheriger Prüfung freizugeben.
  • YouTube macht das bereits, bevor es Videos für bestimmte Werbeschaltungen freigibt. Medien machen es ohnehin jeden Tag. Die Plattformen entwickelten sich dann noch mehr in Richtung „Publishern“.

Unsere Einschätzung: Das Gegenargument liefert George Orwell, ausnahmsweise nicht im zu Tode zitierten 1984, sondern in seiner Fabel Farm der Tiere: "Alle Tiere sind gleich, aber manche sind gleicher."

Natürlich ist es riskant, wenn Nutzerïnnen anders behandelt werden, nur weil sie ein größeres Publikum adressieren. Aber schon Spiderman wusste: "Aus großer Kraft folgt große Verantwortung." Und wenn wir Kraft durch Reichweite ersetzen, lässt sich das auf Social Media übertragen.

Für globale Plattformen ist es unmöglich, alle Beiträge perfekt zu moderieren. Content-Moderation kann immer nur darauf bedacht sein, Fehler zu minimieren und Folgeschäden zu begrenzen. Alles richtig zu entscheiden, ist aufgrund der Menge der Inhalte, die Milliarden Nutzerïnnen täglich produzieren, schlicht ausgeschlossen.

Auch deshalb sind Plattformen wie Twitter bereits dazu übergegangen (Twitter-Blog), auch den möglichen Schaden als ein Entscheidungskriterium zu berücksichtigen ("If it is likely to cause harm, it should be removed"). Ein Nutzer mit elf Followern, der ein manipuliertes Video von Kim Jong-un hochlädt, ist ein bisschen egal – wenn Trump es tut, könnte die Welt ins Chaos stürzen.

Aus diesem Grund halten wir die Anregung von Shira Ovide zumindest für bedenkenswert und verweisen zudem auf Casey Newton, der bereits vor einigen Monaten schrieb (The Interface):

"Looking at the outcome is a useful frame for making individual policy decisions. There are lots of terrible pieces of social content that are essentially harmless, because no one sees them. And then there are the small few that go viral and do lots of damage. It makes sense that Twitter would focus its moderation efforts at that level. Promising to intervene in cases where there is serious harm isn’t just sensible – it’s also scalable."

3./4. Es braucht keine Reform, es braucht eine Revolution

Wer über Facebook berichtet, hat den Satz Dutzende Male gehört: "We know we have more work to do." So reagiert nicht nur Mark Zuckerberg, wenn Facebook sich von russischen Trollen hat manipulieren lassen, versehentlich Nutzerdaten weitergegeben oder Rechtsradikalen eine Plattform gegeben hat. Charly Warzel drückt es so aus:

"We Know We Have More Work to Do (let’s call it W.K.W.H.M.W.T.D. for short) is the definitive utterance of the social media era, trotted out by executives whenever their companies come in for a public shaming."

Diese lapidare Beschwichtigung soll Kritik abblocken und guten Willen signalisieren. Der Satz ist mächtig – und gefährlich:

"In Facebook’s case, what is most dangerous about W.K.W.H.M.W.T.D. is that it glosses over the fundamental structural flaws in the platform. The architecture of the social network – its algorithmic mandate of engagement over all else, the advantage it gives to divisive and emotionally manipulative content – will always produce more objectionable content at a dizzying scale."

In seinen Reaktionen auf Fehler oder Kritik folgt Facebook dem Design-Thinking-Prozess und beschränkt sich auf die Minimum Viable Action, die kleinstmögliche Reaktion. Das Kardinalproblem – die auf maximales Engagement ausgerichteten Algorithmen, kombiniert mit personalisierter Werbung, Microtargeting und massenhafter, plattformübergreifender Datensammlung – bleibt dabei immer außen vor.

Nun könnte man sagen: Eine globale Plattform wie Facebook spiegelt die Gesellschaft wider – und die besteht nun mal nicht nur aus netten Menschen, die Flausch verteilen.

Oder man fragt: Wie kann Facebook weniger toxisch werden? Wie lassen sich Plattformen entwerfen, die positive Emotionen verstärken, statt Hass zu verstärken?

Genau das hat Warzel vergangene Woche getan (Twitter):

"odd question but: what are your most far fetched utopian ideas for fixing social media platforms? the stuff that’s likely never ever gonna happen"

Es folgten mehr als 1100 Antworten, die Warzel im letzten Drittel seiner Kolumne (NYT) selbst kurz zusammenfasst. Den viel besseren und ausführlicheren Überblick liefert aber Will Oremus (OneZero), der unter anderem folgende Ideen-Cluster bildet und jeweils einordnet:

  • Soziale Netzwerke in gemeinnützige NGOs verwandeln
  • Algorithmen durch Redakteure ersetzen
  • Datensammlung und verhaltensbasierte Werbung einschränken
  • Weiße Managerïnnen durch Schwarze, queere Frauen ersetzen
  • Alternative Plattformen fördern

Zu jedem Vorschlag liefert Oremus nachvollziehbare Pro- und Contra-Argumente, weshalb wir seine Analyse dringend empfehlen (das sagten wir schon, oder?).

Auch wenn ein Großteil der Antworten auf Warzels Tweet wohl nie umgesetzt werden wird, hat das öffentliche Brainstorming zumindest eines gezeigt: Eine Plattform, auf der man eine schnoddrige Frage ohne Punkt und Komma stellt und binnen Stunden Hunderte Antworten von klugen Menschen auf der ganzen Welt erhält, ist ein Ort, für den es sich zu kämpfen lohnt – mit kleinen Verbesserungen und mit großen Utopien.

Scroll to Top

Briefing testen

Salut! Über 3500 Kollegïnnen haben unseren kostenpflichtigen Newsletter bereits abonniert. Wenn Du magst, schicken wir dir gern die nächsten zwei Ausgaben zur Probe – kostenfrei und unverbindlich.