16.10.2020 | Facebook und Twitter wollen keine Lügenschleudern mehr sein | Urheberrecht: Jetzt kommen die Upload-Filter

Salut und herzlich willkommen zur 676. Ausgabe des Social-Media-Briefings. Wir übertreiben heute hart. Knapp 20.000 Zeichen sind eine Menge Holz. Wenn die Mail abbricht, bitte melden. Wir arbeiten an einem Konzept, um die Briefings enger mit der Website zu verknüpfen. Die Idee: Unsere Deep Dives in leicht gekürzter Form im Newsletter, die ausführliche Variante dann auf der Website. Aber das ist leichter gesagt als getan. Wir arbeiten dran! Vielen Dank für die Wertschätzung unserer Arbeit und allen eine gewinnbringende Lektüre! Wir lieben, was wir hier machen. Martin und Simon

Weiterempfehlen

Share on whatsapp
Share on facebook
Share on linkedin
Share on twitter
Share on email

US-Wahl: Facebook und Twitter wollen keine Lügenschleudern mehr sein

Was ist

Kurz vor der US-Wahl erhöht sich die Schlagzahl der Ereignisse – und die Plattformen reagieren ungewohnt entschlossen:

  • Erst wagt Twitter einen bislang einzigartigen Schritt, um die Verbreitung von Desinformation zu verhindern: Es macht es deutlich schwerer, Inhalte zu teilen.
  • Wenig später zwingt eine katastrophale journalistische Fehlleistung Facebook zu einer drastischen Maßnahme: Es schränkt die Reichweite eines Artikels ein, obwohl er noch nicht endgültig als irreführend oder falsch eingestuft wurde. Twitter blockiert gar alle Links und löscht sämtliche Verweise.

Wie Twitter Desinformation verhindern will

Am vergangenen Freitag kündigte Twitter eine Reihe von Maßnahmen an (Twitter-Blog), die deutlich über alles Bisherige hinausgehen:

  • Vom 20. Oktober bis mindestens zum Ende der US-Wahl schraubt Twitter an seiner wohl erfolgreichsten Funktion: dem Retweet. Statt mit einem Klick zu teilen, werden Nutzerïnnen aufgefordert, einen eigenen Kommentar hinzuzufügen.
  • Das soll die Verbreitung von viralen Falschinformationen verlangsamen. Für eine Plattform, die davon lebt, dass Nutzerïnnen Inhalte schnell und einfach teilen können, ist das eine bemerkenswerte Entscheidung.
  • Der Schritt ist nur eine von vielen Maßnahmen. Unter anderem verbietet es Twitter, sich zum Sieger zu erklären, bevor das endgültige Ergebnis feststeht (was fast zwangsläufig darauf hinauslaufen dürfte, dass ein Trump-Tweet gelöscht wird), führt zusätzliche Warnungen und Erklärungen ein, schraubt an seinem Algorithmus, entfernt "Liked by"-Empfehlungen von Menschen, denen man nicht folgt, und erklärt Trending-Topics künftig besser.

Bereits im August dachte Casey Newton über "virality circuit breakers" (Revue) nach: Plattformen müssten verhindern, dass dubiose Inhalte so schnell viral gehen, dass sie mit dem Prüfen nicht mehr hinterherkommen – oder zumindest sicherstellen, dass sie Inhalte, die sich in kurzer Zeit rasant verbreiten, auch mit höherer Priorität prüfen.

Die aktuellen Maßnahmen von Twitter sind interessant, weil sie einen neuen Weg gehen: Statt Inhalte nachträglich zu sperren, versucht Twitter darauf hinzuwirken, dass Nutzerïnnen weniger Inhalte teilen, die gesperrt werden müssen. Das läuft dem Geschäftsmodell der Plattformen zuwider, das darauf angelegt ist, dass möglichst viele Menschen möglichst viel posten. Aber wenn sich herausstellt, dass sich Twitter damit Ärger und Arbeit erspart, könnten alle davon profitieren.

Und falls das nicht reicht, haben die Professoren Mike Ananny und Daniel Kreiss einen weiteren Vorschlag: "Why not put Donald Trump’s tweets and his Facebook posts, as well as those of other political elites, on a time delay?"

Warum Hack-and-Leak-Operationen gefährlich sind

2016 will seine E-Mails zurück: Am Dienstag veröffentlichte die New York Post einen Artikel, der Joe Biden und seinen Sohn Hunter belasten soll. Der Fall erinnert an die Desinformationskampagnen vor vier Jahren, als russische Hackerïnnen E-Mails von Hillary Clintons Wahlkampfleiter John Podesto erbeuteten, die Wikileaks veröffentlichte und die anschließend von Medien breitgetreten wurden.

Auch diesmal ist die Quelle höchst dubios, fast alles riecht nach "Hack and Leak": Jemand versucht, illegal erbeutete und womöglich manipulierte Dokumente in den Umlauf zu bringen, um Medien und Öffentlichkeit zu manipulieren. Auch vor der Wahl in Frankreich 2017 gab es ähnliche Versuche, die französischen Medien berichteten allerdings nicht.

Der frühere Facebook-Sicherheitschef Alex Stamos und sein Nachfolger Nathaniel Gleicher warnen seit Wochen (Spiegel) vor einem solchen Szenario. "Now is the time to get ready for a hack-and-leak dump", schrieb Stamos (Twitter). "Several groups with access to raw intel are pretty heavily hinting that recent Russian activity might be in preparation for a document dump."

Auch Gleicher wies mehrfach auf die Gefahr solcher Operationen hin. Sie seien auch deshalb oft erfolgreich, weil Journalistïnnen fast nie dem Versuch widerstehen können, darüber zu berichten (Twitter): "I'd call out that these operations directly try to exploit competitive pressures across the media ecosystem."

In diesem Zusammenhang sollten Medien die vier Prinzipien verinnerlichen, die Marty Baron, der Chefredakteur der Washington Post, im Umgang mit geleakten und potenziell gehackten Dokumenten formuliert (Vanity Fair). Vor der Entscheidung zur Veröffentlichung müssten mehrere erfahrene Redakteurïnnen das Material prüfen:

Our emphasis should be on making a sound and well-considered decision—not on speed. We should resist the instinct to post a story simply because a competitor has done so.

Nicht nur das Ob, auch das Wie sei entscheidend:

Our stories should prominently explain what we know about the full context of the information we are presenting, including its origins and the motivations of the source, including whether it appears to be an effort to distract from another development.

Die New York Post hat nichts davon berücksichtigt. Und deshalb mussten die Plattformen tätig werden.

Wie Facebook und Twitter durchgreifen

Der Erfolg von Hack-and-Leak-Operationen basiert auf Sensationslust und der Dynamik sozialer Netzwerke: Spekulationen und Gerüchte verbreiten sich viral, je wilder, desto besser. Umso größer war die Herausforderung für die Plattformen, die schnell und entschlossen reagierten:

  • "While I will intentionally not link to the New York Post, I want be clear that this story is eligible to be fact checked by Facebook's third-party fact checking partners", schrieb Facebook-Sprecher Andy Stone drei Stunden nach der Veröffentlichung. "In the meantime, we are reducing its distribution on our platform."
  • Erst Drosseln, dann Prüfen: Dieses Vorgehen hatte Facebook bereits vor einem Jahr angekündigt (Facebook-Newsroom). Aber zum ersten Mal geschieht es vor den Augen einer so großen Öffentlichkeit.
  • Twitter geht noch einen Schritt weiter. Es blockiert alle Links auf den Artikel, selbst Verweise auf den Google-Cache oder Archive.org werden gesperrt. Teils sind sogar Regierungswebseiten betroffen, auf denen der Artikel zweitveröffentlicht wird.
  • Wer den Link posten will, erhält aber keine Erklärung, sondern erfährt nur, dass er "potentially unsafe" sei und deshalb blockiert werde. Erst später erklärt @TwitterSafety, dass die Entscheidung auf der "Hacked Materials Policy" beruht, die Verweise auf gehackte Dokumente und Berichterstattung darüber verbietet.
  • Trump und viele Republikaner wittern natürlich eine Verschwörung (Ars Technica), wozu auch Twitter durch die deutlich zu späte Erklärung beitrug (The Atlantic).
  • "Our communication around our actions on the @nypost article was not great", gibt auch Jack Dorsey zu (Twitter). "And blocking URL sharing via tweet or DM with zero context as to why we’re blocking: unacceptable."

Be smart

Facebook und Twitter haben nicht alles richtig gemacht. Die Reaktion kam früher als beim viralen "Plandemic"-Video, das absurde Verschwörungserzählungen über den Ursprung des Coronavirus verbreitete und trotzdem Dutzende Millionen Views auf Facebook und YouTube einsammelte. Doch drei Stunden sind immer noch zu spät: In der Zwischenzeit war ein Großteil des Schadens schon angerichtet.

Trotzdem wären solche Reaktionen vor einem Jahr kaum denkbar gewesen. Die Plattformen nehmen die Bedrohung ernst und versuchen zumindest, Desinformation zu verhindern und die US-Wahl abzusichern. Die aktuelle Hack-and-Leak-Operation dürfte nur der Anfang gewesen sein: In den kommenden zwei Wochen werden Facebook und Twitter wohl noch einige Male zeigen müssen, dass sie ihre Lektionen gelernt haben.


Urheberrecht: Jetzt kommen die Upload-Filter

Was ist

Das Bundesjustizministerium hat einen Referentenentwurf veröffentlicht (BMJV), mit dem die EU-Urheberrechtsrichtlinie in nationales Recht umgesetzt werden soll. Der Vorschlag weicht von den bisherigen beiden Diskussionsentwürfen ab und dürfte die Befürchtungen vieler Kritikerïnnen bestätigen: In der aktuellen Form wären flächendeckende Upload-Filter unumgänglich.

Warum das wichtig ist

Die EU-Urheberrechtsreform zählte zu den kontroversesten Gesetzgebungsverfahren der vergangenen Jahre. Vor anderthalb Jahren löste sie erbitterte Lobby-Schlachten aus und brachte Hunderttausende vor allem junge Menschen auf die Straße. Trotz des Protests wurde die Richtlinie verabschiedet, bis Juni 2021 müssen sie alle Mitgliedsstaaten umgesetzt haben.

Die Reform enthält viele sinnvolle Änderungen und Modernisierung, aber eben auch einige fragwürdige Vorgaben. Dazu zählen Upload-Filter (der Begriff taucht nicht im Referentenentwurf auf, sie ließen sich aber kaum vermeiden) und das Leistungsschutzrecht.

Warum der Entwurf auf Upload-Filter hinausläuft

  • Plattformen sollen für Inhalte haften, die Nutzerïnnen hochladen. Ausgenommen wären etwa Wikipedia, junge Start-ups und Unternehmen, die weniger als eine Million Euro pro Jahr umsetzen.
  • Die Unternehmen müssten "bestmögliche Anstrengungen" unternehmen, um Lizenzen zu erwerben. Doch selbst Weltkonzerne wie Google können kaum Nutzungsrechte für alle Inhalte kaufen, die Milliarden Menschen täglich veröffentlichen. Dafür gibt es schlicht zu viele unterschiedliche Rechteinhaberïnnen, Kulturschaffende und Verwertungsgesellschaften.
  • Kleinere Anbieter sind damit erst recht überfordert. Wenn die Plattformen nicht für Urheberrechtsverstöße haftbar gemacht werden wollen, müssen sie die Inhalte bereits im Moment des Uploads prüfen – und das geht nur mit automatisierten Filtern.
  • Diese Software ist fehleranfällig, bestehende Implementierungen sperren immer wieder zu Unrecht. Ein gigantisches Echtzeit-Filtersystem führt fast zwangsläufig zu ungerechtfertigten Blockaden und damit zu einem Eingriff in die Meinungs- und Informationsfreiheit.
  • Das ist nicht nur europarechtswidrig, sondern schadet vor allem kleineren Plattformen, die sich die teuren Filter oft nicht leisten können. Die Reform, die eigentlich die Macht von Facebook und Google begrenzen sollte, könnte die Dominanz der großen Konzernen also weiter festigen.

Was sich im Vergleich zu früheren Fassungen geändert hat

  • Bereits im Januar und Juni veröffentlichte das BMJV zwei Diskussionsentwürfe. Der aktuelle Referentenentwurf ist an entscheidenden Stellen verändert und verschärft.
  • Unter anderem fehlt eine Regelung zum sogenannten Pre-Flagging: Ursprünglich sollten Nutzerïnnen Inhalte während des Uploads als legal kennzeichnen können, um irrtümliche Sperrungen zu verhindern. Diese Möglichkeit wurde nun stark eingeschränkt.
  • Statt alle Inhalte zu flaggen, können Nutzerïnnen das nun nur noch tun, wenn bereits ein Sperrvermerkt vorliegt. Das Problem: Falls nach dem Upload ein Copyright-Claim eingereicht wird, schlagen die Filter an und sperren automatisch.
  • Die neue Formulierung entspricht einem Vorschlag, den Google im Sommer einbrachte. "Da drängt sich durchaus ein gewisser Verdacht auf, dass in dieser Frage erfolgreich lobbyiert wurde", sagt die grüne Netzpolitikerin Tabea Rößner.
  • Auch Julia Reda, die 2019 als EU-Abgeordnete zu den profiliertesten Gegnerinnen der Reform zählte und mittlerweile für die Gesellschaft für Freiheitsrechte arbeitet, kritisiert den Entwurf. "Was das Justizministerium als Verbesserung darstellt, wird tatsächlich zur massenhaften Sperrung legaler Inhalte führen."
  • Eine Sprecherin des Justizministeriums sagt, dass man die Befürchtungen "zur Kenntnis genommen habe". Man wolle die Bedenken prüfen, dass sich die Änderungen nachteilig für Nutzerïnnen auswirken könnten.

Wie das Leistungsschutzrecht umgesetzt werden soll

  • Neben den Upload-Filtern bildet das Leistungsschutzrecht für Presserverleger den zweiten großen Streitpunkt. Das neue Gesetz soll Verlage an den Einnahmen von Suchmaschinenbetreibern beteiligen, wenn diese Presseveröffentlichungen zugänglich machen.
  • Auch hier hat sich im Vergleich zu den vorherigen Entwürfen eine wichtige Formulierung verändert. Bislang galt eine Ausnahme für bis zu acht Wörter. Jetzt sind "einzelne Wörter oder sehr kurze Auszüge" erlaubt.
  • Diese vage Formulierung entspricht wörtlich der EU-Fassung und dürfte noch Gerichte beschäftigen.
  • Die Änderung kam auf Druck von Wirtschaftsministerium und Kanzleramt zustande, die beide gut mit der Lobby der Verleger vernetzt sind.
  • Grundsätzlich kann man sagen, dass die Umsetzung der Reform die Koalition spaltet: Es ringen das SPD-geführte BMJV und das CDU-geführte BMWi miteinander. Letzteres vertritt eher die Interessen der Verlage, Musik- und Filmindustrie.

Be smart

Der neue Referentenentwurf enthält einige fragwürdige Formulierungen, die hinter den früheren Fassungen zurückbleiben. Im Prinzip war aber seit der Verabschiedung der EU-Urheberrechtsrichtlinie klar, dass Deutschland die Reform kaum ohne Upload-Filter umsetzen kann. Es geht also nur noch um Schadensbegrenzung.

Und selbst wenn die Filter kommen, ist noch nicht klar, ob ihre Auswirkungen so katastrophal ausfallen, wie teils befürchtet wurde. Auch NetzDG und DGSGVO lösten teils schrille Warnungen und Proteste aus, das Netz ist trotzdem noch weitgehend intakt.

Außerdem bringt die Urheberrechtsreform viele dringend notwendige Modernisierungen und Erleichterungen mit sich, die ein völlig veraltetes Recht ans digitale Zeitalter und die Nutzungsrealität sozialer Plattformen anpassen. Auch wenn es oft so wirkt, weil sich Aktivistïnnen verständlicherweise auf die wenigen, berechtigten Kritikpunkte konzentrieren und möglichst laut warnen: Es ist nicht alles schlecht.


Kampf gegen Desinformationen

  • Untersuchung zur Popularität von Desinformationen: Derzeit geistert eine Studie durch die (sozialen) Medien, in der behauptet wird, Artikel mit Desinformationen wären 2020 ein noch größeres Problem als 2016. Grundlage der Untersuchung sind Daten, die mit Hilfe des Analyse-Werkzeugs Crowdtangle erzielt wurden. Wir sind skeptisch, ob die Studien-Ergebnisse des German Marshall Fund einer wissenschaftlichen Prüfung wirklich standhielten. Bereits in Briefing 670 hatten wir auf die Limitationen von Crowdtangle hingewiesen. Das Hauptproblem:

Das von Facebook aufgekaufte Tool ermöglicht es, Likes, Kommentare und Shares zu messen, um so herauszufinden, welche Artikel mit Blick auf diese Metriken am besten performen. Was das Tool allerdings nicht leistet, wird dabei häufig ausgeblendet. Weder zeigt Crowdtangle, welche Artikel tatsächlich am meisten Impressions erzielt haben oder wie oft ein Artikel bei Nutzerïnnen im Feed auftaucht. Auch zeigt Crowdtangle keine privaten Posts oder Beiträge in Gruppen. Genau hier spielt aber die Musik.

Zudem gibt es Studien, die die Verantwortung für die Verbreitung von Falschinformationen vor allem bei Donald Trump (New York Times) und Fox News (SSRN) sehen (siehe Briefing #674).

Weitere News im Überblick


Social Media & Journalismus

  • The Athletic: Das Subscriber-only Portal The Athletic wagt derzeit ein spannendes Experiment: in einem In-App-Social-Media-Angebot vermengt The Athletic fortan Breaking News und Posts von Mitarbeiterïnnen. Auf diese Posts können Nutzerïnnen dann ihrerseits direkt wieder Bezug nehmen. Das sogenannte Real-Time-Tab würde an eine Art internes Twitter erinnern, erklärt Ben Whitelaw, über den wir auf das Feature aufmerksam geworden sind.

Follow the money


Studien, Paper, Zahlen


Schon einmal im Briefing davon gehört

  • Zoom kann jetzt auch Apps und Events: Zoom ist in der Pandemie – Datenschutzfragen hin und her – für Millionen Menschen zum absoluten Standard-Tool gereift. Mit diesem Rückenwind schreitet Zoom weiter voran und lanciert Zapps und On Zoom. Mit Zapps lassen sich beliebte Apps wie Asana, Mural oder Slack mit Zoom verbinden. On Zoom ist der Versuch, Kapital aus dem Trend zu Zoom-Webinaren und -Events zu schlagen.

Neue Features bei den Plattformen

Instagram

  • Neue Reels-Features: Wir sind immer noch einen direkten Vergleich von Reels, TikTok und Triller schuldig. Das wird demnächst nachgeholt. Heute nur der Hinweis, dass Instagram stetig neue Funktionen lanciert, um der Kritik an Reels zu begegnen – etwa eine neue „song discovery page featuring "trending" tracks, the ability to share audio pages with friends in direct messages, and an option for users to bookmark songs for later use“ (was sich alles extrem nach TikTok anfühlt…).

Messenger

  • Rollout neuer Features: Wie in Ausgabe 672 dargestellt, arbeitet Facebook daran, die hauseigenen Massenging-Apps miteinander zu verschränken. Nach zahlreichen Neuerungen bei Instagram kündigt Facebook das Rollout neuer Funktionen bei Messenger an – etwa „chat themes, custom reactions, selfie sticker & vanish mode“.

Snapchat

  • Sound on: Auch Snapchat gibt seinen Nutzerïnnen die Möglichkeit, Stories mit Musik zu unterlegen: Sound on (Techcrunch) nennt Snapchat das Feature.

Tipps, Tricks und Apps


Header-Foto von lucia bei Unsplash


Scroll to Top

Briefing testen

Salut! Über 3500 Kollegïnnen haben unseren kostenpflichtigen Newsletter bereits abonniert. Wenn Du magst, schicken wir dir gern die nächsten zwei Ausgaben zur Probe – kostenfrei und unverbindlich.