Radikalisierungsmaschine YouTube? Cambridge Analytica 2.0? Lehren aus der Umweltsau-Empörung

Weiterempfehlen

Share on whatsapp
Share on facebook
Share on linkedin
Share on twitter
Share on email

Salut und herzlich Willkommen zur 603. Ausgabe des Social-Media-Watchblog-Briefings. In unserer ersten Ausgabe nach der Winterpause beschäftigen wir uns heute u.a. mit der Frage, ob YouTube wirklich zur Radikalisierung beiträgt, bzw. wie es eigentlich um die Aussagekraft einzelner Studien zur Wechselwirkung von Social Media und Gesellschaft bestellt ist. Ferner ordnen wir noch einmal kurz die Aufregung um den WDR ein – Hashtag: Umweltsau. Zudem gibt es Neuigkeiten von Cambridge Analytica, die wir ehrlicherweise allerdings selbst noch nicht ganz einordnen können. Wir wünschen eine gewinnbringende Lektüre und einen angenehmen Dienstag! Dein Social-Media-Watchblog-Team ✌🏻

Radikalisierungsmaschine YouTube – ja, nein, vielleicht?

Was ist: Ende vergangenen Jahres machte ein (mehr oder weniger) wissenschaftliches Paper die Runde, das angeblich zeigt, dass YouTube gar keine radikalisierende Wirkung hat (arXiv). Die beiden Autorïnnen Mark Ledwich und Anna Zaitsev behaupten gar, dass YouTubes Algorithmen Nutzerïnnen aktiv davon abhielten, extremistische oder radikalisierende Inhalte zu betrachten.

Warum das wichtig ist: Seit Jahren schreiben Medien über die angebliche Radikalisierungsmaschine Youtube. Am bekanntesten dürfte der Kommentar der Soziologin Zeynep Tufekci sein, die das Thema 2018 mit „YouTube, the Great Radicalizer“ aufbrachte (NYT). Meinem Kollegen Jannis Brühl hat sie ihre These auch in einem deutschsprachige Interview erklärt (SZ).

Im vergangenen August legte Kevin Roose mit einem Longread nach: In „The Making of a YouTube Radical“ (NYT) zeichnet er den jahrelangen Radikalisierungsprozess des 26-jährigen Caleb Cain nach, der selbst sagt: „I fell down the alt-right rabbit hole.“ Das Portrait lässt wenig Zweifel, dass YouTube eine zentrale Rolle bei Calebs Rechtsdrift spielte.

Haben Journalistïnnen also unbegründet Panik geschürt? Tun wir YouTube unrecht, wenn wir die Plattform als wirkmächtige Propagandaschleuder rechtsextremer Verschwörungstheoretikerïnnen bezeichnen?

Um es kurz zu machen: nein.

Warum das Paper wenig Aussagekraft hat: Am 28. Dezember setzte Co-Autor Ledwich seinen Tweetstorm ab (Twitter) und übte heftige Medienkritik: „Algorithmic Radicalization — The Making of a New York Times Myth“ (Medium).

___STEADY_PAYWALL___

Das vermeintliche Debunking wurde zumindest in meiner Timeline fleißig geteilt – doch es dauerte nur einen Tag, bis sich seriöse Wissenschaftlerïnnen die öffentlich verfügbaren Daten angeschaut hatten, die der Analyse zugrundeliegen (Github). Am drastischsten fiel die Entgegnung von Arvind Narayanan aus. Der Informatik-Professor aus Princeton nahm das Paper komplett auseinander (Twitter).

Der wichtigste Kritikpunkt: Die beiden Forscherïnnen wollten eine nicht vorhandene Radikalisierung nachweisen, ohne einen einzigen Account anzulegen, dem YouTubes Algorithmen personalisierte Empfehlungen hätten vorsetzen können.

They reached their sweeping conclusions by analyzing YouTube without logging in, based on sidebar recommendations for a sample of channels (not even the user’s home page because, again, there’s no user). Whatever they measured, it’s not radicalization.

Was man aus dem Paper lernen kann: Aus wissenschaftlicher Sicht mag die Analyse fragwürdig bis nutzlos sein – dennoch finde ich sie wertvoll. Denn der kurze Hype, der meine Tech-Bubble kurzzeitig in Aufregung versetzte, ist für alle Beteiligten lehrreich:

  • Nur weil Wissenschaft draufsteht, muss keine Wissenschaft drin sein: Nicht jedes „Paper“, das auf Twitter auftaucht, ist eine ernstzunehmende Arbeit.
  • Wie immer helfen Quellenkritik und Medienkompetenz, um die Seriosität zu beurteilen, ohne sich alle Daten selbst anzuschauen: Fachmagazine setzen meist Peer-Review-Verfahren voraus, bevor sie veröffentlichen. Die hochgeladenen Paper auf Seiten wie arXiv werden zwar auch begutachtet, der Prozess gleicht aber eher einem Spamfilter, als einer kritischen Inhaltsprüfung (Twitter).
  • Mal angenommen, ein selbsternannter Wissenschaftler behauptet, er hätte zweifelsfrei bewiesen, dass Menschen nicht zur globalen Erhitzung beitragen – würden wir ihm glauben? – Irritierenderweise scheint die Bereitschaft zur kritischen Analyse technischen Phänomenen deutlich geringer zu sein.
  • Das Netz hat nicht nur alle Menschen zu Publizistïnnen gemacht – es ermöglicht auch, dass jedeR ein Paper veröffentlichen und Wissenschaft draufschreiben kann. Je mehr angebliche Studien es gibt, desto größer sollte unser Misstrauen werden.

Be smart: Und was ist jetzt mit YouTube? Radikalisiert die Plattform nun oder nicht? Zweifelsfrei kann das derzeit niemand beantworten – höchstens YouTube selbst, das seinen Datenschatz aber nicht mit Forscherïnnen teilt. Darauf weisen Roose und Tufekci auf Twitter hin.

Meine persönliche Einschätzung:

  • Wir haben bei der SZ monatelang an einer datengestützte Analyse der YouTube-Algorithmen gearbeitet. Am Ende waren die Aussagen nicht eindeutig genug, um sie guten Gewissens zu veröffentlichen. Seitdem bin ich bei dem Thema vorsichtig.
  • YouTube hat seine Empfehlungsalgorithmen in den vergangenen Jahren mehrfach geändert, um Desinformation, extremistische und potenziell radikalisierende Inhalte herabzustufen (YouTube-Blog). Ich sehe es wie Roose (Twitter): Wenn es kein Problem gegeben hätte, hätte YouTube nicht eingegriffen – offenbar besagten auch YouTubes interne Daten, dass die Plattform üble Auswirkungen auf Nutzerïnnen haben kann.
  • Trotzdem wäre es – wie immer – Unsinn, YouTube allein dafür verantwortlich zu machen, dass Menschen sich radikalisieren. Digitale Plattformen beschleunigen diese Prozesse höchstens, weil sie den Zugang zu extremistischen und verschwörungstheoretischen Inhalten erleichtern.

Weiterlesen:

  • Bereits im Oktober kamen zwei US-Forscher zu dem Schluss, dass YouTubes Algorithmen bei Radikalsierungsprozessen höchstens eine untergeordnete Rolle spielen: „Maybe It’s Not YouTube’s Algorithm That Radicalizes People“ (Wired)
  • Can Duruk, der zusammen mit Ranjan Roy den empfehlenswerten Newsletter Margins schreibt, wünscht sich angesichts des Hypes um das fragwürdige Paper mehr Wissenschaftskompetenz: „Do you even science, bro?“ (Substack / The Margins)

Autor: Simon Hurtz

Zwei (hoffentlich) letzte Worte zur „Umweltsau“-Empörung

Was ist: Wir sind ein Watchblog für soziale Medien. Deshalb überlassen wir es Übermedien, Deutschlands bestem Medien-Watchblog, den Streit um das „Umweltsau“-Lied einzuordnen. Bei Stefan Niggemeier und Samira El Ouassil ist das Thema in guten Händen.

Dennoch gibt es zwei Randaspekte der Debatte, die wir hier noch einmal aufgreifen wollen:

1. Vorsicht mit Twitter-Auswertungen

Gestützt auf Daten von Luca Hammer schreiben Eva Horn und Sonja Peteranderl: „Die Aufregung über das WDR-‚Umweltsau‘-Lied offenbart, wie sich Entrüstung anheizen lässt. Eine Datenauswertung zeigt: Rechte und Rechtsextreme haben schnell und erfolgreich mobilisiert.“ (Spiegel) Eine ähnliche Analyse liegt dem WDR-Beitrag „Wie ein Shitstorm im Netz entsteht“ zugrunde.

Der Blogger Stefanolix – der sich selbst als liberal bezeichnet, dem ich in vielen politischen Fragen deutlich widerspreche, dessen Argumentation ich aber meist mit Gewinn lese – hat sich beide Auswertungen vorgenommen und stellt ihre Aussagekraft in Frage (Spiegel, WDR).

Ich halte seine Kritik in Teilen für gerechtfertigt, will die aktuellen Fälle aber nicht zu hoch hängen. (Unter dem Spiegel-Artikel steht auch ein kleiner Korrekturhinweis.) Wichtiger finde ich, allgemein vorsichtig mit solchen Analysen umzugehen.

In den vergangenen Monaten hatte ich mehrfach Datenauswertungen in meiner Timeline, die den Einfluss von Bots auf die Urheberrechtsdebatte nachweisen sollten (Übermedien) oder angeblich rechtsradikale oder antifeministische Netzwerke nachweisen (Übermedien), die koordiniert handeln. Das mag in vielen Fällen stimmen (Piqd) – aber oft gaben zumindest die öffentlichen Daten diesen Rückschluss nicht her.​

Nur, weil ein Account auch rechtsradikale Follower hat, steckt dahinter nicht automatisch ein Nazi. Nur, weil viele Accounts aus einem bestimmten politischen Spektrum bestimmte Hashtags befeuern, handelt es sich nicht automatisch um eine konzertierte Aktion. Wir machen den Bestätigungsfehler (Wikipedia) gern dafür verantwortlich, dass Rassistïnnen Falschnachrichten über Geflüchtete verbreiten – manchmal wäre es gut, nicht jeder Analyse zu glauben, die die eigene Meinung bestätigt.

2. Medien haben Verantwortung

Die entscheidenden Sätze des Spiegel-Texts finden sich im letzten Drittel und haben fast gar nichts mit der Datenauswertung zu tun:

„Es gebe „ein rechtes Ökosystem“, das die erfolgreichsten Memes oder auch die empörungswilligsten Narrative sehr schnell über verschiedene Plattformen hinweg transportiere, über YouTube oder Twitter, aber auch Messenger wie Telegram. (…) Medien, die die Empörung aufgreifen, sorgen für weitere Empörungsschleifen, auf die wiederum Politiker aufspringen – wovon erneut die Rechten profitieren.“

Journalistïnnen tragen maßgeblich dazu bei, Themen, die in sozialen Netzwerken herumgeistern, groß zu machen. Medien mögen keine alleinige Gatekeeper-Rolle mehr besitzen, aber sie haben immer noch eine wichtige Funktion als Multiplikatoren. Was auf Twitter trendet, interessiert meinen Vater nicht – was in der SZ steht, sehr wohl.

In einem Tweetstorm erklärt Martin Hoffmann, wie die Wellen der Wut von dubiosen Twitter-Accounts über rechte Influencerïnnen den Weg in große Medien schwappen (Twitter). Zurecht bezeichnet er es als „Medienversagen“, wenn vermeintliche neutrale Artikel mit Überschriften wie „Schitstorm für …“ oder „Empörung über …“ die rechtsradikalen Narrative verbreiten.

Weiterlesen:

Autor: Simon Hurtz

Social Media & Politik

Cambridge Analytcia 2.0? Seit Anfang des Jahres veröffentlicht der Twitter-Account @HindsightFiles neue Dokumente über Cambridge Analytica. Carole Cadwalladr, die den ersten Skandal ins Rollen brachte, schreibt, dass in den kommenden sechs Monaten mehr als 100.000 Dokumente aus 68 Ländern folgen würden, die das „industrielle Ausmaß“ der Manipulation von Wählerïnnen zeigten (Guardian).

Whistleblowerin Brittany Kaiser, die früher selbst für Cambridge Analytica arbeitete, sagt, der Facebook-Skandal 2018 sei nur die Spitze des Eisbergs gewesen. Tatsächlich habe das Unternehmen mit Regierungen, Geheimdiensten und politischen Bewegungen auf der ganzen Welt zusammengearbeitet, um Menschen zu beeinflussen.

Wir haben die bislang verfügbaren Daten heruntergeladen, konnten sie aber nur oberflächlich betrachten – eine umfassende Analyse braucht schlicht mehr Zeit. Da die Aufregung über die angebliche Manipulation der US-Wahl 2016 deutlich größer war, als es der Anlass rechtfertigte, raten wir erstmal zur Vorsicht: Cambridge Analytica ist nur eines von vielen vergleichbaren Datenunternehmen, und noch immer fehlen seriöse Belege, dass sich Wählerïnnen wirklich so leicht manipulieren lassen, wie Datengurus und manche Medienberichte nahelegen.

👀 Fresh Cambridge Analytica leak ‘shows global manipulation is out of control’ (Guardian)

 

Wie Rechtsextreme YouTube nutzen: Patrick Stegemann hat zwei Jahre lang im rechtsextremen Social-Media-Milieu recherchiert. Im Interview mit jetzt.de skizziert er, wie Rechtsextreme Youtube als nutzen und was Gesellschaft, Medien und Politik dagegen tun kann:

„Wir müssen lernen: Wie gehen wir mit dieser Art der Kommunikation um? Denn die Rechten denken die Reaktion der Medien immer mit. Außerdem müssen wir mit eigenen Formaten rein in diese digitale Welt. Vor allem die öffentlich-rechtlichen Kanäle haben die Kohle und den Auftrag dazu. Und wir müssen schauen, wie unsere Zivilgesellschaft digital funktionieren kann. Wie funktioniert ein CDU-Ortsverein, wie funktioniert die Antifa im digitalen Raum? All das, was Zivilgesellschaft ist, wie funktioniert das in einer wehrhaften, digitalen Demokratie?“

👀 Wie Rechtsextreme Youtube als Radikalisierungsplattform nutzen (jetzt)

Kampf gegen Desinformationen

Mehr Fact-Checking: Um grundsätzlich der Masse an Falschinformationen besser Herr zu werden, binden Facebook und Instagram fortan „community reviewer“ mit ein. Die Aufgabe der Gutachter besteht darin, von einem automatisierten System als Falschmeldung deklarierte Inhalte zu prüfen und ggf. an Fact-Checking-Partner mit ersten Rechercheerkenntnissen weiterzuleiten. Dies soll die Arbeit der Fact-Checker entlasten und den Prozess beschleunigen. Die „community reviewer“ werden dafür von den Fact-Check-Partnern bezahlt. Um möglichst alle FB- / Insta-NutzerÏnnen repräsentieren zu können, hat Facebook gemeinsam mit YouGov NutzerInnen ausgewählt.

⚠️ Helping Fact-Checkers Identify False Claims Faster (FB Newsroom)

 

Facebook und der 2020 US Census: Um Falschinformationen rund um die Volkszählung in den USA am 1.4.2020 vorzubeugen, hat Facebook eine neue Richtlinie erlassen. Die sogenannten „census interference policy“ erinnert an die Regeln, die bei politischer Werbung auf Facebook gelten. Folgende Inhalte sind fortan verboten:

  • Falsche Angabe der Daten, Orte, Zeiten und Methoden für die Teilnahme an der Volkszählung
  • Falsche Angaben darüber, wer an der Volkszählung teilnehmen kann und welche Informationen und/oder Materialien für die Teilnahme bereitgestellt werden müssen
  • Inhalt, der besagt, dass die Teilnahme an der Volkszählung zu strafrechtlichen Konsequenzen führen kann oder wird
  • Falsche Darstellung der Beteiligung der Regierung an der Volkszählung, einschließlich der Tatsache, dass die Volkszählungsdaten einer Person an eine andere Regierungsbehörde weitergegeben werden
  • Aufrufe für ein koordiniertes Eingreifen, das die Fähigkeit einer Person zur Teilnahme an der Volkszählung beeinträchtigen würde.

🇺🇸 Helping to Protect the 2020 US Census (Facebook Newsroom)

Neues von TikTok

Transparenz-Bericht: TikTok hat einen ersten Transparenzbericht hinsichtlich Behördenanfragen zu Inhalten und Kontoinformationen veröffentlicht. Dem Bericht zufolge gab es im ersten Halbjahr 2019 lediglich zwölf Anfragen nach Nutzerinformationen aus Deutschland. Indien steht mit 107 Anfragen auf Platz Eins der Liste , die USA folgt auf Platz 2 mit 79 Anfragen. Extrem niedrige Werte. Auch die Zahlen zu den Anträgen auf Entfernung von Inhalten sind erstaunlich niedrig: lediglich 28 Anfragen habe TikTok weltweit erhalten. Aus China gab es dem Bericht zufolge nicht eine Anfrage. TikTok Transparency Report (TikTok Newsroom)

Face-Swap-Feature: Laut Techcrunch arbeitet ByteDance (TikToks Mutterkonzern) an einem Face-Swap-Feature, das sowohl bei TikTok als auch bei Douyin (TikToks chinesische Schwesterapp) implementiert werden könnte. Um Missbrauch vorzubeugen (read: Deep Fakes) können NutzerInnen lediglich ihr eigenes Selfie nutzen, um es in von ByteDance zur Verfügung gestellten Video-Sequenzen auf andere Personen zu montieren. ByteDance & TikTok have secretly built a deepfakes maker (Techcrunch)

Neue Geschenke-Policy: Im Sommer 2019 berichtete die BBC über zweifelhafte Methoden, mit denen Fans bei TikTok ihre Stars “belohnen” können. Das Feature, bei dem ein Fan für echtes Geld seinem Star ein virtuelles Geschenk macht und der Beschenkte dann von TikTok einen Cut der Transaktion abbekommt, ist fortan nur noch NutzerÏnnen ab 18 Jahren erlaubt. TikTok changes virtual gifts policy after BBC probe (BBC)

US-Armee verbietet TikTok: Die US-Armee hat ihren Soldaten verboten, TikTok auf Regierungstelefonen zu benutzen. Der Grund: die App wird als Cyber-Bedrohung eingestuft. Das hält die Armee aber nicht davon ab, Werbung auf TikTok zu schalten (siehe Bloomberg). Army Follows Pentagon Guidance, Bans Chinese-Owned TikTok App (Military)

Social Media & Journalismus

Updates bei Instant Articles: Facebook besert bei Instant Articles nach. Erstens können Instant Articles nun auch direkt von Stories aus gelesen werden. Zweitens gibt es mehr Optionen, einen Call to Action zu setzen. Drittens können NutzerÏnnen per Rechts-Swipe weitere Artikel des gleichen Publishers finden. Alles schön und gut – aber nutzt überhaupt noch jemand Instant Articles? Wenn ja, wir freuen uns über Rückmeldungen!

📱 Facebook Introduces Enhancements to Instant Articles for Publishers (Facebook For Media)

Follow the money

Facebook bastelt an einem QVC für Marketplace: Um die Umsätze bei Facebook Marketplace zu steigern, arbeitet das Unternehmen derzeit an einem Teleshopping-Feature. So könnten NutzerÏnnen schon bald in den Genuss kommen (rofl), auf Facebook Live-Verkaufssendungen zu schauen und die darin empfohlenen Produkte direkt zu shoppen. In China ist diese Form des Social-Media-Shoppings bereits schwer in Mode. No pun intendet.

💰 Facebook Acquired a Startup to Build a Live Shopping Feature (Bloomberg)

Zahlen, Daten, Fakten

Social-Media-Nutzerzahlen: Alle Jahre wieder fasst Christian Buggisch die aktuellen Social-Media-Nutzerzahlen zusammen. Einige Highlights im Überblick:

  • Facebook hat weltweit 1,6 Milliarden täglich aktive Nutzer.
  • 288 Millionen täglich aktive Nutzer gibt es in Europa.
  • Zwar hat Facebook zuletzt keine offiziellen Nutzerzahlen für Deutschland ausgewiesen. Man darf aber von 32 Millionen monatlich aktiven und 23 Millionen täglich aktiven deutschen Facebook-NutzerÏnnen ausgehen.
  • Es gibt 58 Millionen täglich aktive deutsche WhatsApp-NutzerÏnnen
  • Für den Facebook Messenger werden 23 Millionen monatlich aktive NutzerÏnnen in Deutschland genannt
  • 9 Millionen täglich aktive Instagram-NutzerÏnnen in Deutschland.
  • 3,5 Millionen täglich aktive deutsche Snapchat-NutzerÏnnen
  • TikTok kommt in Deutschland wohl auf 5,5 Millionen monatlich aktive NutzerÏnnen

📌 Social Media, Messenger und Streaming – Nutzerzahlen in Deutschland 2020 (Buggisch)

Lese-Empfehlung

NiemanLab: Auch das NiemanLab pflegt eine hübsche Tradition und fragt zum Ende des Jahres dutzende Medienschaffende nach ihren Prognosen für das kommende Medienjahr. Da es einfach zu viele sind, können wir an dieser Stelle nur empfohlen, sich selbst einen Eindruck zu verschaffen.

🔮 Predictions for Journalism 2020 (NiemanLab)

Neue Features bei den Plattformen

Snapchat

  • Bitmoji TV: Auf Snapchat können NutzerÏnnen ihre Profilfotos in Avatare verwandeln. Mit diesen sogenannten Bitmojis lässt sich allerhand anstellen: sie können als Sticker genutzt werden oder finde als Avatare in Arcade-Games Verwendung. Jetzt möchte Snapchat Bitmojis für ein personalisiertes „Fernseh“-Erlebnis nutzen. An Februar startet Bitmoji TV mit deinem individuellen Bitmoji in der Hauptrolle – so jedenfalls die Idee. Wie das aussieht und ob es von den Usern angenommen wird, besprechen wir dann in vier Wochen. Snapchat will launch Bitmoji TV, a personalised Cartoon Show (Techcrunch)

Instagram

  • Mehr Fotos in einer Story: Um Vorher-Nachher-Stories oder Stories in einer Story posten zu können, dürfen NutzerÏnnen auf Instagram jetzt bis zu sechs Fotos in einem Story-Element posten. Strike a pose. And another pose. And then another. (Twitter / Instagram)

One more thing

Liebe KollegÏnnen, wir freuen uns riesig auf das neue Jahr und haben eine Menge vor! Das Wörtchen Wir können wir an dieser Stelle gleich doppelt und dreifach unterstreichen, denn Simon wird 2020 noch stäker als bisher beim Social Media Watchblog an Bord sein – sowohl redaktionell als auch strategisch. Und auch Tilman wird weiterhin redaktionell mitwirken – große Freude!

Zusammen wollen wir weiter an unserer Mission arbeiten, die wichtigsten News und Debatten rund um Social Media aufzugreifen und verständlich zu erklären – unabhängig und fokussiert. Unser erklärtes Ziel: eine aufgeklärtere und besser informierte Gesellschaft.

Wir freuen uns sehr, wenn Du auch 2020 Teil dieser Reise sein magst. Danke für das Vertrauen und einen guten Start ins neue Jahr,
Simon, Tilman & Martin

Header-Foto von Andre Benz bei Unsplash

Scroll to Top