Radikalisierungsmaschine YouTube? Cambridge Analytica 2.0? Lehren aus der Umweltsau-Empörung

Salut und herzlich Willkommen zur 603. Ausgabe des Social-Media-Watchblog-Briefings. In unserer ersten Ausgabe nach der Winterpause beschäftigen wir uns heute u.a. mit der Frage, ob YouTube wirklich zur Radikalisierung beiträgt, bzw. wie es eigentlich um die Aussagekraft einzelner Studien zur Wechselwirkung von Social Media und Gesellschaft bestellt ist. Ferner ordnen wir noch einmal kurz die Aufregung um den WDR ein – Hashtag: Umweltsau. Zudem gibt es Neuigkeiten von Cambridge Analytica, die wir ehrlicherweise allerdings selbst noch nicht ganz einordnen können. Wir wünschen eine gewinnbringende Lektüre und einen angenehmen Dienstag! Dein Social-Media-Watchblog-Team ✌🏻

Radikalisierungsmaschine YouTube – ja, nein, vielleicht?

Was ist: Ende vergangenen Jahres machte ein (mehr oder weniger) wissenschaftliches Paper die Runde, das angeblich zeigt, dass YouTube gar keine radikalisierende Wirkung hat (arXiv). Die beiden Autorïnnen Mark Ledwich und Anna Zaitsev behaupten gar, dass YouTubes Algorithmen Nutzerïnnen aktiv davon abhielten, extremistische oder radikalisierende Inhalte zu betrachten.

Warum das wichtig ist: Seit Jahren schreiben Medien über die angebliche Radikalisierungsmaschine Youtube. Am bekanntesten dürfte der Kommentar der Soziologin Zeynep Tufekci sein, die das Thema 2018 mit „YouTube, the Great Radicalizer“ aufbrachte (NYT). Meinem Kollegen Jannis Brühl hat sie ihre These auch in einem deutschsprachige Interview erklärt (SZ).

Im vergangenen August legte Kevin Roose mit einem Longread nach: In „The Making of a YouTube Radical“ (NYT) zeichnet er den jahrelangen Radikalisierungsprozess des 26-jährigen Caleb Cain nach, der selbst sagt: „I fell down the alt-right rabbit hole.“ Das Portrait lässt wenig Zweifel, dass YouTube eine zentrale Rolle bei Calebs Rechtsdrift spielte.

Haben Journalistïnnen also unbegründet Panik geschürt? Tun wir YouTube unrecht, wenn wir die Plattform als wirkmächtige Propagandaschleuder rechtsextremer Verschwörungstheoretikerïnnen bezeichnen?

Um es kurz zu machen: nein.

Warum das Paper wenig Aussagekraft hat: Am 28. Dezember setzte Co-Autor Ledwich seinen Tweetstorm ab (Twitter) und übte heftige Medienkritik: „Algorithmic Radicalization — The Making of a New York Times Myth“ (Medium).

Das vermeintliche Debunking wurde zumindest in meiner Timeline fleißig geteilt – doch es dauerte nur einen Tag, bis sich seriöse Wissenschaftlerïnnen die öffentlich verfügbaren Daten angeschaut hatten, die der Analyse zugrundeliegen (Github). Am drastischsten fiel die Entgegnung von Arvind Narayanan aus. Der Informatik-Professor aus Princeton nahm das Paper komplett auseinander (Twitter).

Der wichtigste Kritikpunkt: Die beiden Forscherïnnen wollten eine nicht vorhandene Radikalisierung nachweisen, ohne einen einzigen Account anzulegen, dem YouTubes Algorithmen personalisierte Empfehlungen hätten vorsetzen können.

They reached their sweeping conclusions by analyzing YouTube without logging in, based on sidebar recommendations for a sample of channels (not even the user’s home page because, again, there…

Scroll to Top