Was ist: Ende vergangenen Jahres machte ein (mehr oder weniger) wissenschaftliches Paper die Runde, das angeblich zeigt, dass YouTube gar keine radikalisierende Wirkung hat (arXiv). Die beiden Autorïnnen Mark Ledwich und Anna Zaitsev behaupten gar, dass YouTubes Algorithmen Nutzerïnnen aktiv davon abhielten, extremistische oder radikalisierende Inhalte zu betrachten.
Warum das wichtig ist: Seit Jahren schreiben Medien über die angebliche Radikalisierungsmaschine Youtube. Am bekanntesten dürfte der Kommentar der Soziologin Zeynep Tufekci sein, die das Thema 2018 mit „YouTube, the Great Radicalizer“ aufbrachte (NYT). Meinem Kollegen Jannis Brühl hat sie ihre These auch in einem deutschsprachige Interview erklärt (SZ).
Im vergangenen August legte Kevin Roose mit einem Longread nach: In „The Making of a YouTube Radical“ (NYT) zeichnet er den jahrelangen Radikalisierungsprozess des 26-jährigen Caleb Cain nach, der selbst sagt: „I fell down the alt-right rabbit hole.“ Das Portrait lässt wenig Zweifel, dass YouTube eine zentrale Rolle bei Calebs Rechtsdrift spielte.
Haben Journalistïnnen also unbegründet Panik geschürt? Tun wir YouTube unrecht, wenn wir die Plattform als wirkmächtige Propagandaschleuder rechtsextremer Verschwörungstheoretikerïnnen bezeichnen?
Um es kurz zu machen: nein.
Warum das Paper wenig Aussagekraft hat: Am 28. Dezember setzte Co-Autor Ledwich seinen Tweetstorm ab (Twitter) und übte heftige Medienkritik: „Algorithmic Radicalization — The Making of a New York Times Myth“ (Medium).
Das vermeintliche Debunking wurde zumindest in meiner Timeline fleißig geteilt – doch es dauerte nur einen Tag, bis sich seriöse Wissenschaftlerïnnen die öffentlich verfügbaren Daten angeschaut hatten, die der Analyse zugrundeliegen (Github). Am drastischsten fiel die Entgegnung von Arvind Narayanan aus. Der Informatik-Professor aus Princeton nahm das Paper komplett auseinander (Twitter).
Der wichtigste Kritikpunkt: Die beiden Forscherïnnen wollten eine nicht vorhandene Radikalisierung nachweisen, ohne einen einzigen Account anzulegen, dem YouTubes Algorithmen personalisierte Empfehlungen hätten vorsetzen können.
„They reached their sweeping conclusions by analyzing YouTube without logging in, based on sidebar recommendations for a sample of channels (not even the user’s home page because, again, there’s no user). Whatever they measured, it’s not radicalization.„
Was man aus dem Paper lernen kann: Aus wissenschaftlicher Sicht mag die Analyse fragwürdig bis nutzlos sein – dennoch finde ich sie wertvoll. Denn der kurze Hype, der meine Tech-Bubble kurzzeitig in Aufregung versetzte, ist für alle Beteiligten lehrreich:
- Nur weil Wissenschaft draufsteht, muss keine Wissenschaft drin sein: Nicht jedes „Paper“, das auf Twitter auftaucht, ist eine ernstzunehmende Arbeit.
- Wie immer helfen Quellenkritik und Medienkompetenz, um die Seriosität zu beurteilen, ohne sich alle Daten selbst anzuschauen: Fachmagazine setzen meist Peer-Review-Verfahren voraus, bevor sie veröffentlichen. Die hochgeladenen Paper auf Seiten wie arXiv werden zwar auch begutachtet, der Prozess gleicht aber eher einem Spamfilter, als einer kritischen Inhaltsprüfung (Twitter).
- Mal angenommen, ein selbsternannter Wissenschaftler behauptet, er hätte zweifelsfrei bewiesen, dass Menschen nicht zur globalen Erhitzung beitragen – würden wir ihm glauben? – Irritierenderweise scheint die Bereitschaft zur kritischen Analyse technischen Phänomenen deutlich geringer zu sein.
- Das Netz hat nicht nur alle Menschen zu Publizistïnnen gemacht – es ermöglicht auch, dass jedeR ein Paper veröffentlichen und Wissenschaft draufschreiben kann. Je mehr angebliche Studien es gibt, desto größer sollte unser Misstrauen werden.
Be smart: Und was ist jetzt mit YouTube? Radikalisiert die Plattform nun oder nicht? Zweifelsfrei kann das derzeit niemand beantworten – höchstens YouTube selbst, das seinen Datenschatz aber nicht mit Forscherïnnen teilt. Darauf weisen Roose und Tufekci auf Twitter hin.
Meine persönliche Einschätzung:
- Wir haben bei der SZ monatelang an einer datengestützte Analyse der YouTube-Algorithmen gearbeitet. Am Ende waren die Aussagen nicht eindeutig genug, um sie guten Gewissens zu veröffentlichen. Seitdem bin ich bei dem Thema vorsichtig.
- YouTube hat seine Empfehlungsalgorithmen in den vergangenen Jahren mehrfach geändert, um Desinformation, extremistische und potenziell radikalisierende Inhalte herabzustufen (YouTube-Blog). Ich sehe es wie Roose (Twitter): Wenn es kein Problem gegeben hätte, hätte YouTube nicht eingegriffen – offenbar besagten auch YouTubes interne Daten, dass die Plattform üble Auswirkungen auf Nutzerïnnen haben kann.
- Trotzdem wäre es – wie immer – Unsinn, YouTube allein dafür verantwortlich zu machen, dass Menschen sich radikalisieren. Digitale Plattformen beschleunigen diese Prozesse höchstens, weil sie den Zugang zu extremistischen und verschwörungstheoretischen Inhalten erleichtern.
Weiterlesen:
- Bereits im Oktober kamen zwei US-Forscher zu dem Schluss, dass YouTubes Algorithmen bei Radikalsierungsprozessen höchstens eine untergeordnete Rolle spielen: „Maybe It’s Not YouTube’s Algorithm That Radicalizes People“ (Wired)
- Can Duruk, der zusammen mit Ranjan Roy den empfehlenswerten Newsletter Margins schreibt, wünscht sich angesichts des Hypes um das fragwürdige Paper mehr Wissenschaftskompetenz: „Do you even science, bro?“ (Substack / The Margins)
Autor: Simon Hurtz
[line]
[gap size=“40px“]
Auch Subscriber werden!
Dieser Beitrag ist Teil unseres Social-Media-Briefings Ausgabe #604. Wenn du künftig auch zweimal die Woche die wichtigsten News und Debatten rund um Social Media per Newsletter erhalten möchtest, dann kannst du unser Briefing über unsere Steady-Seite abonnieren.
Mitglieder-Diskussion