Drei wichtige Studien zu YouTubes Algorithmus, Deplatforming und Misinformation-Labels
Was ist
In den vergangenen Wochen sind drei Studien erschienen, die ein Schlaglicht auf drei wichtige Themen werfen. Es geht um Fragen, die im Zusammenhang mit Social Media immer wieder auftauchen:
- Trägt der YouTube-Algorithmus zur Radikalisierung bei?
- Wie wirksam ist Deplatforming?
- Was bringen Labels gegen Desinformation?
Yes, but
Keine Studie kann abschließende Antworten geben. Egal, wie sorgfältig die Forscherïnnen vorgehen und egal, wie seriös die Methodik ist – einzelne Paper liefern immer nur Anhaltspunkte. Deshalb berichten wir in unserem Newsletter nur über ausgewählte Studien und bemühen uns, auf die Limitierungen hinzuweisen.
1. Trägt der YouTube-Algorithmus zur Radikalisierung bei?
Was: "Evaluating the scale, growth, and origins of right-wing echo chambers on YouTube"
Wer: Homa Hosseinmardi, Amir Ghasemian, Aaron Clauset, David M. Rothschild, Markus Mobius und Duncan J. Watts
In einem Satz: Zwischen 2016 und 2019 hat sich der Konsum rechtsradikaler Videos auf YouTube verdreifacht, aber es gibt keine Anhaltspunkte, dass der Algorithmus der Plattform maßgeblich dazu beigetragen hat.
Im Detail:
- Politische Nachrichten machen nur rund elf Prozent aller YouTube-Videos aus. Es dominieren große und mehr oder weniger seriöse Medien der politischen Mitte.
- Das deckt sich mit Zahlen, die Facebook kürzlich veröffentlichte: Demnach sind nur sechs Prozent aller Inhalte, die Nutzerïnnen sehen, politischer Natur (mehr dazu in Briefing #687).
- Doch selbst wenn Hard News im Vergleich zu Unterhaltung eine Nische sind, erreichen sie trotzdem Hunderte Millionen Menschen – und ihre Auswirkungen auf die politische und gesellschaftliche Meinungsbildung sind enorm.
- Innerhalb dieser Nische machten rechtsextreme Videos 2016 nur 0,5 Prozent aus. Ende 2019 waren es bereits 1,5 Prozent.
- Die Forscherïnnen untersuchten die Browser-Verläufe…