16.12.2020 | Studien zur Radikalisierung bei YouTube, Deplatforming, Misinformation-Labels, Instagram empfiehlt Finstas

Salut und herzlich willkommen zur 690. Ausgabe des Social Media Briefings. Heute beschäftigen wir uns mit drei Studien zu YouTubes Algorithmus, Deplatforming und Misinformation-Labels. Konkret geht es um die Fragen, ob der YouTube-Algorithmus zur Radikalisierung beiträgt, wie wirksam Deplatforming ist und was Labels gegen Desinformation bringen. In der kommenden Ausgabe beschäftigen wir uns dann ausführlich mit dem Digital Service Act der EU-Kommission. Wir empfehlen bis dahin die Berichterstattung der Kollegïnnen Fanta, Rudl und Köver bei netzpolitik. Wir bedanken uns für das Interesse an unserem Newsletter und senden herzliche Grüße, Simon und Martin

Weiterempfehlen

Share on whatsapp
Share on facebook
Share on linkedin
Share on twitter
Share on email

Drei wichtige Studien zu YouTubes Algorithmus, Deplatforming und Misinformation-Labels

Was ist

In den vergangenen Wochen sind drei Studien erschienen, die ein Schlaglicht auf drei wichtige Themen werfen. Es geht um Fragen, die im Zusammenhang mit Social Media immer wieder auftauchen:

  1. Trägt der YouTube-Algorithmus zur Radikalisierung bei?
  2. Wie wirksam ist Deplatforming?
  3. Was bringen Labels gegen Desinformation?

Yes, but

Keine Studie kann abschließende Antworten geben. Egal, wie sorgfältig die Forscherïnnen vorgehen und egal, wie seriös die Methodik ist – einzelne Paper liefern immer nur Anhaltspunkte. Deshalb berichten wir in unserem Newsletter nur über ausgewählte Studien und bemühen uns, auf die Limitierungen hinzuweisen.

1. Trägt der YouTube-Algorithmus zur Radikalisierung bei?

Was: "Evaluating the scale, growth, and origins of right-wing echo chambers on YouTube"

Wer: Homa Hosseinmardi, Amir Ghasemian, Aaron Clauset, David M. Rothschild, Markus Mobius und Duncan J. Watts

Wo: Arxiv / PDF

In einem Satz: Zwischen 2016 und 2019 hat sich der Konsum rechtsradikaler Videos auf YouTube verdreifacht, aber es gibt keine Anhaltspunkte, dass der Algorithmus der Plattform maßgeblich dazu beigetragen hat.

Im Detail:

  • Politische Nachrichten machen nur rund elf Prozent aller YouTube-Videos aus. Es dominieren große und mehr oder weniger seriöse Medien der politischen Mitte.
  • Das deckt sich mit Zahlen, die Facebook kürzlich veröffentlichte: Demnach sind nur sechs Prozent aller Inhalte, die Nutzerïnnen sehen, politischer Natur (mehr dazu in Briefing #687).
  • Doch selbst wenn Hard News im Vergleich zu Unterhaltung eine Nische sind, erreichen sie trotzdem Hunderte Millionen Menschen – und ihre Auswirkungen auf die politische und gesellschaftliche Meinungsbildung sind enorm.
  • Innerhalb dieser Nische machten rechtsextreme Videos 2016 nur 0,5 Prozent aus. Ende 2019 waren es bereits 1,5 Prozent.
  • Die Forscherïnnen untersuchten die Browser-Verläufe von mehr als 300.000 Menschen und fanden keine Belege, dass massenhaft Nutzerïnnen durch den Algorithmus in das "Rabbit Hole" hineingezogen werden, wie es in den vergangenen Jahren so oft zu lesen war.
  • Acht von zehn YouTube-Sessions bestehen nur aus einem einzigen Video. In diesem Fall spielen die Empfehlungen also ohnehin keine Rolle.
  • Wenn Nutzerïnnen mehr Videos ansahen, schlug der Algorithmus tendenziell sogar weniger News-Inhalte vor. Längere Sessions sind meist anderen Inhalten zuzuordnen.
  • Die Zugriffe auf rechtsradikale Videos verteilen sich folgendermaßen: jeweils rund zehn Prozent über Suche und YouTube-Homepage, jeweils rund 40 Prozent über andere Videos oder externe Quellen.
  • Für extremistische Inhalte (sowohl rechts als auch links) spielen Zugriffe über Drittseiten eine größere Rolle als für gemäßigte Videos.
  • Konkret nennen die Forscherïnnen Breitbart, Infowars und Fox News als Einstiegsorte für YouTube-Sessions mit rechtsradikalen Inhalten.
  • YouTube fungiert also weniger als Radikalisierungsmaschine, sondern eher als Hosting-Plattform, auf deren Inhalte andere Seiten verweisen.
  • Das deckt sich mit einer Harvard-Studie (Misinformation Review), die Anfang des Jahres zeigte, wie russische Akteure Desinformation auf YouTube hochladen und über Twitter verbreiten. Auch das virale Plandemic-Video (The Verge) und andere Corona-Lügen wurden zwar auf YouTube gehostet, aber in erster Linie über andere Kanäle (Facebook, Telegram, Dark Social) beworben.

Dig deeper:

Anfang des Jahres beschäftigten wir uns ausführlich mit einem (wissenschaftlich fragwürdigen) Paper, das YouTube (zu Unrecht) von jedweder Verantwortung freisprach. Unter dem Titel "Radikalisierungsmaschine YouTube – ja, nein, vielleicht?" kamen wir zu dem Schluss:

Und was ist jetzt mit YouTube? Radikalisiert die Plattform nun oder nicht? Zweifelsfrei kann das derzeit niemand beantworten – höchstens YouTube selbst, das seinen Datenschatz aber nicht mit Forscherïnnen teilt.

Daran hat sich bis heute nichts geändert. Aber zumindest liefert die vorliegende Studie weitere Anhaltspunkte, dass YouTubes Algorithmen womöglich eine kleinere Rolle bei Radikalisierungsprozessen spielen als oftmals angenommen.

2. Wie wirksam ist Deplatforming?

Was: "Hate not found?! Das Deplatforming der extremen Rechten und seine Folgen"

Wer: Maik Fielitz, Jana Hitziger und Karolin Schwarz

Wo: Institut für Demokratie und Zivilgesellschaft Jena / PDF

In einem Satz: Wenn Plattformen große rechtsextreme oder verschwörungsideologische Kanäle und Accounts sperren, reduziert das effektiv Reichweite, Aufmerksamkeit, Vernetzung und Mobilisierungskraft.

Im Detail:

  • Die drei Autorïnnen beschäftigten sich mit sogenannten "Hassakteuren", die andere Personengruppen abwerten. Das schließt organisierte Offline-Akteure, digitale Kollektive, Alternativmedien und rechtsradikale Influencerïnnen ein.
  • 29 von 55 untersuchten Hassakteuren wurden auf Facebook (20), Instagram (12), YouTube (9) und/oder Twitter (7) gesperrt – meist auf der Plattform, auf denen sie zuvor am aktivsten waren.
  • Die Sperrungen zeigen Wirkung: Hassakteure verlieren auf einen Schlag den Großteil ihrer Reichweite und müssen sie neu aufbauen. Wenn sie auf derselben Plattform neue Profile erstellen, erreichen sie fast nie die alte Größe. Auch auf alternativen Plattformen entsteht selten die gleiche Dynamik wie auf dem ursprünglichen Netzwerk, auf dem die Hassakteure groß wurden.
  • Neben BitChute (Ausweichplattform für YouTube), VK (Facebook) und Gab (Twitter) spielt vor allem Telegram eine große Rolle. 96 Prozent der untersuchten Hassakteure sind dort aktiv und nutzen es als kommunikative Basis.
  • Hassakteure kalkulieren Deplatforming mit ein, deuten die Sperrungen als Zensur um und inszenieren sich als Opfer. Teils bauen sie präventive Back-up-Kanäle auf und bewerben sie aktiv für den Fall, dass eine der großen Plattformen durchgreifen sollte.
  • Insbesondere rechtsextreme Akteure arbeiten mit Chiffren, Andeutungen und Neologismen (etwa "Goldstücke" für Geflüchtete), um den Sperrungen zu entgehen. Auch QAnon-Gläubige haben etwa Q durch Cue ersetzte, um Facebooks Blockaden auszuhebeln.
  • Außerdem nutzen sie verstärkt Audios oder Videos sowie Sharepics und Memes. In dieser Form lassen sich extremistische Inhalte schwerer erkennen als in Text-Postings.
  • Einzelne Inhalte, Accounts oder Gruppen zu löschen, sei "im Kampf gegen Hass in sozialen Medien quantitativ ein Tropfen auf den heißen Stein", schreiben die Autorïnnen. Allerdings könne es "qualitativ fundamentale Auswirkungen für das digitale Ökosystem der Hassakteure haben, wenn die Knotenpunkte ihrer Online-Kommunikation wegfallen".
  • Die Studie beinhaltet außerdem Handlungsempfehlungen für Tech-Unternehmen, Zivilgesellschaft, Sicherheitsbehörden sowie Politik und Justiz, auf die wir an dieser Stelle nicht im Detail eingehen. Wer mehr wissen will, findet die Ratschläge im oben verlinkten PDF-Dokument übersichtlich und strukturiert aufbereitet.

Dig deeper:

  • In Briefing #614 stellten wir die Studie "Das Online-Ökosystem rechtsextremer Akteure" des Londoner Institute for Strategic Dialogue ausführlich vor.
  • Damals schrieben wir: "Deplatforming scheint zu wirken: Wenn rechtsextreme Akteure von großen sozialen Netzwerken gesperrt werden, können sie meist nur einen kleinen Teil ihrer Followerïnnen auf alternative Plattformen mitnehmen." Die aktuelle Untersuchung scheint diese Erkenntnis zu bestätigen.
  • In Briefing #654 beschrieben wir, wie und warum die großen Plattformen immer entschlossener gegen Rechtsradikale vorgehen: "Wenn Facebook, Twitter, YouTube, Reddit und Twitch nun durchgreifen, ist das weder Zensur noch bedroht es die Meinungsfreiheit. Es ist ein erster von vielen nötigen Schritten, um das Wild Wild Web zu zähmen und zu entgiften."
  • Damals formulierten wir aber auch eine Forderung, die nach wie vor Bestand hat: "Es gibt aber einen großen Graubereich. 'Hass' und 'Hatespeech' sind schwammige Begriffe. Sollen die Plattformen selbst entscheiden, wo die Grenze liegt? Wer schreibt die Regeln für das Netz, das nach dem Wild Wild Web kommt? Es braucht demokratische und juristische Kontrolle."

3. Was bringen Labels gegen Desinformation?

Was: "Encounters with Visual Misinformation and Labels Across Platforms: An Interview and Diary Study to Inform Ecosystem Approaches to Misinformation Interventions"

Wer: Emily Saltz, Claire Leibowicz und Claire Wardle

Wo: Arxiv / PDF

In einem Satz: Visuelle Hinweise auf mögliche Desinformationen lösen stark emotionale Reaktionen aus und werden von einem Teil der Nutzerïnnen als paternalistisch und voreingenommen empfunden – wodurch sie sogar eine gegenteilige Wirkung haben können.

Im Detail:

  • Genau wie die beiden anderen Studien hat das Paper noch kein Peer-Review-Verfahren durchlaufen und basiert obendrein auf einem kleinen Sample: Insgesamt wurden nur 38 Personen befragt.
  • Es handelt sich also um eine qualitative Untersuchung, die keine allgemeingültigen Rückschlüsse zulässt. Wir haben in der Vergangenheit aber mehrfach auf andere Veröffentlichungen und Artikel der drei Forscherinnen verlinkt und schätzen ihre Arbeit. Deshalb greifen wir auch diese Studie trotz der geringen Stichprobengröße auf.
  • Bereits im Juni formulierten die Autorinnen zwölf Prinzipien (Medium), nach denen sich Labels für manipulierte Medieninhalte richten sollten. Damals warnten sie, dass solche Hinweise unter Umständen mehr schaden als nutzen könnten.
  • Zumindest für einen Teil der Nutzerïnnen scheint sich diese Befürchtung zu bestätigen. Rund die Hälfte der Befragten lehnt Labels aus Prinzip ab. Sie wollen nicht, dass die Plattformen ihnen sagen, was sie von den Inhalten zu halten haben, die sie sehen.
  • Die Studie verdeutlicht, warum Facebook Inhalte nur sehr zurückhaltend mit Warnhinweisen versieht, obwohl Organisationen wie Avaaz seit Langem eindeutigere Labels fordern. Offenbar fürchtet Facebook den Backfire-Effekt, für den es bislang wenig eindeutige wissenschaftliche Nachweise gibt.
  • Passenderweise hat Facebook am Mittwoch angekündigt (Fast Company), die Warnhinweise im Fall von Corona-Desinformation auszuweiten. Künftig sollen Nutzerïnnen, die mit entsprechenden Inhalten interagiert haben, nachträglich gewarnt werden.
  • Die Benachrichtigungen sollen einen Hinweis auf die Korrektur enthalten, aber keinen Bezug auf die ursprüngliche Fehlinformation enthalten, um die Falschbehauptung nicht zu verstärken.

Dig deeper:

  • In Briefing #661 fassten wir den Avaaz-Bericht "Facebook's Algorithm: A Major Threat to Public Health" zusammen.
  • Damals schrieben wir unter anderem über die Forderung der Organisation nach deutlicheren Labels: "Die Warnungen müssten spezifischer werden: 'Jede Untersuchung zu diesem Thema zeigt, dass konkrete Korrekturhinweise helfen können', sagt Avaaz-Kampagnendirektor Christoph Schott. 'Menschen glauben den Fehlinformationen dann deutlich seltener.' Außerdem sollten sie auch angezeigt werden, wenn man die Desinformation nur in der Timeline gesehen, aber nicht damit interagiert habe."

Social Media & Politik

  • Fragen zur Datensammelei: Die Federal Trade Commission möchte gern genauer wissen, welche Daten Amazon, TikToks Muttergesellschaft ByteDance, Discord, Facebook und WhatsApp, Reddit, Snap, Twitter und YouTube von ihren Nutzerïnnen sammeln. In 45 Tagen muss eine Antwort vorliegen (CNBC). Das könnte interessant werden!

Follow the Money

  • Reddit + Dubsmash: Reddit hat dem Vernehmen nach ziemlich muffesausen, dass sie den Anschluss an das Thema Video verpassen. Deshalb hat das Unternehmen jetzt die Kurz-Video-App Dubsmash übernommen. Viele Dubsmash-Technologien werden bei Reddit integriert, die App soll aber als eigenständiges Produkt erhalten bleiben.
  • Twitter + Squad: Twitter hat die App Squad übernommen (Techcrunch). In erster Linie ging es dabei aber wohl um das Entwicklerteam und weniger um die App an sich: Squad wird dicht gemacht. Schade eigentlich, denn Squad ermöglichte es auf unkomplizierte Art und Weise, den eigenen Screen zu teilen und parallel dazu zu chatten. Eine interessante Anwendung!

Inspiration


Neues von den Plattformen

Instagram

  • finstas: Instagram zollt der Entwicklung Tribut, dass immer mehr Nutzerïnnen neben ihren öffentlichen, wohl sortierten und maximal gepflegten Instagram-Profilen Zweitaccounts nutzen, die nur für echte Freunde gedacht sind. Das Unternehmen ermutigt Nutzerïnnen jetzt ganz offiziell, solche Finstas aufzusetzen (Rene Ritchie / Twitter).

Facebook

  • Launch von Collab: Im Mai berichteten wir erstmals über Facebooks experimentelle App, die sich an Musikfreunde richtet und TikTok ein wenig Dampf machen soll. Mittels Collab lassen sich Videos aus drei unterschiedlichen Parts zusammenschneiden. Der Clou: Die einzelnen Parts der Videos können von anderen Nutzerïnnen weiterverwendet werden, um z.B. an Stelle des Schlagzeug-Parts ein Fingerdrum-Part einzubauen. So lassen sich die Videos permanent weiter remixen. Jetzt ist Collab raus aus dem Beta-Modus und für alle frei verfügbar (Techcrunch).

TikTok

  • Sicherererer: TikTok hat die Richtlinien für die Sicherheit der Community aktualisiert. Zudem führt das Unternehmen Opt-in Meldungen bei Videos ein, „die als unangemessen oder bedrohlich empfunden werden könnten“. Solche Videos werden dann auch nicht mehr im For-You-Feed ausgespielt. Auch werden aktualisierte Ressourcen bereitgestellt, wenn jemand nach Begriffen wie "Selbstverletzung" oder "hassemich" sucht.

Twitter

  • Dislike! Kommt bei Twitter bald der Ouch-Button? Immerhin scheint Twitter damit zu experimentieren.

Snapchat

  • Bitmoji Paint: Bei Snapchat kannst du jetzt gemeinsam mit Freundïnnen deiner künstlerischen Ader freien Lauf lassen. Bitmoji Paint ist Snapchats viertes, hauseigenes Game und passt gut zum Trend, digitale Spiele als Orte der Begegnung zu interpretieren.

Signal

Periscope

  • Farewell, Periscope! Twitter macht Periscope dicht. Schon länger hatte es sich angekündigt, dass es den Service wohl bald nicht mehr geben würde. Nun ist es offiziell.

Tipps, Tricks und Apps

  • aText: Wir alle schreiben permanent die gleichen Sätze. aText ermöglicht es, diese Sätze via Tastenkombination herbeizuzaubern. Mega praktisch.
  • ezGIF: Du kennst das: GIFs sind schon ganz cool, aber leider auch immer viel zu groß und schwer, um sie vernünftig einzubinden. ezGIF hilt dabei, GIFs runterzurechnen. In diesem Sinne:

Header-Foto von Ezra Jeffrey-Comeau bei Unsplash


Scroll to Top