Tag: 13. Februar 2020

Rechtsextreme Netzwerke, Bloombergs Social-Media-Strategie, Dating und Datenschutz, Instagram Stories, TikTok und YouTube gleichzeitig produzieren

Salut und herzlich Willkommen zur 614. Ausgabe des Social-Media-Watchblog-Briefings. Heute beschäftigen wir uns intensiv mit einer Studie, die zeigt, wie sich Rechtsextreme online vernetzen. Zudem geht es um Bloombergs Social-Media-Aufholjagd, Dating und Datenschutz sowie um die Frage, wie sich eigentlich für Instagram, TikTok und YouTube gleichzeitig drehen lässt. Herzlichen Dank für das Interesse an unserem Newsletter, Simon und Martin

Von Telegram bis 4chan: Wo sich Rechtsextreme vernetzen

Illustration: Julia Tripke / Social Media Watchblog

Was ist: Jakob Guhl, Julia Ebner und Jan Rau haben für das Londoner Institute for Strategic Dialogue (ISD) analysiert, wie rechtsextreme Online-Subkulturen auf alternativen Plattformen gedeihen. Die Studie trägt den Titel „Das Online-Ökosystem Rechtsextremer Akteure“. Das 76-seitige PDF liegt bislang nur auf Englisch vor. Bei der Bosch-Stiftung, die das Projekt gefördert hat, gibt es eine deutsche Zusammenfassung (PDF, zwölf Seiten).

Warum das wichtig ist: Allein im vergangenen Jahr gab es vier rechtsextrem motivierte Terroranschläge (Christchurch, El Paso, Poway, Halle). Die Täter waren junge, weiße Männer, die sich mit Gleichgesinnten auf Imageboards wie 8chan ausgetauscht und in ihrem Hass auf Frauen, Ausländer und Jüdïnnen bestätigt hatten. Sie übertrugen ihre Morde live ins Netz (der Täter von Poway versuchte es vergeblich) und veröffentlichten krude Pamphlete, die Bezug auf rassistische Memes und Verschwörungstheorien wie den „großen Austausch“ nehmen.

Diese Subkultur ist also mehr als eine Parallelwelt voller extremistischer Spinner, die im Netz zur Gewalt aufrufen. Einige von ihnen machen ihre Drohungen war. Sie bauen Waffen und ermorden Menschen. In den vergangenen fünf Jahren haben rechtsextrem motivierte Terroranschläge stark zugenommen (die Studie spricht von 320 Prozent, gibt aber keine Quelle an). Das alternative Online-Ökosystem hat definitiv dazu beigetragen.

Was die Forscherïnnen untersucht haben: Die Digital Analysis Unit des ISD hat sich vor allem mit deutschsprachigen und auf Deutschland fokussierten Communities beschäftigt. Mit qualitativen und quantitativen Methoden wie Befragungen und automatisierten Textanalysen beleuchten die Wissenschaftlerïnnen insgesamt zehn alternative Plattformen und deren Nutzerïnnen.

Dazu zählen sechs ultralibertäre Plattformen, die nahezu bedingungslose Redefreiheit versprechen und damit Rechtsextreme anziehen: 8chan, Telegram, Minds, Voat, Gab und BitChute. Hinzu kommen vier „gekaperte“ Plattformen, die nicht nur, aber auch von Extremistïnnen genutzt werden: 4chan, Reddit, VK und Discord.

Was die Forscherïnnen herausgefunden haben: Die komplette Studie wiederzugeben, sprengt dieses Briefing. Deshalb picken wir einige Erkenntnisse heraus, die wir für besonders wichtig und/oder überraschend halten:

  • Auf den untersuchten Plattformen sind 15.000 bis 50.000 Personen mit rechtsextremen Ansichten aktiv. Im Vergleich zu großen Plattformen wie Facebook sprechen wir also von einer kleinen, aber umso radikaleren Minderheit.
  • Unter den 379 Gruppen und Kanälen dominieren muslimfeindliche Akteure (104) und Neonazis (92). Die größte Reichweite weisen identitäre Kanäle auf.
  • Auf 4chan enthalten mehr als die Hälfte der Beiträge über Jüdïnnen klar antisemitische Narrative. Dahinter steckt nicht nur eine toxische Diskussionskultur, sondern eine antisemitische Grundstimmung.
  • Für die AfD spielen die alternativen Plattformen keine große Rolle. Die Partei nutzt eher etablierte soziale Medien.
  • Die Beweggründe, aus denen Menschen die Angebote nutzen, unterscheidet sich stark: Auf Gab treibt die Nutzerïnnen etwa die Sorge um Meinungsfreiheit um. Wer auf dem anarchischen 4chan-Board /pol/ postet, lehnt Minderheiten ab oder will unterhalten werden.
  • Einwanderung und angeblich kriminelle Flüchtlinge sind die am häufigsten diskutierten Themen über alle Plattformen hinweg. Zwölf Prozent der Beiträge erwähnen die Verschwörungstheorie des „großen Austausch“.
  • Rechtsextreme Influencerïnnen, deren Accounts auf den großen Social-Media-Plattformen gesperrt wurden, weichen hauptsächlich auf Telegram aus.
  • Nur ein kleiner Teil der untersuchten Postings enthält Aufrufe zur Gewalt. Obwohl die meisten Inhalte nicht eindeutig strafbar sind, erzeugen die von Ressentiments und Rassismus dominierten Beiträge „das Gefühl dringenden Handlungsbedarfs zum vermeintlich notwendigen Schutz der Eigengruppe“.
  • Eine solche Grundstimmung kann zu gewalttätigem Extremismus und Terroranschlägen führen, ohne dass direkt zu Gewalt aufgerufen wird.
  • Deplatforming scheint zu wirken: Wenn rechtsextreme Akteure von großen sozialen Netzwerken gesperrt werden, können sie meist nur einen kleinen Teil ihrer Followerïnnen auf alternative Plattformen mitnehmen.
  • Eine Stichprobe von 25 Gruppen hat auf Nischenkanälen zehn Mal weniger Reichweite als auf etablierten Plattformen. Wer weiter auf den großen Netzwerken aktiv ist, gewinnt auch in der Subkultur an Einfluss. Im Umkehrschluss führt eine Verbannung nicht zu einer Massenabwanderung der Followerïnnen in die Nische.

Was die Forscherïnnen empfehlen: Im Gegensatz zu den recht konkreten Ergebnissen bleiben die Handlungsempfehlungen eher allgemein und abstrakt. Das spricht aber nicht gegen die Wissenschaftlerïnnen, sondern zeigt nur, dass es für ein komplexes Problem keine einfachen Lösungen gibt.

Guhl, Ebner und Rau sehen alle gesellschaftlichen Akteure gefordert: Politik, Tech-Unternehmen, Zivilgesellschaft und Forschung müssten gemeinsam tätig werden, um Radikalisierung zu verhindern. Dazu zählen sie unter anderem diese Maßnahmen:

  • Große soziale Netzwerke sollen mit alternativen Plattformen zusammenarbeiten, damit diese terroristische und extremistische Inhalte besser erkennen und bekämpfen können. Für Angebote wie Gab oder 8chan, die sich aktiv gegen solche vermeintliche Zensur wehren, ist das allerdings keine Option.
  • Regierungen müssen gemeinsam mit Forscherïnnen neue Definitionen von (Rechts-)Terrorismus entwickeln und festlegen, wo Strafbarkeit beginnt. Das ist eine Voraussetzung, um Inhalte zu löschen.
  • Wer digital belästigt, bedroht oder angegriffen wird, braucht einfacheren Zugang zu juristischer und psychosozialer Unterstützung. Die Täterïnnen, die versuchen, ihre Opfer einzuschüchtern und zum Schweigen zu bringen, müssen konsequenter ermittelt und bestraft werden.
  • Auch die etablierten Plattformen stehen in der Verantwortung: Ihre Algorithmen, die der Logik der Aufmerksamkeitsökonomie folgen, empfehlen oft radikalisierende Inhalte, die Nutzerïnnen immer weiter ins Extrem treiben. Hier regen die Forscherïnnen eine gesetzliche verankerte Sorgfaltspflicht für Plattformbetreiber an.
  • Wenn Plattformen Accounts sperren, sollen sie die Entscheidungen nachvollziehbar und öffentlich begründen. Andersherum braucht es transparente Prozesse für Nutzer ïnnen, die sich gegen eine Sperre wehren wollen, die sie als ungerechtfertigt empfinden.
  • Systematische Monitoring und Machine-Learning-Technologien können helfen, konkrete Drohungen frühzeitig zu erkennen und mögliche Anschläge zu verhindern.
  • Lehrkräfte, Eltern und Sozialarbeiterïnnen sollen geschult und für die Gefahr sensibilisiert werden, die von alternativen Plattformen ausgeht.
  • Da sich die Online-Subkulturen immer weiter dezentralisieren und auffächern, sind plattformübergreifende Analysen und Forschung nötig. Damit können Wissenschaftlerïnnen dazu beitragen, die rechtsextremen Online-Ökosysteme auszuleuchten, die Verbreitungswege der Inhalte nachzuvollziehen und die Motivation der Nutzerïnnen besser zu verstehen. Nur dann ist es möglich, effektive Gegenstrategien zu entwickeln.

Be smart: Im vergangenen Jahr haben wir uns mehrfach mit der Rolle beschäftigt, die Netz, Medien und Online-Subkulturen für Terroranschläge spielen. Die Analyse aus Briefing #586, die wir nach dem Massenmord von Halle geschrieben haben, ist nach wie vor aktuell.

Einen Aspekt betonen wir erneut, da er in der Studie nur sehr am Rande auftaucht: Auch klassische Medien haben eine Verantwortung. Es gibt den Werther-Effekt nicht nur für Selbstmorde, sondern auch für Terrorismus. Die Art und Weise, wie Journalistïnnen über Attentäter berichten, ist entscheidend, ob sie ihr Ziel erreichen.

Diese Terroristen inszenieren ihre Morde nicht für die anderen Anons auf ihren Imageboard, sondern für eine massenmediale Öffentlichkeit. Sie wollen Schrecken verbreiten und streben maximale Aufmerksamkeit an. Es liegt auch an Zeitungen, Fernsehsendern und Online-Medien, das zu verhindern.

Know more:

Kampf gegen Hass & Desinformation

___STEADY_PAYWALL___

Künast wehrt sich, Part 1: AfD-Büroleiter muss zahlen: Das Landgericht Frankfurt hat den Büroleiter des AfD-Bundestagsabgeordneten Leif-Erik Holm dazu verurteilt, Renate Künast 3000 Euro Entschädigung zu zahlen. Es geht um einen Tweet aus dem Jahr 2015, in dem der Angeklagte durch ein unvollständiges Zitat fälschlicherweise nahelegt, dass Künast Sex mit Minderjährigen verharmlose. Das Gericht stuft das rechtlich wie eine unwahre Tatsachenbehauptung ein. (Quelle: SZ)

Künast wehrt sich, Part 2: Rechtsextremer Blogger muss zahlen: Sven Liebich hatte Künast auf seinem Blog „Halle Leaks“ übel beschimpft und wurde in erster Instanz freigesprochen (Quelle: Morgenpost). Nun hat ihn das Berliner Landgericht doch noch zu 10.000 Euro Schadenersatz verurteilt. Auch Liebich hatte Künast bewusst falsch zitiert und damit 85.000 Interaktionen in sozialen Medien ausgelöst. (Quelle: Morgenpost)

Facebook lässt Reuters Fakten prüfen: Das US-Factchecking-Netzwerk von Facebook wächst. Die Agentur Reuters ergänzt die bisherigen Medienpartner Lead Stories, Politfact, Daily Caller, Factcheck.org, AFP, AP und Science Feedback und soll unter anderem Deep-Fake-Videos überprüfen (Quelle: Techrunch). Die Faktenchecks wird Reuters an dieser Stelle auch auf seiner eigenen Webseite auflisten.

Apropos Faktenchecker: Wertvoller Kontext kommt von Judd Legume, der in seinem Newsletter Popular Information hochrechnet, wie wenig Geld Facebook insgesamt für seine Factchecking-Bemühungen ausgibt:

Facebook’s total investment in 2019 would be about $1.2 million. That’s an investment of 0.0016% of its 2019 revenue. For perspective, it takes Facebook about 9 minutes to bring in $1.2 million in revenue. So one of the reasons why very little U.S. content is checked by Facebook is because Facebook spends very little money on the program.

Deutschland darf die Meinungsfreiheit im Netz nicht gefährden: 13 Vereine und Organisationen haben der Justizministerium einen offenen Brief geschrieben (Quelle: Digitale Gesellschaft). Wikimedia, DJV, die netzpolitische Verbände der Parteien, die Gesellschaft für Informatik und weitere Unterzeichnerïnnen fordern Christine Lambrecht auf, zwei aktuelle Gesetzentwürfe grundlegend zu überarbeiten, weil diese Grundrechte einschränkten. Konkret geht es um das „Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität“ und das „Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes“. Beide sollen eigentlich die Meinungsfreiheit schützen, gefährden aber Freiheitsrechte.

Bislang handelt es sich nur um Referentenentwürfe, die in dieser Form nicht verabschiedet werden dürften. Insbesondere die Verpflichtung zur Herausgabe von Passwörtern war heftig kritisiert worden und wird wohl noch überarbeitet. Dennoch ist es gut und wichtig, dass der Protest weitergeht, um die Regierung zum Umdenken zu bewegen:

Wir müssen es daher tunlichst vermeiden, Bürgerrechte mit Gesetzen zu bekämpfen, die ihnen selbst widersprechen. Illiberale Ideen kann man nicht mit illiberalen Gesetzen bekämpfen.

Social Media & Politik

Bloomberg übertrumpft Trump: 1 Million Dollar am Tag – so viel hat Michael Bloomberg in den letzten zwei Wochen für Facebook-Ads ausgeben, um eine Chance zu haben, von den Demokraten ins Rennen gegen Trump geschickt zu werden. Was die Ausgaben für Ads angeht, hat er Trump damit überholt. Ob das jetzt für die Demokratie so viel besser ist, steht auf einem anderen Blatt. (Quelle: NBC News)

Meme 2020: Wo wir gerade über Bloomberg sprechen: der gewiefte Medienunternehmer kann nicht nur viel Geld an Facebook überweisen, er weiß auch um die Wirkmacht von Influencern. Seine neue Meme-Kampagne sorgt derzeit in den USA für ziemlich viel Aufsehen (Quelle: NYT) – verständlicherweise übrigens: sie ist wirklich gut gemacht. Die folgenden Posts zeigen, wie Bloombergs Team mit der eigentlichen Uncoolness Bloombergs kokettiert. Tja, was man sich nicht alles kaufen kann als neuntreichster Mensch der Welt.

Datenschutz-Department

Dating und Datenschutz: Heute ist ja bekanntlich Valentinstag. Ein guter Anlass also, sich einmal mit dem Thema Datenschutz & Dating auseinanderzusetzen. Denn: Your favorite dating site isn’t as private as you think (VOX).

Facebook Dating: Apropos Dating-Apps: Dass Facebook den Start des eigenen Dating-Angebots um einige Monate nach hinten verschieben muss, hatten wir ja im letzten Briefing erwähnt. Jetzt ist auch klar, warum Facebook den avisierten Termin nicht halten kann: das Unternehmen hat es nicht für nötig befunden den Behörden erforderliche Pläne zum Thema Datenschutz vorzulegen. (Quelle: SPIEGEL)

Gesichtserkennung, selbstgemacht: Wie relativ einfach es ist, eine Überwachungsmaschine zu bauen, demonstrieren die Kollegïnnen vom SRF. Ein Test zeigt, wie leicht es ist, mittels automatischer Gesichtserkennung Person zu finden und zu identifizieren. Clearview light.

Streaming Wars

Flipboard TV: Es gab eine (kurze) Zeit, da galt Flipboard unter Journalisten als das nächste große Ding. Bekanntlich ist diese Zeit so nie gekommen. Dennoch genießt Flipboard bei vielen Nutzerïnnen hohes Ansehen – auch spiele die Zugrifsszahlen über Aggregatoren generell wieder eine zunehmend größere Rolle (siehe Briefing #523). Wenig verwunderlich also, dass die Macher von Flipboard durchaus selbstbewusst agieren. Der neueste Clou: Ein Paid-Angebot für Video-Inhalte. (Quelle: Digiday)

HBO und Co bald bei YouTube?: Anscheinend gibt es bei YouTube Überlegungen, Abo-Angebote von anderen Anbietern zu vermitteln. Apple und Amazon machen vor, wie das funktioniert. So ist es z.B. über Amazon Fire TV möglich, Netflix zu gucken. Auch ein Geschäftsmodell für YouTube? Wer weiß. Erstmal fahren sie ja mit den 15 Milliarden Dollar Werbeeinnahmen ganz gut. (Quelle: The Information)

Reddit möchte ins Fernsehen: Tweets, Facebook- und Instagram-Posts begegnen einem ja mittlerweile alle naselang im Fernsehen. Nun möchte auch Reddit endlich einmal die Inhalte seiner 100.000 Communities im Fernsehen sehen. Um das zu ermöglichen, geht Reddit eine Partnerschaft mit Tagboard ein. Natürlich erstmal alles nur in den USA. (Quelle: Techcrunch)

Statistiken

WhatsApp meldet 2 Milliarden Nutzerïnnen. Damit hat Mark Zuckerberg jetzt zwei Unternehmen in dieser Liga. Unfassbar, dass ein Mensch definieren kann, wie Milliarden Menschen kommunizieren: nicht demokratisch legitimiert, primär den Interessen der Geldgeber verpflichtet. Klingt pathetisch. Ist aber auch nüchtern betrachtet problematisch.

Schon einmal im Briefing davon gehört

Darum habe ich TikTok gelöscht: Ein Text-Genre, das wir schon von Facebook und Co kennen, gibt es nun auch für die neue Süchtigmacher-App aus China: The Terrifyingly Tantalizing Trend that’s TikTok (Cornell Sun). Wir können uns wohl auf noch viele weitere dieser Texte einstellen.

Empfehlungen fürs Wochenende

Inside Zuckerbergs Lost Notebook: Einer der bekanntesten Tech-Journalisten aus den USA hat ein neues Buch über Facebook geschrieben. Erste Auszüge aus dem Buch von Steven Levy sind bei WIRED zu finden. Wir selbst haben noch keine Chance gehabt, die Passage über Zuckerbergs verlorenes Notizbuch zu lesen. Soll aber sehr lesenswert sein und wird am Wochenende nachgeholt. Daher ist es auch unsere Pocket-Empfehlung der Woche.

Alman-Memes im Netz sind eher peinlich, findet Hengameh Yaghoobifarah. Bei der taz bekommt sie die Möglichkeit aufzuschreiben, was sie daran so stört. Ihr Rundflug über die deutsche Meme-Landschaft ist definitiv den Trip wert – insbesondere für all die Menschen, die noch nicht so ganz verstanden haben, was es eigentlich mit diesen Memes auf sich hat.

Neue Features bei den Plattformen

YouTube

  • Klatschen für 2 Dollar: YouTube testet ein Feature, mit dem Fans ihren Lieblings-Kreativen eine Art Trinkgeld zukommen lassen können. Bei Twitch funktioniert das schon ganz anständig. Bei TikTok hatten sie es ziemlich übertrieben. Nun also testet YouTube, wie die Funktion ankommt. (Quelle: The Verge)

Spotify

  • Songwriter Pages: Spotify gehört aktuell neben Snapchat zu den kreativsten Tech-Unternehmen, wenn es darum geht, neue Funktionen zu launchen. Die neueste Idee besteht darin, den Songwritern hinter den Hits mehr Aufmerksamkeit zukommen zu lassen. Um das zu erreichen, schraubt Spotify derzeit an sogenannten Songwriter Pages. Gute Sache! (Quelle: artists.spotify.com)

Snapchat

  • Mehr Nachrichten wagen: Snapchat bastelt derzeit an einem erneuten Redesign. So wird einerseits getestet, ob Nachrichten-Schlagzeilen von traditionellen Medienangeboten wie der Washington Post im Gesamtkonzept der App verfangen. Andererseits bastelt Snapchat an einer echten Navigation am unteren Bildschirmrand. Jetzt drehen sie völlig durch 😅 (Quelle: The Verge)

Tipps, Tricks & Apps

Zeitstempel bei TikTok: In der TikTok-App werden bekanntlich keine Angaben darüber gemacht, wann ein Video hochgeladen wurde. Wer trotzdem herausfinden möchte, wann ein TikTok publiziert wurde, kann dieser Anleitung von Christiaan Triebert bei Twitter folgen.

One more thing

Für Instagram Stories, TikTok und YouTube gleichzeitig filmen ? Kein Problem. Alles, was es braucht, ist ein anständiges Gummiband.

Header-Foto von Joshua Newton bei Unsplash

Von Telegram bis 4chan: Wo sich Rechtsextreme vernetzen

Von Telegram bis 4chan: Wo sich Rechtsextreme vernetzen

Was ist: Jakob Guhl, Julia Ebner und Jan Rau haben für das Londoner Institute for Strategic Dialogue (ISD) analysiert, wie rechtsextreme Online-Subkulturen auf alternativen Plattformen gedeihen. Die Studie trägt den Titel "Das Online-Ökosystem Rechtsextremer Akteure". Das 76-seitige PDF liegt bislang nur auf Englisch vor. Bei der Bosch-Stiftung, die das Projekt gefördert hat, gibt es eine deutsche Zusammenfassung (PDF, zwölf Seiten).

Warum das wichtig ist: Allein im vergangenen Jahr gab es vier rechtsextrem motivierte Terroranschläge (Christchurch, El Paso, Poway, Halle). Die Täter waren junge, weiße Männer, die sich mit Gleichgesinnten auf Imageboards wie 8chan ausgetauscht und in ihrem Hass auf Frauen, Ausländer und Jüdïnnen bestätigt hatten. Sie übertrugen ihre Morde live ins Netz (der Täter von Poway versuchte es vergeblich) und veröffentlichten krude Pamphlete, die Bezug auf rassistische Memes und Verschwörungstheorien wie den "großen Austausch" nehmen.

Diese Subkultur ist also mehr als eine Parallelwelt voller extremistischer Spinner, die im Netz zur Gewalt aufrufen. Einige von ihnen machen ihre Drohungen war. Sie bauen Waffen und ermorden Menschen. In den vergangenen fünf Jahren haben rechtsextrem motivierte Terroranschläge stark zugenommen (die Studie spricht von 320 Prozent, gibt aber keine Quelle an). Das alternative Online-Ökosystem hat definitiv dazu beigetragen.

Was die Forscherïnnen untersucht haben: Die Digital Analysis Unit des ISD hat sich vor allem mit deutschsprachigen und auf Deutschland fokussierten Communities beschäftigt. Mit qualitativen und quantitativen Methoden wie Befragungen und automatisierten Textanalysen beleuchten die Wissenschaftlerïnnen insgesamt zehn alternative Plattformen und deren Nutzerïnnen.

Dazu zählen sechs ultralibertäre Plattformen, die nahezu bedingungslose Redefreiheit versprechen und damit Rechtsextreme anziehen: 8chan, Telegram, Minds, Voat, Gab und BitChute. Hinzu kommen vier "gekaperte" Plattformen, die nicht nur, aber auch von Extremistïnnen genutzt werden: 4chan, Reddit, VK und Discord.

Was die Forscherïnnen herausgefunden haben: Die komplette Studie wiederzugeben, sprengt dieses Briefing. Deshalb picken wir einige Erkenntnisse heraus, die wir für besonders wichtig und/oder überraschend halten:

  • Auf den untersuchten Plattformen sind 15.000 bis 50.000 Personen mit rechtsextremen Ansichten aktiv. Im Vergleich zu großen Plattformen wie Facebook sprechen wir also von einer kleinen, aber umso radikaleren Minderheit.
  • Unter den 379 Gruppen und Kanälen dominieren muslimfeindliche Akteure (104) und Neonazis (92). Die größte Reichweite weisen identitäre Kanäle auf.
  • Auf 4chan enthalten mehr als die Hälfte der Beiträge über Jüdïnnen klar antisemitische Narrative. Dahinter steckt nicht nur eine toxische Diskussionskultur, sondern eine antisemitische Grundstimmung.
  • Für die AfD spielen die alternativen Plattformen keine große Rolle. Die Partei nutzt eher etablierte soziale Medien.
  • Die Beweggründe, aus denen Menschen die Angebote nutzen, unterscheidet sich stark: Auf Gab treibt die Nutzerïnnen etwa die Sorge um Meinungsfreiheit um. Wer auf dem anarchischen 4chan-Board /pol/ postet, lehnt Minderheiten ab oder will unterhalten werden.
  • Einwanderung und angeblich kriminelle Flüchtlinge sind die am häufigsten diskutierten Themen über alle Plattformen hinweg. Zwölf Prozent der Beiträge erwähnen die Verschwörungstheorie des "großen Austausch".
  • Rechtsextreme Influencerïnnen, deren Accounts auf den großen Social-Media-Plattformen gesperrt wurden, weichen hauptsächlich auf Telegram aus.
  • Nur ein kleiner Teil der untersuchten Postings enthält Aufrufe zur Gewalt. Obwohl die meisten Inhalte nicht eindeutig strafbar sind, erzeugen die von Ressentiments und Rassismus dominierten Beiträge "das Gefühl dringenden Handlungsbedarfs zum vermeintlich notwendigen Schutz der Eigengruppe".
  • Eine solche Grundstimmung kann zu gewalttätigem Extremismus und Terroranschlägen führen, ohne dass direkt zu Gewalt aufgerufen wird.
  • Deplatforming scheint zu wirken: Wenn rechtsextreme Akteure von großen sozialen Netzwerken gesperrt werden, können sie meist nur einen kleinen Teil ihrer Followerïnnen auf alternative Plattformen mitnehmen.
  • Eine Stichprobe von 25 Gruppen hat auf Nischenkanälen zehn Mal weniger Reichweite als auf etablierten Plattformen. Wer weiter auf den großen Netzwerken aktiv ist, gewinnt auch in der Subkultur an Einfluss. Im Umkehrschluss führt eine Verbannung nicht zu einer Massenabwanderung der Followerïnnen in die Nische.

Was die Forscherïnnen empfehlen: Im Gegensatz zu den recht konkreten Ergebnissen bleiben die Handlungsempfehlungen eher allgemein und abstrakt. Das spricht aber nicht gegen die Wissenschaftlerïnnen, sondern zeigt nur, dass es für ein komplexes Problem keine einfachen Lösungen gibt.

Guhl, Ebner und Rau sehen alle gesellschaftlichen Akteure gefordert: Politik, Tech-Unternehmen, Zivilgesellschaft und Forschung müssten gemeinsam tätig werden, um Radikalisierung zu verhindern. Dazu zählen sie unter anderem diese Maßnahmen:

  • Große soziale Netzwerke sollen mit alternativen Plattformen zusammenarbeiten, damit diese terroristische und extremistische Inhalte besser erkennen und bekämpfen können. Für Angebote wie Gab oder 8chan, die sich aktiv gegen solche vermeintliche Zensur wehren, ist das allerdings keine Option.
  • Regierungen müssen gemeinsam mit Forscherïnnen neue Definitionen von (Rechts-)Terrorismus entwickeln und festlegen, wo Strafbarkeit beginnt. Das ist eine Voraussetzung, um Inhalte zu löschen.
  • Wer digital belästigt, bedroht oder angegriffen wird, braucht einfacheren Zugang zu juristischer und psychosozialer Unterstützung. Die Täterïnnen, die versuchen, ihre Opfer einzuschüchtern und zum Schweigen zu bringen, müssen konsequenter ermittelt und bestraft werden.
  • Auch die etablierten Plattformen stehen in der Verantwortung: Ihre Algorithmen, die der Logik der Aufmerksamkeitsökonomie folgen, empfehlen oft radikalisierende Inhalte, die Nutzerïnnen immer weiter ins Extrem treiben. Hier regen die Forscherïnnen eine gesetzliche verankerte Sorgfaltspflicht für Plattformbetreiber an.
  • Wenn Plattformen Accounts sperren, sollen sie die Entscheidungen nachvollziehbar und öffentlich begründen. Andersherum braucht es transparente Prozesse für Nutzer ïnnen, die sich gegen eine Sperre wehren wollen, die sie als ungerechtfertigt empfinden.
  • Systematische Monitoring und Machine-Learning-Technologien können helfen, konkrete Drohungen frühzeitig zu erkennen und mögliche Anschläge zu verhindern.
  • Lehrkräfte, Eltern und Sozialarbeiterïnnen sollen geschult und für die Gefahr sensibilisiert werden, die von alternativen Plattformen ausgeht.
  • Da sich die Online-Subkulturen immer weiter dezentralisieren und auffächern, sind plattformübergreifende Analysen und Forschung nötig. Damit können Wissenschaftlerïnnen dazu beitragen, die rechtsextremen Online-Ökosysteme auszuleuchten, die Verbreitungswege der Inhalte nachzuvollziehen und die Motivation der Nutzerïnnen besser zu verstehen. Nur dann ist es möglich, effektive Gegenstrategien zu entwickeln.

Be smart: Im vergangenen Jahr haben wir uns mehrfach mit der Rolle beschäftigt, die Netz, Medien und Online-Subkulturen für Terroranschläge spielen. Die Analyse aus Briefing #586, die wir nach dem Massenmord von Halle geschrieben haben, ist nach wie vor aktuell.

Einen Aspekt betonen wir erneut, da er in der Studie nur sehr am Rande auftaucht: Auch klassische Medien haben eine Verantwortung. Es gibt den Werther-Effekt nicht nur für Selbstmorde, sondern auch für Terrorismus. Die Art und Weise, wie Journalistïnnen über Attentäter berichten, ist entscheidend, ob sie ihr Ziel erreichen.

Diese Terroristen inszenieren ihre Morde nicht für die anderen Anons auf ihren Imageboard, sondern für eine massenmediale Öffentlichkeit. Sie wollen Schrecken verbreiten und streben maximale Aufmerksamkeit an. Es liegt auch an Zeitungen, Fernsehsendern und Online-Medien, das zu verhindern.

Know more:

  • Die Broschüre "Alternative Wirklichkeiten" der Amadeu-Antonio-Stiftung beschäftigt sich ausführlich mit rechts-alternativen Medienstrategien. Das PDF-Dokument umfasst 100 Seiten und ist einen Bookmark Wert.

Grafik: Julia Tripke


Scroll to Top