Monat: Februar 2020

Gefahr von Social Bots, Twitters Strategie gegen Falschinformationen, Instagram Kuratoren

Salut und herzlich Willkommen zur 617. Ausgabe des Social Media Briefings. Heute geht es um die Frage, ob Social Bots wirklich eine Gefahr für die Demokratie darstellen. Zudem beschäftigen wir uns mit Twitters Strategie gegen Falschinformationen und Instagram Kuratoren – den neuen Cool Huntern (die Älteren werden sich erinnern). Wir bedanken uns für das Interesse und wünschen eine gewinnbringende Lektüre, Martin & Team

Social Bots: Märchen oder Gefahr?

Was ist: Am Wochenende ist beim Guardian ein Artikel erschienen, der über eine spannende Studie berichtet: Einem Paper der Brown-Universität zufolge stammen 1/4 aller Tweets zur Klimawandel-Debatte von Bots. Ein Viertel?! 🤔

Ich fand das so interessant, dass ich den Artikel auf Twitter teilte. Zwar hatte ich darauf hingewiesen, dass es bei der Studie hinsichtlich der Methode Zweifel gibt. Das hat aber Bot-Experte Florian Gallwitz nicht davon abgehalten, meinen Tweet mit einem abschätzigen „Herrje“ zu retweeten. Das widerum hat mich in gleichen Teilen irritiert und neugierig gemacht.

Bei meiner anschließenden Recherche habe ich gelernt, wie komplex und zum Teil auch vergiftet die Diskussion um das Thema Social Bots ist. Gern möchte ich meine Learnings an dieser Stelle teilen:

Der Stand der Forschung

  • Der Deutsche Bundestag hat eine Enquete-Kommission zum Thema Künstliche Intelligenz eingesetzt, um das Thema Social Bots besser zu verstehen.
  • Drei Experten wurden von der Kommission um eine Einschätzung gebeten: Florian Gallwitz (Professor für Computer Science an der TH Nürnberg), Tabea Wilke (Gründerin und Geschäftsführerin von Botswatch) und Simon Hegelich (Professor für Political Data Science an der TU München)
  • Das Spannende: Die drei Experten kommen zu ganz unterschiedlichen Ergebnissen, was die Existenz und die Bedeutung von Social Bots angeht.
  • Jürgen Hermes (@spinfocl) von der Universität zu Köln hat die drei Stellungnahmen (Gallwitz, Wilke, Hegelich) auf seinem Blog zusammengefasst und eingeordnet. Der Artikel „Jäger der verlorenen Bots“ ist allen zu empfehlen, die sich ausführlicher mit dem Thema beschäftigen wollen. In der Folge zitiere ich aus Hermes Artikel:

Was könnte mit Social Bots gemeint sein? „Social Bots zu definieren ist nicht elementar, über alle drei Gutachten hinweg kann man sie aber destillieren als automatisierte Accounts, die zwei Ziele verfolgen: 1) Meinung manipulieren und 2) fälschlich als Accounts von echten Menschen wahrgenommen werden.

Studien: Social Bots sind unter uns: „Seit mehreren Jahren werden wissenschaftliche Studien durchgeführt, die Social Bots in hoher Zahl als gegeben annehmen und deren Einfluss auf diverse, vorwiegend politische Diskurse quantifizieren. An diesen Studien gibt es inzwischen erhebliche Zweifel, die allerdings noch nicht peer reviewed publiziert wurden.

Bot or not? Wie kann man Social Bots erkennen? Es wurden bisher keine Verfahren entwickelt, mit denen Social Bots, so wie sie oben definiert wurden, mit hinreichender Präzision aufgespürt werden können. Das kann daran liegen, dass solche Verfahren bisher einfach nicht gefunden wurden oder dass sie prinzipiell nicht entwickelt werden können. Oder auch daran, dass schlicht keine Social Bots in relevanter Zahl existieren.

Ist die Existenz von Social Bots nicht einfach logisch? „Es gibt gute Gründe anzunehmen, dass Akteure versuchen, über eine Masse von Social Bots die Meinungsbildung im Internet und darüber hinaus zu beeinflussen. Es gibt aber auch gute Gründe anzunehmen, dass die Plattformbetreiber dies aktiv zu unterbinden versuchen und dabei erfolgreich sind. In der Summe: Ich (Jürgen Hermes) sehe keinen Grund, Social Bots als Massenphänomen anzunehmen, solange man sie nicht massenhaft nachweisen kann.

Hyperaktive Debattenkultur: „Social Bots sind wohl kein Massenphänomen, aber wohl auch keine Verschwörungstheorie. Meinungsbildung und -manipulation über Social Media ist ein Massenphänomen und demnach auch keine Verschwörungstheorie. Die zugrundeliegenden Mechanismen müssen dringend weiter erforscht werden, aber nicht auf Basis der bisherigen Social-Bot-Annahmen.

Be smart: Wenn das nächste Mal ein Social-Bot-Artikel durch das Netz geistert, lohnt es sich, genauer hinzuschauen: Was ist die Datengrundlage? Welche Werkzeuge wurden genutzt, um Social Bots zu identifizieren? Wie werden Social Bots überhaupt definiert? Auf dieser Basis kann dann seriös über die Studie berichtet werden. Denn zwei Dinge sind mir am Wochenende klar geworden: Ja, es braucht definitiv bessere Berichterstattung rund um das Thema. Nein, es hilft niemandem, Journalismus als „hochkonzentrierten, hirnverbrannten Bot-Verschwörungs-Schwachsinn“ abzutun. Das hat Prof. Gallwitz zum Glück auch verstanden. Seinen Tweet hat er mittlerweile gelöscht.

Go deep:

Social Media & Politik

___STEADY_PAYWALL___

Für 2500 Dollar im Monat Pro-Bloomberg-Posts raushauen: US-Präsidentschaftsbewerber Michael Bloomberg hat wirklich eine ziemlich fitte Truppe eingekauft, um sein Social-Media-Game zu uppen. Jedenfalls vergeht kaum eine Woche, in der nicht deutlich wird, wie groß die Schlupflöcher bei Facebook und Co weiterhin sind, um politische Werbung unters Volk zu bringen. Der neueste Clou: Bloomberg bezahlt regulären Facebook-Nutzerïnnen 2500 Dollar im Monat, um auf ihren Accounts Pro-Bloomberg-Botschaften zu posten (Quelle: WSJ). Facebook versucht nun, diesem Treiben beizukommen (Quelle: CNBC).

Trumps Werbeplatz-Coup: Wo wir gerade über den Wahlkampf in den USA sprechen: Donald Trumps Social-Media-Team leistet ebenfalls einen hervorragenden Job (wenn ich das jetzt mal so schreiben darf). Simon berichtet in der Süddeutschen Zeitung, dass sich Trump den wohl begehrtesten Werbeplatz der Welt für die Tage vor der US-Wahl gesichert hat: den Masthead bei YouTube. Der Clou daran: Während sämtliche Werbeplätze auf YouTube personalisiert ausgespielt werden, ist der Masthead-Anzeigenplatz fix. Jeder sieht die gleiche Anzeige auf YouTubes-Startseite ganz oben. Immer.

Kampf gegen Desinformation

Twitter mit neuem Labeling: Einem Bericht von NBC News zufolge arbeitet Twitter an visuellen Markierungen von Falsch- und Desinformationen. Das Mockup zeigt, wie Twitter künftig aussehen könnte. Vox erklärt, wie das Labeling funktionieren soll.

Datenschutz-Department

EU empfiehlt Signal: Wie der geschätzte Kollege Alexander Fanta berichtet, liegt netzpolitik eine interne Notiz einer Expertengruppe der EU-Kommission vor, die die Nutzung von Signal als sicherere Alternative zu WhatsApp für den Austausch unter Kollegïnnen vorschlägt. Bislang war WhatsApp der Messenger Nummer Eins unter Diplomaten (Quelle: Guardian). Das könnte sich nun womöglich ändern.

Neues von TikTok

Während es mittlerweile für viele völlig normal geworden ist, TikTok-Dances und -Memes auf Twitter, Facebook und Co abzufeiern, sind wir weiterhin skeptisch, was die Plattform angeht. Durchaus zurecht, wie diese drei aktuellen Meldungen zeigen:

  • TikTok-Verbot bei US-Behörden: AP zufolge dürfen Mitarbeiter der US-Verkehrssicherheitsbehörde (Transportation Security Administration) aus Sicherheitsgründen künftig keine TikToks mehr posten. Mitarbeitern der Heimatschutzbehörde (Department of Homeland Security) ist die Verwendung von TikTok ebenfalls untersagt.
  • Kein Bock auf Anhörung: Um besser zu verstehen, wie eng die Beziehungen nach China sind, sollten Mitarbeiterïnnen von TikTok und Apple vor dem US-Kongress angehört werden. Beide Unternehmen zogen es vor, die Anhörung nicht wahrzunehmen. (Quelle: Washington Post)
  • Lobbyisten gesucht: Aktuellen Stellenanzeigen bei Daybook zufolge sucht TikTok händeringend nach neuem Personal, um aufgeregte Politikerïnnen in Washington zu beruhigen.
  • Filterblase per Gesichtserkennung: Es sieht so aus, als wären Vorurteile aufgrund von äußerlichen Merkmalen für TikTok kein Problem, sondern ein Feature. Dir gefallen weiße Männer mit Bart? Hier sind noch mehr Männer mit weißem Bart. TikToks Gesichtserkennungsfeature macht es möglich. (Quelle: Twitter / Marc Faddoul)

 

Schon einmal im Briefing davon gehört

Die neuen Cool Hunter: Instagram Curator Trendscouts hießen in den 90ern mal Cool Hunter. Heute heißen sie Instagram Curator und erfreuen sich zunehmender Popularität (Quelle: GQ). Wie angenehm: Während Kreative und Influencer sich abstrampeln müssen, um Neues zu erfinden, müssen Kuratoren nur finden. Genau mein Humor 👌🏻

 

Statistiken

Tech-Experten sehen ziemlich schwarz für die weitere Entwicklung der digitalen Welt. Laut Pew Research sagt etwa die Hälfte voraus,

dass der Einsatz von Technologie durch den Menschen die Demokratie bis 2030 aufgrund der Geschwindigkeit und des Umfangs der Realitätsverzerrung, des Niedergangs des Journalismus und der Auswirkungen des Überwachungskapitalismus schwächen wird. Ein Drittel erwartet, dass die Technologie die Demokratie stärken wird, wenn die Reformer Wege finden, um gegen Desinformation und Chaos vorzugehen.

Yikes.

Neue Features bei den Plattformen

Facebook

  • Stories Test: Facebook testet eine neue Discover-Page für Facebook Stories. Das Ergebnis sieht den Entdecker-Seiten von IGTV und Snapchat ziemlich ähnlich. (Quelle: Twitter / Guillaume Baratte)
  • Facebooks Creator Studio ist jetzt auch mobil verfügbar. (Quelle: Techcrunch)

Twitter

  • Threads: Twitter hat an seinen Thread-Funkionalitäten geschraubt und erlaubt Nutzerïnnen nun, neue Tweets bereits veröffentlichten Tweets hinzuzufügen. (Quelle: Twitter / Twitter)

TikTok

  • “Link in Bio“ ist bei TikTok jetzt auch möglich. (Quelle: socialmediatoday)

Vimeo

  • Vimeo Create: Das Video-Portal Vimeo hat sich ja schon längst von der Idee verabschiedet, ein echter YouTube-Herausforderer zu werden. (Eine Entwicklung, die ich persönlich sehr bedaure. Immerhin hatte ich dort meinen Uni-Abschlussfilm veröffentlicht 😅.) Um weiter an der Geschäftsidee zu arbeiten, Tools für Filmschaffende zur Verfügung zu stellen, hat Vimeo jetzt Vimeo Create lanciert: eine Plattform, um mittels Stockmaterial und Tools, die an die Erstellung von Stories erinnern, Videos für alle gängigen Social-Media-Formate zu produzieren. Check it out: Vimeo create!

One more thing

Jan Böhmermann hat mit diesem Tweet ziemlich gut auf den Punkt gebracht, warum wir das hier alles machen.

Header-Foto von Hello Lightbulb bei Unsplash

Digitales Lagerfeuer, Facebooks Regulierungsvorschläge, Instagram „größer“ als Facebook

Salut und herzlich Willkommen zur 616. Ausgabe des Social-Media-Watchblog-Briefings. Heute beschäftigen wir uns mit der Frage, warum Messenger, Micro-Communities und „Shared Experiences“ derzeit bei jungen Menschen so boomen. Ferner blicken wir auf Zuckerbergs Vorschläge, wie Facebook reguliert werden sollte und auf eine bemerkenswerte Studie zu den Top-50-Marken bei Facebook und Instagram. Wir bedanken uns für das Interesse an unserem Angebot und wünschen eine gewinnbringende Lektüre, Simon, Tilman und Martin 💛

Digitales Lagerfeuer: Warum Messenger, Micro-Communities und Shared Experiences boomen

Was ist: Die Zeit, die Menschen mit Social-Media-Angeboten verbringen, steigt weltweit.¹ Und auch die Plattformen selbst wachsen – mit Blick auf den Umsatz und auch hinsichtlich der Nutzerzahlen.² Soweit alles bekannt. Wer allerdings etwas tiefer gräbt, bekommt ein wesentlich nuancierteres Bild. Denn junge Menschen sind für diese Steigerungen nur bedingt verantwortlich. Sie versammeln sich nämlich zunehmend lieber um digitale Lagerfeuer. Genauer gesagt boomen derzeit…

  • Messenger (WhatsApp, FB Messenger, iMessage, IG Close Friends)
  • Micro-Communities (FB Gruppen, Slack, Discord, Subreddits)
  • Shared Experiences (Fortnite, Twitch)

Was genau hat sich verändert?

  • Eine Studie von Edison Research und Triton Digital zeigt, dass die Social-Media-Nutzung von 13- bis 34-jährigen Amerikanerïnnen stagniert, bzw. sogar abnimmt.
  • Eine Untersuchung des Global Web Index unterstreicht diese Tendenz und zeigt, dass die mit Social Media verbrachte Zeit in der Generation Y (aka Millennials) und Z nicht so stark wächst wie in den Jahren zuvor.
  • Auch in Deutschland erfreuen sich Instagram und Facebook laut aktueller ARD-ZDF-Onlinestudie zwar weiterhin grundsätzlich großer Beliebtheit, längst hat sich aber WhatsApp als populärstes Kommunikationswerkzeug etabliert.

Warum ist das so?

  • Nachdem Menschen jahrelang an ihren digitalen Identitäten gepfeilt haben und dabei jede Menge Freunde, Bekannte, Verwandte, Fremde und Kollegen angehäuft haben, sehnen sie sich nun auch online nach Freundschaften, die vor allem auf geteilten Interessen beruhen.
  • Auch teilen viele Social-Media-Nutzerïnnen ein großes Verlangen danach, wieder authentisch agieren zu können. Nicht von ungefähr löschen Kids ihre Posts mitunter genauso schnell, wie sie sie gepostet haben (WSJ). Nicht zufällig sind Finstas und FikFoks (Fake Instagram-, bzw. TikTok-Accounts) unter jungen Menschen weit verbreitet. Das Ziel: jenseits der akkurat gepflegten (pseudo-öffentlichen) Profile endlich einmal richtig privat³ sein – fernab von Eltern und anderen Personen, vor denen auf bestimmte Art performt werden muss.

Die drei Arten des digitalen Lagerfeuers: Für das Harvard Business Review hat Sara Wilson drei Kategorien herausgearbeitet, um den Trend besser zu beschreiben:

  • Messenger: „Privates Messaging oder in Kleingruppen – in der Regel, aber nicht immer, mit Freunden aus dem wirklichen Leben.“ Primäre Anbieter, die dafür genutzt werden: WhatsApp, Facebook Messenger, iMessage oder auch Instagram DM / Close Friends.
  • Micro-Communities: „Interaktive, private / halbprivate Foren, in denen sich Menschen um Interessen, Hobbies oder Überzeugungen versammeln.“ Facebook Gruppen sind hier das bekannteste Beispiel. Aber auch Slack dient häufig abseits der Arbeitskommunikation zum gezielten Austausch. Ähnliches gilt für Discord, Subreddits oder auch YouTube-Kommentarspalten.
  • Shared Experiences: „Private oder öffentliche Foren, bei denen die Teilnahme an einer gemeinsamen Erfahrung – oft um ein bestimmtes gemeinsames Interesse herum – mit einer gleichgesinnten Gemeinschaft der Hauptzweck des Treffens ist.“ Insbesondere Spiele wie Fortnite schaffen es, solche ‚Shared Experiences‘ zu kreieren. Aber auch Challenges bei TikTok oder Livestreams bei Twitch können digitale Lagerfeuer-Atmosphäre erzeugen.

Be smart: Wer junge Menschen erreichen möchte, muss auch darum kämpfen, einen Platz am digitalen Lagerfeuer einnehmen zu dürfen. Das kann über verschiedene Strategien funktionieren:

  • Orte erschaffen, an denen Menschen ihre Bedürfnisse befriedigt sehen. Das kann eine Facebook Gruppe zu einem bestimmten Thema sein. Das kann ein Konzert innerhalb einer „Shared Experience“ sein. Das kann Kommunikation auf Augenhöhe sein, die über Messenger angeboten wird.
  • Inhalte kreieren, die nicht nur dafür gedacht sind, dass Menschen sie teilen, um damit ein Stück ihrer eigenen digitalen Identität zu unterstreichen. Es gilt, sich von „identity-driven content“ zu lösen und Content zu erschaffen, der zur Partizipation und Diskussion einlädt – quasi „actionable content“.
  • Partnerschaften eingehen, um nicht Gefahr zu laufen, den Menschen auf die Nerven zu gehen. Denn eigentlich galt ja schon immer: Niemand meldet sich bei Facebook an, um mit (Namen einer beliebigen Organisation / eines beliebigen Unternehmens hier einfügen) befreundet zu sein.

¹ Digital Trends 2020 (The Next Web)
² FB Q4 Earnings, Twitter Q4 Earnings, Snap Q4 Earnings
³ Es handelt sich dabei natürlich nur um eine gefühlte Privatsphäre – es findet weiterhin alles im Vorgarten von Mark Zuckerberg und Co statt.
⁴ Das Folio Mag hat einen spannenden Artikel zum Thema veröffentlicht: Publishers Share Their Social Distribution Secrets.

Facebook schlägt vor, wie Facebook reguliert werden soll

___STEADY_PAYWALL___

Was ist: „Ich glaube, dass schädliche Inhalte reguliert werden sollten“, sagte Mark Zuckerberg auf der Münchner Sicherheitskonferenz am Wochenende (Reuters). Einen Tag später veröffentlichte die Financial Times sein Op-ed „Big Tech needs more regulation„, das später auch in Facebooks Newsroom erscheint.

Was noch ist: Facebook fordert nicht nur Regulierung von Inhalten – es skizziert auch, wie diese aussehen könnte. Parallel zu Zuckerbergs Vorstoß stellte Facebook ein 22-seitiges Whitepaper ins Netz (PDF). Monika Bickert, die für Content Policy zuständig ist, fast die Eckpunkte in Facebooks Newsroom zusammen.

Warum das wichtig ist: Der Inhalt des Whitepapers ist weder besonders konkret noch besonders überraschend. „Ich sehe nicht viel Neues“, sagt etwa Renée DiResta, die am Stanford Internet Observatory forscht (Protocol). Die Vorschläge bündelten nur, was ohnehin seit mehreren Jahren diskutiert werde.

Wir fassen das Paper natürlich trotzdem kompakt zusammen. Davor erklären wir aber, welche Strategie Facebook mit den Vorschlägen verfolgt – denn die ist mindestens genauso interessant wie der Inhalt.

Was dahintersteckt:

  • Facebook hat mehr als ein Jahrzehnt davon profitiert, dass Politikerïnnen das Netz nicht verstehen – zumindest nicht jene, die wirklich wichtige Entscheidungen treffen. In diesem Kompetenz- und Machtvakuum sind Tech-Konzerne schneller gewachsen, als Parlamente „Regulierung“ buchstabieren konnten.
  • In den vergangenen Jahren hat sich das geändert. Weltweit versuchen Regierungen nachzuholen, was sie zuvor versäumt haben. Unternehmen wie Facebook schauen dabei nicht einfach zu, sondern wollen den Prozess mitgestalten – auch, um allzu harte Regulierung zu verhindern.
  • Bereits im Frühjahr 2019 formulierte Zuckerberg „vier Ideen, um das Internet zu regulieren„, die wir in Briefing #536 ausführlich analysiert haben. Im vergangenen September erschien dann ein Whitepaper, das sich mit Privatsphäre und Datenportabilität beschäftigte (PDF). Bickert kündigte an, dass in den kommenden Monate weitere Veröffentlichungen zu Wahlen und Privatsphäre folgen sollen.

Die Botschaft lautet also nicht: „Bitte reguliert uns!“ Was Zuckerberg tatsächlich sagt: „Bitte reguliert uns – und zwar so, wie wir das für sinnvoll halten.“

Im aktuellen Whitepaper wird das deutsche NetzDG nicht explizit erwähnt. Dennoch sieht Juraprofessorin Kate Klonick darin eine eindeutige Reaktion auf die deutsche Gesetzgebung (Protocol). Seit 2017 drohen Plattformen Bußgelder, wenn sie strafbare Inhalte nicht oder zu langsam löschen. Facebook will verhindern, dass andere Staaten solche Gesetze adaptieren.

Was Facebook vorschlägt: Bickert formuliert vier Herausforderungen, die Content-Moderation so schwierig machen:

    1. Plattformen agieren global, Gesetze gelten nur national.

 

    1. Plattformen verändern sich dynamisch und sind sehr unterschiedlich. Je nach Medium können Normen und Werte stark voneinander abweichen.

 

    1. Plattformen werden unweigerlich Fehler machen. Angesichts der Masse an Entscheidungen ist es unmöglich, dass Menschen und Maschinen immer richtig liegen.

 

  1. Plattformen sind Intermediäre und keine Urheber. Sie geben Nutzerïnnen eine Bühne, produzieren aber keine Inhalte. Deshalb sollten sie anders behandelt werden als etwa Verlage, die unmittelbar für alles verantwortlich sind, was auf ihrer Webseite veröffentlicht wird.

Daraus leitet Bickert vier Fragen ab:

    1. Wie kann Content-Regulierung schädliche Inhalte begrenzen und gleichzeitig Redefreiheit gewährleisten?

 

    1. Wie sollte Regulierung die Verantwortlichkeit von Internet-Plattformen stärken?

 

    1. Sollte Regulierung von Unternehmen verlangen, bestimmte Leistungsvorgaben einzuhalten? Ein Beispiel: Nach 24 Stunden müssen strafbare Inhalte gelöscht sein.

 

  1. Sollte Regulierung definieren, welche konkreten schädlichen Inhalte auf Internet-Plattformen verboten werden?

Einige zentrale Punkte, die Bickert macht:

  • Spezifische Vorgaben und Fristen, wie sie etwa das NetzDG enthält, können eine gefährliche Anreizwirkung schaffen und zu Overblocking führen.
  • Sinnvoller als zeitliche Fristen zu setzen, sei es, die Reichweite von Inhalten zugrunde zu legen. Sonst löschten Plattformen womöglich Postings, die kaum jemand sehe, nur weil sie seit 22 Stunden online stehen, statt gefährliche Inhalte zu entfernen, die gerade erst veröffentlicht wurden und viele Menschen erreichen.
  • Pauschal die Reaktionszeit zu messen, halte Plattformen womöglich davon ab, automatisierte Werkzeuge zu bauen, die Inhalte aufspüren, die bislang nicht gemeldet wurden. Wenn diese dann nach Monaten oder Jahren entfernt würden, erhöhe das die durchschnittliche Reaktionszeit der Plattform und könnte zu Sanktionen führen.
  • Regulierungen sollte Plattformen eher verpflichten, bestimmte Systeme und Prozesse zu etablieren: Nutzerïnnen müssten Inhalte unkompliziert melden können, es brauche externe Kontrolle und Aufsicht sowie regelmäßige Transparenzberichte.
  • Unternehmen sollten ihre Standards für Content-Moderation veröffentlichen und transparent machen, wie diese entstanden sind. Nutzerïnnen könnten an der Weiterentwicklung beteiligt werden und eine Möglichkeit erhalten, Entscheidungen zu widersprechen – sowohl Löschungen als auch Nicht-Löschungen.
  • Content-Moderation auf Online-Plattformen funktioniere völlig anders als herkömmliche juristische Entscheidungen bei strafbaren Äußerungen. Es gehe um Millionen Fälle pro Tag, bei denen oft nur wenig Informationen zu Verfügung stünden und schnell entschieden werden müsse. Regulierung dürfe Plattformen nicht überfordern und müsse Standards schaffen, die skalierten und sich global umsetzen ließen.

Wie die Reaktionen ausfallen: Sehr gemischt. Aus der Tech-Branche kommt teils Zustimmung. Nick Pickles, bei Twitter für Public Policy Strategy zuständig, dankt Facebook in einem Twitter-Thread für das Whitepaper und nennt es einen wichtigen Beitrag zur Debatte über Tech-Regulierung.

Die EU-Kommission, die Zuckerberg am Montag besuchte, lehnt den Vorstoß dagegen ab (Politico). Nur einen Tag nach Zuckerbergs Op-ed in der FT forderte George Soros den Facebook-Chef und seine Stellvertreterin Sheryl Sandberg zum Rücktritt auf. Und auch das Editorial Board der Zeitung nennt Facebooks Vorschläge „zu schwach„.

Noch drastischer drückt es Chris Pedigo von der Verleger-Lobbyvereinigung Digital Content Next aus. Facebook halte sich nicht an bereits existierende Regulierungen wie die DSGVO, und Zuckerberg gehe es mit dem Vorstoß nur darum, die Verpflichtungen und Verantwortlichkeiten von Facebook zu minimieren.

Be smart: Es gibt keine perfekte Content-Moderation, und es wird sie niemals geben. Es ist gut, dass sich Facebook mit Vorschlägen einbringt. Was Bickert schreibt, mag vor allem den Status quo der aktuellen Diskussion abbilden, statt revolutionäre neue Ideen zu formulieren – das entwertet das Whitepaper aber nicht.

Auch Evelyn Douek, die an der Harvard Law School zu Content Moderation und Regulierung forscht, hält Bickerts Vorschläge für substanziell und ausgewogen (Lawfareblog): „Die Fragen und Sorgen, die Facebook aufwirft, sind real und kompliziert, und Regulatorïnnen sollten sie ernst nehmen“, schreibt Douek in ihrer Analyse.

Zwei Aspekte fehlen jedoch völlig:

    1. Facebooks umstrittener, weil ausgesprochen freigiebiger Umgang mit politischer Werbung taucht an keiner Stelle auf. Politikerïnnen dürfen bezahlte Lügen verbreiten, weil ihnen Facebook qua Amt Sonderrechte einräumt und nahezu unbegrenzte Redefreiheit gewährt.

 

  1. Zuckerberg selbst sagt: „Die Zukunft ist privat.“ Kommunikation verlagert sich, wie oben beschrieben, immer mehr in geschlossene Räume und auf verschlüsselte Messenger. Wie soll dort moderiert werden? Hofft Facebook, dass das Problem der Content-Moderation verschwindet, weil bald alle Nutzerinnen Ende-zu-Ende-verschlüsselt miteinander chatten? Ein 22-seitiges Whitepaper hätte diese gewaltige Herausforderung zumindest andeuten können.

Know more:

  • In den USA schützt Section 230 Plattformen davor, für Inhalte zu Rechenschaft gezogen zu werden. Vor allem die Trump-Regierung will diesen zentralen Baustein des Communications Decency Act kippen (Axios).
  • Das deutsche NetzDG war Vorbild für Autokratien und Diktaturen (Neunetz) – jetzt will auch die ÖVP ein ähnliches Gesetz in Österreich (Standard).
  • Deutschland selbst steuert auf ein schärferes NetzDG zu: Der Gesetzentwurf zur „Bekämpfung des Rechtsextremismus und der Hasskriminalität“, den das Kabinett am Mittwoch verabschiedet hat, sieht Änderungen an insgesamt sechs Gesetzen vor. Unter anderem müssten soziale Netzwerke von sich aus bestimmte strafbare Inhalte ans BKA melden. (Spiegel)

Kampf gegen Desinformation

Australien hat 17 Millionen Facebook-Userïnnen und 7 Fact Checker: Keine Pointe. (BuzzFeed News)

Instagram größer als Facebook (jedenfalls in dieser Untersuchung)

Was ist: Socialbakers hat sich die Top-50-Marken auf Facebook und Instagram angeschaut und dabei spannende Beobachtungen gemacht – z.B. verzeichnen die Top-50-Marken auf Instagram zum ersten Mal eine größere Audience als auf Facebook.

Weitere Key-Takeaways im Überblick:

  • Mehr Interaktionen bei Insta: Die Anzahl aller Interaktionen der untersuchten Seiten war auf Instagram 20 mal größer als auf Facebook. Das ist vor allem insofern bemerkenswert, als dass die Gesamtzahl der Posts auf Facebook deutlich größer als bei Instagram war.
  • Vertikale Videos performen besser: 70 Prozent der Videos auf den untersuchten Seiten sind horizontal. Vertikale stechen hervor und performen besser.
  • Frauen in der Mehrzahl: Mit Blick auf die untersuchten Seiten machten Frauen die Mehrheit der Fans und Follower aus – sowohl auf Instagram als auch auf Facebook. Auch interagieren Frauen im Alter von 25 bis 34 Jahren häufiger mit Brand Pages als andere.
  • Bedeutung von Stories wächst: Die Top-50-Marken haben wesentlich mehr Stories als Inhalte für den Feed gepostet. Auch sind die Ausgaben für Anzeigen in Instagram Stories arg gestiegen: im Zweijahresvergleich um satte 91 Prozent.

Read on: Social Media Trends Report Q4 (Google Drive)

Schon einmal im Briefing davon gehört

Instagram ohne Werbung: Instagram-Boss Adam Mosseri hat die Tage in einem Q&A auf Instagram verraten, dass es Nutzerïnnen gibt, die nicht eine einzige Anzeige zu sehen bekommen. Instagram möchte damit prüfen, welche Effekte Werbung, respektive das Weglassen von Werbung auf die Nutzerïnnen hat. Unser heißer Tipp: Seelenfrieden!

Empfehlungen

The original renegade: Ja, wir verlinken hier viel zu oft Stories von Taylor Lorenz. Völlig klar. Aber dieser Text über eine 14-jährige Tänzerin ist ein wunderschönes Beispiel für die gnadenlose Remix-Kultur im Internet und die Frage, ob Urheber bestimmer Trends, Memes, Dance-Moves im Social-Media-Zeitalter auch nur annähernd adäquat honoriert werden. Übrigens hat zwar Lorenz für ihren Text extrem viel Aufmerksamkeit bekommen, ein ganz ähnlicher Text ist aber bereits 10 Tage vorher bei Vox erschienen. 🤷‍♂️

Yuval Noah Harari & Tristan Harris haben sich zu einem ziemlichen Dreamteam entwickelt. In diesem Talk, der am Rande des Weltwirtschaftforums in Davos stattgefunden hat, sprechen die beiden über ‚Wahrheitszerfall und technologische Bedrohungen‘ – sehr, sehr spannend und defintiv die 45 Minuten wert. Hier ist das YouTube-Video der Veranstaltung.

Vice prüft zensierte Wörter bei YT-Stars: Es gibt bei YouTube in der Kommentarfunktion die Option, bestimmte Wörter auf eine schwarze Liste zu setzen. Das ist z.B. sinnvoll, um das Posten von Telefonnummern, Adressen oder beleidigende Kommentaren zu unterbinden. Das Feature ist eigentlich nicht dafür gedacht, Kritik zu unterbinden.

Neue Features bei den Plattformen

Facebook

  • Feed: Facebook bastelt am heiligen News Feed. Diesmal wird getestet, ob Nutzerïnnen gern zwischen den Tabs „Most relevant“, „most recent“ und „already seen“ hin- und herswitchen möchten. (@wongmjane)
  • Die Welt in 3D: Facebook hat ein VR-Startup gekauft, das an einer 3D-Karte der Welt arbeitet. (VR Scout)

Spotify

  • Show Trailer: Um Nutzerïnnen schneller aufzuzeigen, worum es in der Show geht, gibt es jetzt bei Spotify Apple-esque Podcast Show Updates. (Techcrunch)

Twitter

  • Chroma Labs: Twitter hat überraschend das Team gekauft, das maßgeblich für die Entwicklung von Instagram Stories und Boomerang verantwortlich zeichnet. Ob Twitter nun seine eigenen Stories bekommt? Well, es heißt, das Team würde zunächst an Threaded Comments arbeiten… (Techcrunch)

TikTok

  • Jetzt sichererererer: Laut Pressemitteilung können TikTok-Eltern nun die Nutzungszeit ihrer Kids begrenzen, Kontaktmöglichkeiten festlegen und einen eingeschränkten Modus aktivieren. (TikTok Newsroom)

Tipps, Tricks und Apps

YouTube Primer: Wer gerade erst damit beginnt, YouTube professionell zu nutzen, kann sich für einen sauberen Start gut an dieser Checkliste von Buzzsumo orientieren.

Pikaso: Instagram besteht ja zu einem Großteil aus Twitter-Screenshots. Weil das meistens ziemlich hässlich ist, hat jemand die App Pikaso programmiert, mit der sich Tweets sauber screenshotten lassen. Wäre vielleicht auch was für Twitter selbst, deren Account ja bekanntermaßen ebenfalls nur aus Twitter-Screenshots besteht. LOL.

Header-Foto von Danny Feng bei Unsplash

Digitales Lagerfeuer: Warum Messenger, Micro-Communities und Shared Experiences boomen

Digitales Lagerfeuer: Warum Messenger, Micro-Communities und Shared Experiences boomen

Was ist: Die Zeit, die Menschen mit Social-Media-Angeboten verbringen, steigt weltweit.¹ Und auch die Plattformen selbst wachsen – mit Blick auf den Umsatz und auch hinsichtlich der Nutzerzahlen.² Soweit alles bekannt. Wer allerdings etwas tiefer gräbt, bekommt ein wesentlich nuancierteres Bild. Denn junge Menschen sind für diese Steigerungen nur bedingt verantwortlich. Sie versammeln sich nämlich zunehmend lieber um digitale Lagerfeuer. Genauer gesagt boomen derzeit…

  • Messenger (WhatsApp, FB Messenger, iMessage, IG Close Friends)
  • Micro-Communities (FB Gruppen, Slack, Discord, Subreddits)
  • Shared Experiences (Fortnite, Twitch)

Was genau hat sich verändert?

  • Eine Studie von Edison Research und Triton Digital zeigt, dass die Social-Media-Nutzung von 13- bis 34-jährigen Amerikanerïnnen stagniert, bzw. sogar abnimmt.
  • Eine Untersuchung des Global Web Index unterstreicht diese Tendenz und zeigt, dass die mit Social Media verbrachte Zeit in der Generation Y (aka Millennials) und Z nicht so stark wächst wie in den Jahren zuvor.
  • Auch in Deutschland erfreuen sich Instagram und Facebook laut aktueller ARD-ZDF-Onlinestudie zwar weiterhin grundsätzlich großer Beliebtheit, längst hat sich aber WhatsApp als populärstes Kommunikationswerkzeug etabliert.

Warum ist das so?

  • Nachdem Menschen jahrelang an ihren digitalen Identitäten gepfeilt haben und dabei jede Menge Freunde, Bekannte, Verwandte, Fremde und Kollegen angehäuft haben, sehnen sie sich nun auch online nach Freundschaften, die vor allem auf geteilten Interessen beruhen.
  • Auch teilen viele Social-Media-Nutzerïnnen ein großes Verlangen danach, wieder authentisch agieren zu können. Nicht von ungefähr löschen Kids ihre Posts mitunter genauso schnell, wie sie sie gepostet haben (WSJ). Nicht zufällig sind Finstas und FikFoks (Fake Instagram-, bzw. TikTok-Accounts) unter jungen Menschen weit verbreitet. Das Ziel: jenseits der akkurat gepflegten (pseudo-öffentlichen) Profile endlich einmal richtig privat³ sein – fernab von Eltern und anderen Personen, vor denen auf bestimmte Art performt werden muss.

Die drei Arten des digitalen Lagerfeuers: Für das Harvard Business Review hat Sara Wilson drei Kategorien herausgearbeitet, um den Trend besser zu beschreiben:

  • Messenger: „Privates Messaging oder in Kleingruppen – in der Regel, aber nicht immer, mit Freunden aus dem wirklichen Leben.“ Primäre Anbieter, die dafür genutzt werden: WhatsApp, Facebook Messenger, iMessage oder auch Instagram DM / Close Friends.
  • Micro-Communities: „Interaktive, private / halbprivate Foren, in denen sich Menschen um Interessen, Hobbies oder Überzeugungen versammeln.“ Facebook Gruppen sind hier das bekannteste Beispiel. Aber auch Slack dient häufig abseits der Arbeitskommunikation zum gezielten Austausch. Ähnliches gilt für Discord, Subreddits oder auch YouTube-Kommentarspalten.
  • Shared Experiences: „Private oder öffentliche Foren, bei denen die Teilnahme an einer gemeinsamen Erfahrung – oft um ein bestimmtes gemeinsames Interesse herum – mit einer gleichgesinnten Gemeinschaft der Hauptzweck des Treffens ist.“ Insbesondere Spiele wie Fortnite schaffen es, solche ‚Shared Experiences‘ zu kreieren. Aber auch Challenges bei TikTok oder Livestreams bei Twitch können digitale Lagerfeuer-Atmosphäre erzeugen.

Be smart: Wer junge Menschen erreichen möchte, muss auch darum kämpfen, einen Platz am digitalen Lagerfeuer einnehmen zu dürfen. Das kann über verschiedene Strategien funktionieren:

  • Orte erschaffen, an denen Menschen ihre Bedürfnisse befriedigt sehen. Das kann eine Facebook Gruppe zu einem bestimmten Thema sein. Das kann ein Konzert innerhalb einer „Shared Experience“ sein. Das kann Kommunikation auf Augenhöhe sein, die über Messenger angeboten wird.
  • Inhalte kreieren, die nicht nur dafür gedacht sind, dass Menschen sie teilen, um damit ein Stück ihrer eigenen digitalen Identität zu unterstreichen. Es gilt, sich von „identity-driven content“ zu lösen und Content zu erschaffen, der zur Partizipation und Diskussion einlädt – quasi „actionable content“.
  • Partnerschaften eingehen, um nicht Gefahr zu laufen, den Menschen auf die Nerven zu gehen. Denn eigentlich galt ja schon immer: Niemand meldet sich bei Facebook an, um mit (Namen einer beliebigen Organisation / eines beliebigen Unternehmens hier einfügen) befreundet zu sein.

¹ Digital Trends 2020 (The Next Web)
² FB Q4 Earnings, Twitter Q4 Earnings, Snap Q4 Earnings
³ Es handelt sich dabei natürlich nur um eine gefühlte Privatsphäre – es findet weiterhin alles im Vorgarten von Mark Zuckerberg und Co statt.
⁴ Das Folio Mag hat einen spannenden Artikel zum Thema veröffentlicht: Publishers Share Their Social Distribution Secrets.


Grafik: Julia Tripke

Social Science One, Bloombergs Social Media Strategie, Apps, die vor Apps schützen

Salut und herzlich Willkommen zur 615. Ausgabe des Social-Media-Watchblog-Briefings. Heute beschäftigen wir uns mit dem Datensatz, den Facebook Wissenschaftlerïnnen bereitstellt, um Facebook besser zu erforschen. Ferner geht es um Bloombergs Social-Media-Strategie und Apps, die vor Apps schützen. Wir bedanken uns für das Interesse an unserem Newsletter und wünschen einen angenehmen Dienstag! Simon und Martin

Facebook teilt seinen Datenschatz mit Wissenschaftlerïnnen – mit Einschränkungen

Was ist: Rohdaten in einer Größenordnung von einer Million Terabyte, mehr als zehn Milliarden Datenpunkte zu 38 Millionen URLs – diesen Datensatz gibt Facebook für die Forschung frei (Social Science One). Allerdings kommt die Veröffentlichung mit fast zwei Jahren Verspätung, und es gibt wichtige Einschränkungen.

Warum das wichtig ist: Erstmals erhalten unabhängige Wissenschaftlerïnnen, die nicht von Facebook bezahlt werden, direkten Zugriff auf derart umfangreiche Facebook-Daten. Das betrifft nicht nur den Umfang, sondern auch die Detailtiefe: Einige der enthaltenen Informationen hatte Facebook jahrzehntelang unter Verschluss gehalten. Sie könnten wertvolle sozialwissenschaftliche Erkenntnisse ermöglichen.

„Die Dringlichkeit dieser Forschung kann gar nicht überschätzt werden“, schrieben die beiden Leiter der Initiative Social Science One bereits im vergangenen Jahr. In ihrer aktuellen Ankündigung machen Gary King und Nathaniel Persily die Bedeutung klar. Wissenschaftlerïnnen könnten damit „einige der wichtigsten Fragen unserer Zeit erforschen, was den Einfluss von Social Media auf die Demokratie und Wahlen angeht“.

Was der Datensatz enthält: Es geht um 38 Millionen URLs, die zwischen Januar 2017 und Juli 2019 mindestens 100 Mal öffentlich geteilt wurden. Wissenschaftlerïnnen, denen Facebook Zugriff gewährt, sehen Informationen über die Links, etwa ob sie als Falschmeldung eingestuft oder von Nutzerïnnen gemeldet wurden. Zudem erfahren sie in aggregierter, anonymisierter Form, wer mit den Links interagiert hat. Den genauen Inhalt beschreibt Social Science One in diesem PDF-Dokument.

Warum es so lange gedauert hat: Im April 2018 schrieben Facebooks Kommunikationschef Elliot Schrage und David Ginsberg, der die Forschungsabteilung leitet: „Heute kündigt Facebook eine neue Initiative an, um unabhängige glaubwürdige Forschung zum Einfluss von Social Media auf Wahlen zu ermöglichen.“ Es war der Start des Projekts Social Science One, das Wissenschaftlerïnnen kontrollierten Zugriff auf Daten Tech-Unternehmen geben sollte.

Die beiden leitenden Forscher King und Persily gingen damals davon aus, dass es zwei Monate dauern werde, bis sie und ihre Kollegïnnen mit den Daten arbeiten können – tatsächlich dauerte es nun fast zwei Jahre. Die Verzögerung hat mehrere Gründe:

  • King und Persily dachten, dass Facebook bereits technische, politische und juristische Vorarbeit geleistet hätte. De facto steckte das Projekt damals aber noch in den Kinderschuhen, und die beiden Forscher verbrachten die vergangenen 20 Monate damit, mit Facebook zu verhandeln.
  • Eine zentrale Herausforderung war es, die Daten zu anonymisieren, um keine Rückschlüsse auf einzelne Nutzerïnnen zuzulassen. Davor hatten die Electronic Frontier Foundation und andere Datenschützerïnnen gewarnt.
  • Facebook und die Forscherïnnen probierten unterschiedliche Methoden aus, bis sie sich schließlich das Konzept Differential Privacy adaptierten. Vereinfacht gesagt versehen sie die Daten mit einem gewissen Rauschen, damit sie nicht mehr deanonymisiert werden können. Auch andere Unternehmen wie Apple nutzen diese Technik, um Datensätze auszuwerten und gleichzeitig die Privatsphäre der enthaltenen Personen zu wahren.
  • Früher konnten Wissenschaftlerïnnen viele wertvolle Daten über Facebooks APIs sammeln, diese Schnittstellen wurden nach der Cambridge-Analytica-Affäre allerdings abgedreht.
  • Cambridge Analytica war Katalysator und Hindernis zugleich: Ohne den Skandal gäbe es Social Science One wohl erst gar nicht – aber Facebook will ein ähnliches Fiasko unbedingt verhindern und ist deshalb vorsichtig bis restriktiv, was das Teilen von Daten angeht.
  • Ein weiteres Problem war die DSGVO, genauer gesagt: Facebooks Interpretation der DSGVO. Das Unternehmen legte die Datenschutzvorschriften offenbar sehr streng aus und wollte bloß kein Risiko eingehen – ein Ansatz, den Facebook bei Daten, die sich kommerziell verwerten lassen, nicht immer genauso konsequent verfolgt.
  • Manche der beteiligten Forscherïnnen kritisieren Facebooks Vorsicht als übertrieben oder halten sie gar für vorgeschoben. Sie sagen aber auch, dass EU-Kommission und FTC eindeutigere Vorgaben schaffen müssen, wie und unter welchen Voraussetzungen Tech-Unternehmen Daten mit der Wissenschaft teilen dürfen.

Die beste Zusammenfassung des zähen Ringens um die Freigabe liefert Stanford-Professor Persily: „Sie können mich gern damit zitieren: Das war die frustrierendste Angelegenheit, an der ich in meinem ganzen Leben beteiligt war“, sagt der Forscher (Protocol).

Be smart: Als Außenstehender ist es einfach, Facebook an den Pranger zu stellen. 20 Monate Verzögerung, wenn es darum geht, Daten für die Forschung zu teilen – wie lange es wohl gedauert hätte, wenn es nicht um Wissenschaftlerïnnen, sondern um Werbekunden gegangen wäre?

Ein Teil dieser Kritik ist vermutlich berechtigt. Schließlich haben auch viele Forscherïnnen, die an dem Projekt beteiligt waren oder sind, ihre Frustration teils vorsichtig (NYT), teils deutlich zum Ausdruck gebracht (BuzzFeed) und sogar mit dem Ausstieg gedroht (SSRC). Der Datenanalyst Philip Kreißel weißt außerdem darauf hin, dass Twitter ähnliche Daten dauerhaft über seine API bereitstelle.

Auch hinter der Qualität steht ein Fragezeichen. „Wir sind ziemlich sicher, dass die Daten für unsere Frage so nicht taugen“, sagte der deutsche Politikwissenschaftler Simon Hegelich, nachdem Facebook im vergangenen Oktober einen ersten Datensatz veröffentlicht hatte (SZ). Hegelich wollte untersuchen, welche Auswirkungen gezielte Desinformation auf die Bundestagswahl 2017 hatte. Da Facebook nach wie vor keine Informationen über URLs herausrückt, die in privaten Gruppen geteilt wurden, fehlt ein zentraler Baustein.

Man kann es aber auch anders sehen und sagen: besser spät als nie, besser gründlich anonymisiert als überstürzt veröffentlicht. Facebook kann es niemandem Recht machen: In einem Fall klagen die Datenschützerïnnen, im anderen Fall die Wissenschaftlerïnnen.

Es ist gut möglich, dass ein Projekt, von dem Facebook kommerziell profitiert hätte, mit anderen Ressourcen ausgestattet worden wäre. Die Löschfunktion Off-Facebook Activity, die Nutzerïnnen mehr Kontrolle über ihre Daten geben soll, ließ ebenfalls mehr als anderthalb Jahre auf sich warten (SZ).

Dasselbe gilt aber auch für Projekte wie Libra, hinter dem sehr wohl ein (gewaltiges) finanzielles Interesse steckt. Deshalb: Die Verzögerung ist bedauerlich, die Limitierungen sind schmerzhaft, aber es ist gut, dass es Social Science One überhaupt gibt. Ein endgültiges Urteil wird erst möglich sein, wenn Wissenschaftlerïnnen die ersten Forschungsprojekte veröffentlichen, die auf den neuen Daten basieren.

Know more: Was Anonymisierung von Pseudonymisierung unterscheidet, und warum es so schwierig es, Daten zuverlässig und dauerhaft zu anonymisieren, erklärt der Bundesdatenschutzbeauftragte Ulrich Kelber im Netzpolitik-Interview: „‚Anonym‘ ist höchstens eine Momentaufnahme

Influencer-Politik-Marketing

___STEADY_PAYWALL___

Was ist: In der vergangenen Ausgabe haben wir bereits kurz über Michael Bloombergs Social-Media-Strategie berichtet. Konkret ging es um die Idee des milliardenschweren US-Präsidentschaftsbewerbers, beliebte Meme-Maker auf Instagram dafür zu bezahlen, Bloomberg-Memes zu verbreiten. Die New York Times berichtete ausführlich. Heute wollen wir noch einmal etwas genauer hinschauen.

Warum ist das Thema wichtig?

    1. Zunächst einmal ist es wichtig festzuhalten, dass es Bloomberg bei seiner Strategie gar nicht so sehr darauf ankommt, was mit den Memes auf Instagram selbst passiert. Ob sie beim Publikum verfangen, ist eher zweitrangig. Wichtig ist Bloomberg vor allem, dass er Aufmerksamkeit von traditionellen Medien bekommt. Alle, die über Bloombergs Strategie berichten, respektive die Memes weiterverbreiten, werden somit automatisch Teil des Bloombergschen Zirkus. Eine Strategie, die wir bereits von Trump kennen. Mike Bloomberg is hacking your attention. (New York Times)

 

    1. Bislang waren auf Facebook und Instagram sogennante „sponsored posts by campaigns“ verboten. Und auch mit Blick auf das amerikanische Wahlrecht bewegt sich Bloomberg mit seinen Memes in einer Grauzone – gerade auch hinsichtlich der Kooperation mit Influencern.

 

  1. Die FTC hatte jüngst erklärt, künftig sehr viel drastischere Strafen auszusprechen (Techcrunch), wenn Influencerïnnen nicht für alle Userïnnen sofort auf einen Blick nachvollziehbare Kooperationen eingehen. Die Memes von Bloomberg waren jedenfalls nicht durch die Bank sauber gekennzeichnet.

Wie Facebook & Instagram reagieren: Als Reaktion auf Bloombergs Kampagne erklären Instagram und Facebook, dass Wahlwerbung, die von Influencerïnnen verbreitet wird, künftig über das Branded-Content-Ads-Tool als „Paid Partnership“ deklariert werden muss. Zudem erklären die Unternehmen, dass diese Form der Werbung nicht in die Ad Library aufgenommen wird, sie aber sehr wohl einem Fact Checking unterzogen werden könnten – und zwar dann, wenn Influencerïnnen so tun, als würden sie für den Kandidaten sprechen. Zitat:

„So for example, if an influencer posted “I support Bloomberg because he’s a veteran and a war hero”, that would be in their own voice and could be fact-checked as false since he did not serve in the armed forces. But if an influencer posted “Michael Bloomberg says ‘Vote for me. I’m a war hero’”, that would be in the politician’s voice and ineligible for fact-checking.“

Be smart: Influencer Marketing ist bereits jetzt häufig ein Albtraum (BuzzFeed). Sowohl mit Blick auf die Rechtssicherheit für Influencerïnnen als auch mit Blick auf die bewusste Irreführung von Nutzerïnnen. Sollte nun die Politik künftig stärker auf Influencer Marketing setzen, könnte es noch ein Stück unübersichtlicher werden.

Know more:

  • Nicht wirklich Influencer Marketing, aber auch in Deutschland tut sich etwas an der Schnittstelle Social Media und Politik: Kollege Martin Fuchs arbeitet an einer Übersicht aller deutschen Politikerïnnen bei TikTok. Hier geht es zum Google Sheet.

Streaming Wars

YouTube, still king in the ring: Immer mehr Menschen konsumieren Medieninhalte über Smartphones. Bislang hat YouTube dabei die Nase vorn – und zwar um Längen. Angebote wie Netflix oder Quibi werden sich ziemlich strecken müssen, um YouTube den Rang abzulaufen. (The Verge)

Snapchat auf Expansionskurs: Die Kollegen von DWDL haben sich von Snapchat erklären lassen, warum sie neben den erfolgreichen US-Formaten künftig auch stärker lokale Serien bei Snapchat Discover anbieten wollen. Zitat:

„Unsere jungen Nutzer empfinden ihren Feed als ähnlich kostbar wie viele Ältere die Sendezeit im TV. (…) Deshalb verlesen wir unsere Partner sorgfältig von Hand, ungefähr so, wie man seine besten Freunde aussuchen würde.“

Inspiration

Was sich mit Twitter-Threads so alles anstellen lässt: Twitter UK hat den Valentinstag zum Anlass genommen, die Macht von Twitter Threads unter Beweis zu stellen. Sehr, sehr cool! Wer sich näher damit beschäftigen möchte, klickt hier oder auf den Screenshot.

Schon einmal im Briefing davon gehört

Google Maps schafft Tatsachen: Zwar ist das Phänomen spätestens seit der Krim-Krise bekannt, aber dieses Video der Washington Post zeigt noch einmal sehr eindrücklich, wie Google je nach Betrachter unterschiedliche Grenzen auf Karten zieht. Eigentlich total verrückt.

Facebooks Satelliten-Projekt: Während Elon Musk bereits konkret an einem weltumspannenden Internet-Satelliten-Schirm arbeitet (Wikipedia), schien es etwas ruhig geworden um Facebooks Ambitionen, Facebook-Internet bis in den letzten Winkel der Erde zu bringen. Doch wie es aussieht, sind die Pläne keineswegs abgehakt. Bereits im März könnte das Projekt wieder abheben. (Business Insider)

Modern day eBay: Beim Schreiben dieser Zeilen komme ich (Martin) mir gerade wahnsinnig alt vor, aber ich habe im Internet gelesen (😂), dass Instagram von vielen Kids als moderne Variante von Bay genutzt wird. Das Phänomen war mir so bislang nicht bekannt, macht aber natürlich total Sinn. Beim Input Mag wird ausführlich beschrieben, wie (und warum) die Kids das machen: Teens are hacking Instagram into a modern-day eBay. Spoiler: Es geht um Money, Fame und Nachhaltigkeit.

The Social Dilemma: Der preisgekrönte Filmemacher Jeff Orlowski widmet sich in seinem neuesten Projekt den sozialen Medien. Genauer gesagt widmet er sich vor allem den Schattenseiten. Zitat:

„This potent documentary (…) lends a podium to various experts who are certain the pervasive influence of under-regulated social media is destroying civilization from within. The problem, to paraphrase Mark Twain, is that it’s much easier to manipulate people than to persuade them they’re being manipulated.“

Der Film The Social Dilemma gehörte beim renommierten Sundance Festival jedenfalls zu den Streifen, über die am meisten diskutiert wurde. Ich bin sehr, sehr gespannt auf die Doku! (Variety)

Neue Features bei den Plattformen

Instagram

  • Latest Posts: Nein, liebe Freunde des chronologisch sortierten Instagram-Feeds, das Test-Feature Latest Posts bedeutet nicht die Rückkehr des geliebten Instagram-Features. Sehr wohl zeigt das Ergebnis des Hackathons aber, dass sich die Programmierer bei Instagram darüber im Klaren sind, wie sehr Userïnnen die Funktion noch immer lieben. (Techcrunch)

Facebook

  • Hobbi: Facebooks Kreativ-Abteilung NPE hat die nächste Test-App auf den Markt gehauen: Hobbi ist dafür gedacht, persönliche Projekt zu dokumentieren – etwa die Renovierung der Wohnung, die Umgestaltung des Gartens, den Aufbau der Modelleisenbahn oder was auch immer. Die App erinnert irgendwie an eine Mischung aus Pinterest und Mini-Youtube und ist bislang nur in den USA, Kolumbien, Belgien, Spanien und der Ukraine verfügbar. (Techcrunch)

LinkedIn

  • Feature on top of profile: Von WordPress, Facebook und Twitter kennen wir bereits die Option, bestimmte Posts ganz oben im Profil zu pinnen. Es sieht ganz danach aus, als wäre dies bei LinkedIn künftig auch möglich (Twitter / JuliaBramble)

 

Tipps, Tricks und Apps

Apps, die einen vor Apps beschützen, erfreuen sich zunehmender Beliebtheit. Der Grund dafür liegt auf der Hand: Zwar erlauben Social-Media-Plattformen und Suchmaschinen ziemlich differenzierte Privatsphäre-Einstellungen, die allermeisten Nutzerïnnen haben aber keinen Bock, sich mit ihnen vollends vertraut zu machen. Angebote wie disconnect.me oder Jumbo ermöglichen es Nutzerïnnen, all diese Einstellungen zentral und komfortabel vornehmen zu können. Kollege Alex Hern stellt die Apps beim Guardian vor und erklärt, was bei der Nutzung berücksichtig werden sollte.

Remember Hipstamatic: Die populärste Foto-Sharing-App der Welt ist heute ohne jeden Zweifel Instagram. Dass es so kam, war aber mitnichten ein Selbstläufer. 2010 sah es zunächst so aus, als würde Hipstamatic das Rennen für sich entscheiden. Die Macher der Bezahl-App freuten sich zum damaligen Zeitpunkt über rund 4 Millionen Nutzerïnnen, sie wurden gar von Apple zur „App of the Year“ ausgezeichnet. Das Problem: Hipstamatic war als kreatives Werkzeug gedacht, nicht als Social Network. Als sie Instagrams Erfolg registrierten, packten sie rasch eine Social-Network-Komponente obendrauf und wurden – eigentlich zu unrecht – als Trittbrettfahrer wahrgenommen. Die Folge: Geldgeber glaubten nicht länger an Hipstamatic, die Weiterentwicklung geriet ins Stocken. Seit ein paar Monaten nun ist Hipstamatic wieder am Start – mit neuen Features und einer überarbeiteten UI. Matthias Schüssler beschreibt, was es mit der Neuauflage der App auf sich hat.

Header-Foto von Jan Gegne bei Unsplash

Rechtsextreme Netzwerke, Bloombergs Social-Media-Strategie, Dating und Datenschutz, Instagram Stories, TikTok und YouTube gleichzeitig produzieren

Salut und herzlich Willkommen zur 614. Ausgabe des Social-Media-Watchblog-Briefings. Heute beschäftigen wir uns intensiv mit einer Studie, die zeigt, wie sich Rechtsextreme online vernetzen. Zudem geht es um Bloombergs Social-Media-Aufholjagd, Dating und Datenschutz sowie um die Frage, wie sich eigentlich für Instagram, TikTok und YouTube gleichzeitig drehen lässt. Herzlichen Dank für das Interesse an unserem Newsletter, Simon und Martin

Von Telegram bis 4chan: Wo sich Rechtsextreme vernetzen

Illustration: Julia Tripke / Social Media Watchblog

Was ist: Jakob Guhl, Julia Ebner und Jan Rau haben für das Londoner Institute for Strategic Dialogue (ISD) analysiert, wie rechtsextreme Online-Subkulturen auf alternativen Plattformen gedeihen. Die Studie trägt den Titel „Das Online-Ökosystem Rechtsextremer Akteure“. Das 76-seitige PDF liegt bislang nur auf Englisch vor. Bei der Bosch-Stiftung, die das Projekt gefördert hat, gibt es eine deutsche Zusammenfassung (PDF, zwölf Seiten).

Warum das wichtig ist: Allein im vergangenen Jahr gab es vier rechtsextrem motivierte Terroranschläge (Christchurch, El Paso, Poway, Halle). Die Täter waren junge, weiße Männer, die sich mit Gleichgesinnten auf Imageboards wie 8chan ausgetauscht und in ihrem Hass auf Frauen, Ausländer und Jüdïnnen bestätigt hatten. Sie übertrugen ihre Morde live ins Netz (der Täter von Poway versuchte es vergeblich) und veröffentlichten krude Pamphlete, die Bezug auf rassistische Memes und Verschwörungstheorien wie den „großen Austausch“ nehmen.

Diese Subkultur ist also mehr als eine Parallelwelt voller extremistischer Spinner, die im Netz zur Gewalt aufrufen. Einige von ihnen machen ihre Drohungen war. Sie bauen Waffen und ermorden Menschen. In den vergangenen fünf Jahren haben rechtsextrem motivierte Terroranschläge stark zugenommen (die Studie spricht von 320 Prozent, gibt aber keine Quelle an). Das alternative Online-Ökosystem hat definitiv dazu beigetragen.

Was die Forscherïnnen untersucht haben: Die Digital Analysis Unit des ISD hat sich vor allem mit deutschsprachigen und auf Deutschland fokussierten Communities beschäftigt. Mit qualitativen und quantitativen Methoden wie Befragungen und automatisierten Textanalysen beleuchten die Wissenschaftlerïnnen insgesamt zehn alternative Plattformen und deren Nutzerïnnen.

Dazu zählen sechs ultralibertäre Plattformen, die nahezu bedingungslose Redefreiheit versprechen und damit Rechtsextreme anziehen: 8chan, Telegram, Minds, Voat, Gab und BitChute. Hinzu kommen vier „gekaperte“ Plattformen, die nicht nur, aber auch von Extremistïnnen genutzt werden: 4chan, Reddit, VK und Discord.

Was die Forscherïnnen herausgefunden haben: Die komplette Studie wiederzugeben, sprengt dieses Briefing. Deshalb picken wir einige Erkenntnisse heraus, die wir für besonders wichtig und/oder überraschend halten:

  • Auf den untersuchten Plattformen sind 15.000 bis 50.000 Personen mit rechtsextremen Ansichten aktiv. Im Vergleich zu großen Plattformen wie Facebook sprechen wir also von einer kleinen, aber umso radikaleren Minderheit.
  • Unter den 379 Gruppen und Kanälen dominieren muslimfeindliche Akteure (104) und Neonazis (92). Die größte Reichweite weisen identitäre Kanäle auf.
  • Auf 4chan enthalten mehr als die Hälfte der Beiträge über Jüdïnnen klar antisemitische Narrative. Dahinter steckt nicht nur eine toxische Diskussionskultur, sondern eine antisemitische Grundstimmung.
  • Für die AfD spielen die alternativen Plattformen keine große Rolle. Die Partei nutzt eher etablierte soziale Medien.
  • Die Beweggründe, aus denen Menschen die Angebote nutzen, unterscheidet sich stark: Auf Gab treibt die Nutzerïnnen etwa die Sorge um Meinungsfreiheit um. Wer auf dem anarchischen 4chan-Board /pol/ postet, lehnt Minderheiten ab oder will unterhalten werden.
  • Einwanderung und angeblich kriminelle Flüchtlinge sind die am häufigsten diskutierten Themen über alle Plattformen hinweg. Zwölf Prozent der Beiträge erwähnen die Verschwörungstheorie des „großen Austausch“.
  • Rechtsextreme Influencerïnnen, deren Accounts auf den großen Social-Media-Plattformen gesperrt wurden, weichen hauptsächlich auf Telegram aus.
  • Nur ein kleiner Teil der untersuchten Postings enthält Aufrufe zur Gewalt. Obwohl die meisten Inhalte nicht eindeutig strafbar sind, erzeugen die von Ressentiments und Rassismus dominierten Beiträge „das Gefühl dringenden Handlungsbedarfs zum vermeintlich notwendigen Schutz der Eigengruppe“.
  • Eine solche Grundstimmung kann zu gewalttätigem Extremismus und Terroranschlägen führen, ohne dass direkt zu Gewalt aufgerufen wird.
  • Deplatforming scheint zu wirken: Wenn rechtsextreme Akteure von großen sozialen Netzwerken gesperrt werden, können sie meist nur einen kleinen Teil ihrer Followerïnnen auf alternative Plattformen mitnehmen.
  • Eine Stichprobe von 25 Gruppen hat auf Nischenkanälen zehn Mal weniger Reichweite als auf etablierten Plattformen. Wer weiter auf den großen Netzwerken aktiv ist, gewinnt auch in der Subkultur an Einfluss. Im Umkehrschluss führt eine Verbannung nicht zu einer Massenabwanderung der Followerïnnen in die Nische.

Was die Forscherïnnen empfehlen: Im Gegensatz zu den recht konkreten Ergebnissen bleiben die Handlungsempfehlungen eher allgemein und abstrakt. Das spricht aber nicht gegen die Wissenschaftlerïnnen, sondern zeigt nur, dass es für ein komplexes Problem keine einfachen Lösungen gibt.

Guhl, Ebner und Rau sehen alle gesellschaftlichen Akteure gefordert: Politik, Tech-Unternehmen, Zivilgesellschaft und Forschung müssten gemeinsam tätig werden, um Radikalisierung zu verhindern. Dazu zählen sie unter anderem diese Maßnahmen:

  • Große soziale Netzwerke sollen mit alternativen Plattformen zusammenarbeiten, damit diese terroristische und extremistische Inhalte besser erkennen und bekämpfen können. Für Angebote wie Gab oder 8chan, die sich aktiv gegen solche vermeintliche Zensur wehren, ist das allerdings keine Option.
  • Regierungen müssen gemeinsam mit Forscherïnnen neue Definitionen von (Rechts-)Terrorismus entwickeln und festlegen, wo Strafbarkeit beginnt. Das ist eine Voraussetzung, um Inhalte zu löschen.
  • Wer digital belästigt, bedroht oder angegriffen wird, braucht einfacheren Zugang zu juristischer und psychosozialer Unterstützung. Die Täterïnnen, die versuchen, ihre Opfer einzuschüchtern und zum Schweigen zu bringen, müssen konsequenter ermittelt und bestraft werden.
  • Auch die etablierten Plattformen stehen in der Verantwortung: Ihre Algorithmen, die der Logik der Aufmerksamkeitsökonomie folgen, empfehlen oft radikalisierende Inhalte, die Nutzerïnnen immer weiter ins Extrem treiben. Hier regen die Forscherïnnen eine gesetzliche verankerte Sorgfaltspflicht für Plattformbetreiber an.
  • Wenn Plattformen Accounts sperren, sollen sie die Entscheidungen nachvollziehbar und öffentlich begründen. Andersherum braucht es transparente Prozesse für Nutzer ïnnen, die sich gegen eine Sperre wehren wollen, die sie als ungerechtfertigt empfinden.
  • Systematische Monitoring und Machine-Learning-Technologien können helfen, konkrete Drohungen frühzeitig zu erkennen und mögliche Anschläge zu verhindern.
  • Lehrkräfte, Eltern und Sozialarbeiterïnnen sollen geschult und für die Gefahr sensibilisiert werden, die von alternativen Plattformen ausgeht.
  • Da sich die Online-Subkulturen immer weiter dezentralisieren und auffächern, sind plattformübergreifende Analysen und Forschung nötig. Damit können Wissenschaftlerïnnen dazu beitragen, die rechtsextremen Online-Ökosysteme auszuleuchten, die Verbreitungswege der Inhalte nachzuvollziehen und die Motivation der Nutzerïnnen besser zu verstehen. Nur dann ist es möglich, effektive Gegenstrategien zu entwickeln.

Be smart: Im vergangenen Jahr haben wir uns mehrfach mit der Rolle beschäftigt, die Netz, Medien und Online-Subkulturen für Terroranschläge spielen. Die Analyse aus Briefing #586, die wir nach dem Massenmord von Halle geschrieben haben, ist nach wie vor aktuell.

Einen Aspekt betonen wir erneut, da er in der Studie nur sehr am Rande auftaucht: Auch klassische Medien haben eine Verantwortung. Es gibt den Werther-Effekt nicht nur für Selbstmorde, sondern auch für Terrorismus. Die Art und Weise, wie Journalistïnnen über Attentäter berichten, ist entscheidend, ob sie ihr Ziel erreichen.

Diese Terroristen inszenieren ihre Morde nicht für die anderen Anons auf ihren Imageboard, sondern für eine massenmediale Öffentlichkeit. Sie wollen Schrecken verbreiten und streben maximale Aufmerksamkeit an. Es liegt auch an Zeitungen, Fernsehsendern und Online-Medien, das zu verhindern.

Know more:

Kampf gegen Hass & Desinformation

___STEADY_PAYWALL___

Künast wehrt sich, Part 1: AfD-Büroleiter muss zahlen: Das Landgericht Frankfurt hat den Büroleiter des AfD-Bundestagsabgeordneten Leif-Erik Holm dazu verurteilt, Renate Künast 3000 Euro Entschädigung zu zahlen. Es geht um einen Tweet aus dem Jahr 2015, in dem der Angeklagte durch ein unvollständiges Zitat fälschlicherweise nahelegt, dass Künast Sex mit Minderjährigen verharmlose. Das Gericht stuft das rechtlich wie eine unwahre Tatsachenbehauptung ein. (Quelle: SZ)

Künast wehrt sich, Part 2: Rechtsextremer Blogger muss zahlen: Sven Liebich hatte Künast auf seinem Blog „Halle Leaks“ übel beschimpft und wurde in erster Instanz freigesprochen (Quelle: Morgenpost). Nun hat ihn das Berliner Landgericht doch noch zu 10.000 Euro Schadenersatz verurteilt. Auch Liebich hatte Künast bewusst falsch zitiert und damit 85.000 Interaktionen in sozialen Medien ausgelöst. (Quelle: Morgenpost)

Facebook lässt Reuters Fakten prüfen: Das US-Factchecking-Netzwerk von Facebook wächst. Die Agentur Reuters ergänzt die bisherigen Medienpartner Lead Stories, Politfact, Daily Caller, Factcheck.org, AFP, AP und Science Feedback und soll unter anderem Deep-Fake-Videos überprüfen (Quelle: Techrunch). Die Faktenchecks wird Reuters an dieser Stelle auch auf seiner eigenen Webseite auflisten.

Apropos Faktenchecker: Wertvoller Kontext kommt von Judd Legume, der in seinem Newsletter Popular Information hochrechnet, wie wenig Geld Facebook insgesamt für seine Factchecking-Bemühungen ausgibt:

Facebook’s total investment in 2019 would be about $1.2 million. That’s an investment of 0.0016% of its 2019 revenue. For perspective, it takes Facebook about 9 minutes to bring in $1.2 million in revenue. So one of the reasons why very little U.S. content is checked by Facebook is because Facebook spends very little money on the program.

Deutschland darf die Meinungsfreiheit im Netz nicht gefährden: 13 Vereine und Organisationen haben der Justizministerium einen offenen Brief geschrieben (Quelle: Digitale Gesellschaft). Wikimedia, DJV, die netzpolitische Verbände der Parteien, die Gesellschaft für Informatik und weitere Unterzeichnerïnnen fordern Christine Lambrecht auf, zwei aktuelle Gesetzentwürfe grundlegend zu überarbeiten, weil diese Grundrechte einschränkten. Konkret geht es um das „Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität“ und das „Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes“. Beide sollen eigentlich die Meinungsfreiheit schützen, gefährden aber Freiheitsrechte.

Bislang handelt es sich nur um Referentenentwürfe, die in dieser Form nicht verabschiedet werden dürften. Insbesondere die Verpflichtung zur Herausgabe von Passwörtern war heftig kritisiert worden und wird wohl noch überarbeitet. Dennoch ist es gut und wichtig, dass der Protest weitergeht, um die Regierung zum Umdenken zu bewegen:

Wir müssen es daher tunlichst vermeiden, Bürgerrechte mit Gesetzen zu bekämpfen, die ihnen selbst widersprechen. Illiberale Ideen kann man nicht mit illiberalen Gesetzen bekämpfen.

Social Media & Politik

Bloomberg übertrumpft Trump: 1 Million Dollar am Tag – so viel hat Michael Bloomberg in den letzten zwei Wochen für Facebook-Ads ausgeben, um eine Chance zu haben, von den Demokraten ins Rennen gegen Trump geschickt zu werden. Was die Ausgaben für Ads angeht, hat er Trump damit überholt. Ob das jetzt für die Demokratie so viel besser ist, steht auf einem anderen Blatt. (Quelle: NBC News)

Meme 2020: Wo wir gerade über Bloomberg sprechen: der gewiefte Medienunternehmer kann nicht nur viel Geld an Facebook überweisen, er weiß auch um die Wirkmacht von Influencern. Seine neue Meme-Kampagne sorgt derzeit in den USA für ziemlich viel Aufsehen (Quelle: NYT) – verständlicherweise übrigens: sie ist wirklich gut gemacht. Die folgenden Posts zeigen, wie Bloombergs Team mit der eigentlichen Uncoolness Bloombergs kokettiert. Tja, was man sich nicht alles kaufen kann als neuntreichster Mensch der Welt.

Datenschutz-Department

Dating und Datenschutz: Heute ist ja bekanntlich Valentinstag. Ein guter Anlass also, sich einmal mit dem Thema Datenschutz & Dating auseinanderzusetzen. Denn: Your favorite dating site isn’t as private as you think (VOX).

Facebook Dating: Apropos Dating-Apps: Dass Facebook den Start des eigenen Dating-Angebots um einige Monate nach hinten verschieben muss, hatten wir ja im letzten Briefing erwähnt. Jetzt ist auch klar, warum Facebook den avisierten Termin nicht halten kann: das Unternehmen hat es nicht für nötig befunden den Behörden erforderliche Pläne zum Thema Datenschutz vorzulegen. (Quelle: SPIEGEL)

Gesichtserkennung, selbstgemacht: Wie relativ einfach es ist, eine Überwachungsmaschine zu bauen, demonstrieren die Kollegïnnen vom SRF. Ein Test zeigt, wie leicht es ist, mittels automatischer Gesichtserkennung Person zu finden und zu identifizieren. Clearview light.

Streaming Wars

Flipboard TV: Es gab eine (kurze) Zeit, da galt Flipboard unter Journalisten als das nächste große Ding. Bekanntlich ist diese Zeit so nie gekommen. Dennoch genießt Flipboard bei vielen Nutzerïnnen hohes Ansehen – auch spiele die Zugrifsszahlen über Aggregatoren generell wieder eine zunehmend größere Rolle (siehe Briefing #523). Wenig verwunderlich also, dass die Macher von Flipboard durchaus selbstbewusst agieren. Der neueste Clou: Ein Paid-Angebot für Video-Inhalte. (Quelle: Digiday)

HBO und Co bald bei YouTube?: Anscheinend gibt es bei YouTube Überlegungen, Abo-Angebote von anderen Anbietern zu vermitteln. Apple und Amazon machen vor, wie das funktioniert. So ist es z.B. über Amazon Fire TV möglich, Netflix zu gucken. Auch ein Geschäftsmodell für YouTube? Wer weiß. Erstmal fahren sie ja mit den 15 Milliarden Dollar Werbeeinnahmen ganz gut. (Quelle: The Information)

Reddit möchte ins Fernsehen: Tweets, Facebook- und Instagram-Posts begegnen einem ja mittlerweile alle naselang im Fernsehen. Nun möchte auch Reddit endlich einmal die Inhalte seiner 100.000 Communities im Fernsehen sehen. Um das zu ermöglichen, geht Reddit eine Partnerschaft mit Tagboard ein. Natürlich erstmal alles nur in den USA. (Quelle: Techcrunch)

Statistiken

WhatsApp meldet 2 Milliarden Nutzerïnnen. Damit hat Mark Zuckerberg jetzt zwei Unternehmen in dieser Liga. Unfassbar, dass ein Mensch definieren kann, wie Milliarden Menschen kommunizieren: nicht demokratisch legitimiert, primär den Interessen der Geldgeber verpflichtet. Klingt pathetisch. Ist aber auch nüchtern betrachtet problematisch.

Schon einmal im Briefing davon gehört

Darum habe ich TikTok gelöscht: Ein Text-Genre, das wir schon von Facebook und Co kennen, gibt es nun auch für die neue Süchtigmacher-App aus China: The Terrifyingly Tantalizing Trend that’s TikTok (Cornell Sun). Wir können uns wohl auf noch viele weitere dieser Texte einstellen.

Empfehlungen fürs Wochenende

Inside Zuckerbergs Lost Notebook: Einer der bekanntesten Tech-Journalisten aus den USA hat ein neues Buch über Facebook geschrieben. Erste Auszüge aus dem Buch von Steven Levy sind bei WIRED zu finden. Wir selbst haben noch keine Chance gehabt, die Passage über Zuckerbergs verlorenes Notizbuch zu lesen. Soll aber sehr lesenswert sein und wird am Wochenende nachgeholt. Daher ist es auch unsere Pocket-Empfehlung der Woche.

Alman-Memes im Netz sind eher peinlich, findet Hengameh Yaghoobifarah. Bei der taz bekommt sie die Möglichkeit aufzuschreiben, was sie daran so stört. Ihr Rundflug über die deutsche Meme-Landschaft ist definitiv den Trip wert – insbesondere für all die Menschen, die noch nicht so ganz verstanden haben, was es eigentlich mit diesen Memes auf sich hat.

Neue Features bei den Plattformen

YouTube

  • Klatschen für 2 Dollar: YouTube testet ein Feature, mit dem Fans ihren Lieblings-Kreativen eine Art Trinkgeld zukommen lassen können. Bei Twitch funktioniert das schon ganz anständig. Bei TikTok hatten sie es ziemlich übertrieben. Nun also testet YouTube, wie die Funktion ankommt. (Quelle: The Verge)

Spotify

  • Songwriter Pages: Spotify gehört aktuell neben Snapchat zu den kreativsten Tech-Unternehmen, wenn es darum geht, neue Funktionen zu launchen. Die neueste Idee besteht darin, den Songwritern hinter den Hits mehr Aufmerksamkeit zukommen zu lassen. Um das zu erreichen, schraubt Spotify derzeit an sogenannten Songwriter Pages. Gute Sache! (Quelle: artists.spotify.com)

Snapchat

  • Mehr Nachrichten wagen: Snapchat bastelt derzeit an einem erneuten Redesign. So wird einerseits getestet, ob Nachrichten-Schlagzeilen von traditionellen Medienangeboten wie der Washington Post im Gesamtkonzept der App verfangen. Andererseits bastelt Snapchat an einer echten Navigation am unteren Bildschirmrand. Jetzt drehen sie völlig durch 😅 (Quelle: The Verge)

Tipps, Tricks & Apps

Zeitstempel bei TikTok: In der TikTok-App werden bekanntlich keine Angaben darüber gemacht, wann ein Video hochgeladen wurde. Wer trotzdem herausfinden möchte, wann ein TikTok publiziert wurde, kann dieser Anleitung von Christiaan Triebert bei Twitter folgen.

One more thing

Für Instagram Stories, TikTok und YouTube gleichzeitig filmen ? Kein Problem. Alles, was es braucht, ist ein anständiges Gummiband.

Header-Foto von Joshua Newton bei Unsplash

Von Telegram bis 4chan: Wo sich Rechtsextreme vernetzen

Von Telegram bis 4chan: Wo sich Rechtsextreme vernetzen

Was ist: Jakob Guhl, Julia Ebner und Jan Rau haben für das Londoner Institute for Strategic Dialogue (ISD) analysiert, wie rechtsextreme Online-Subkulturen auf alternativen Plattformen gedeihen. Die Studie trägt den Titel "Das Online-Ökosystem Rechtsextremer Akteure". Das 76-seitige PDF liegt bislang nur auf Englisch vor. Bei der Bosch-Stiftung, die das Projekt gefördert hat, gibt es eine deutsche Zusammenfassung (PDF, zwölf Seiten).

Warum das wichtig ist: Allein im vergangenen Jahr gab es vier rechtsextrem motivierte Terroranschläge (Christchurch, El Paso, Poway, Halle). Die Täter waren junge, weiße Männer, die sich mit Gleichgesinnten auf Imageboards wie 8chan ausgetauscht und in ihrem Hass auf Frauen, Ausländer und Jüdïnnen bestätigt hatten. Sie übertrugen ihre Morde live ins Netz (der Täter von Poway versuchte es vergeblich) und veröffentlichten krude Pamphlete, die Bezug auf rassistische Memes und Verschwörungstheorien wie den "großen Austausch" nehmen.

Diese Subkultur ist also mehr als eine Parallelwelt voller extremistischer Spinner, die im Netz zur Gewalt aufrufen. Einige von ihnen machen ihre Drohungen war. Sie bauen Waffen und ermorden Menschen. In den vergangenen fünf Jahren haben rechtsextrem motivierte Terroranschläge stark zugenommen (die Studie spricht von 320 Prozent, gibt aber keine Quelle an). Das alternative Online-Ökosystem hat definitiv dazu beigetragen.

Was die Forscherïnnen untersucht haben: Die Digital Analysis Unit des ISD hat sich vor allem mit deutschsprachigen und auf Deutschland fokussierten Communities beschäftigt. Mit qualitativen und quantitativen Methoden wie Befragungen und automatisierten Textanalysen beleuchten die Wissenschaftlerïnnen insgesamt zehn alternative Plattformen und deren Nutzerïnnen.

Dazu zählen sechs ultralibertäre Plattformen, die nahezu bedingungslose Redefreiheit versprechen und damit Rechtsextreme anziehen: 8chan, Telegram, Minds, Voat, Gab und BitChute. Hinzu kommen vier "gekaperte" Plattformen, die nicht nur, aber auch von Extremistïnnen genutzt werden: 4chan, Reddit, VK und Discord.

Was die Forscherïnnen herausgefunden haben: Die komplette Studie wiederzugeben, sprengt dieses Briefing. Deshalb picken wir einige Erkenntnisse heraus, die wir für besonders wichtig und/oder überraschend halten:

  • Auf den untersuchten Plattformen sind 15.000 bis 50.000 Personen mit rechtsextremen Ansichten aktiv. Im Vergleich zu großen Plattformen wie Facebook sprechen wir also von einer kleinen, aber umso radikaleren Minderheit.
  • Unter den 379 Gruppen und Kanälen dominieren muslimfeindliche Akteure (104) und Neonazis (92). Die größte Reichweite weisen identitäre Kanäle auf.
  • Auf 4chan enthalten mehr als die Hälfte der Beiträge über Jüdïnnen klar antisemitische Narrative. Dahinter steckt nicht nur eine toxische Diskussionskultur, sondern eine antisemitische Grundstimmung.
  • Für die AfD spielen die alternativen Plattformen keine große Rolle. Die Partei nutzt eher etablierte soziale Medien.
  • Die Beweggründe, aus denen Menschen die Angebote nutzen, unterscheidet sich stark: Auf Gab treibt die Nutzerïnnen etwa die Sorge um Meinungsfreiheit um. Wer auf dem anarchischen 4chan-Board /pol/ postet, lehnt Minderheiten ab oder will unterhalten werden.
  • Einwanderung und angeblich kriminelle Flüchtlinge sind die am häufigsten diskutierten Themen über alle Plattformen hinweg. Zwölf Prozent der Beiträge erwähnen die Verschwörungstheorie des "großen Austausch".
  • Rechtsextreme Influencerïnnen, deren Accounts auf den großen Social-Media-Plattformen gesperrt wurden, weichen hauptsächlich auf Telegram aus.
  • Nur ein kleiner Teil der untersuchten Postings enthält Aufrufe zur Gewalt. Obwohl die meisten Inhalte nicht eindeutig strafbar sind, erzeugen die von Ressentiments und Rassismus dominierten Beiträge "das Gefühl dringenden Handlungsbedarfs zum vermeintlich notwendigen Schutz der Eigengruppe".
  • Eine solche Grundstimmung kann zu gewalttätigem Extremismus und Terroranschlägen führen, ohne dass direkt zu Gewalt aufgerufen wird.
  • Deplatforming scheint zu wirken: Wenn rechtsextreme Akteure von großen sozialen Netzwerken gesperrt werden, können sie meist nur einen kleinen Teil ihrer Followerïnnen auf alternative Plattformen mitnehmen.
  • Eine Stichprobe von 25 Gruppen hat auf Nischenkanälen zehn Mal weniger Reichweite als auf etablierten Plattformen. Wer weiter auf den großen Netzwerken aktiv ist, gewinnt auch in der Subkultur an Einfluss. Im Umkehrschluss führt eine Verbannung nicht zu einer Massenabwanderung der Followerïnnen in die Nische.

Was die Forscherïnnen empfehlen: Im Gegensatz zu den recht konkreten Ergebnissen bleiben die Handlungsempfehlungen eher allgemein und abstrakt. Das spricht aber nicht gegen die Wissenschaftlerïnnen, sondern zeigt nur, dass es für ein komplexes Problem keine einfachen Lösungen gibt.

Guhl, Ebner und Rau sehen alle gesellschaftlichen Akteure gefordert: Politik, Tech-Unternehmen, Zivilgesellschaft und Forschung müssten gemeinsam tätig werden, um Radikalisierung zu verhindern. Dazu zählen sie unter anderem diese Maßnahmen:

  • Große soziale Netzwerke sollen mit alternativen Plattformen zusammenarbeiten, damit diese terroristische und extremistische Inhalte besser erkennen und bekämpfen können. Für Angebote wie Gab oder 8chan, die sich aktiv gegen solche vermeintliche Zensur wehren, ist das allerdings keine Option.
  • Regierungen müssen gemeinsam mit Forscherïnnen neue Definitionen von (Rechts-)Terrorismus entwickeln und festlegen, wo Strafbarkeit beginnt. Das ist eine Voraussetzung, um Inhalte zu löschen.
  • Wer digital belästigt, bedroht oder angegriffen wird, braucht einfacheren Zugang zu juristischer und psychosozialer Unterstützung. Die Täterïnnen, die versuchen, ihre Opfer einzuschüchtern und zum Schweigen zu bringen, müssen konsequenter ermittelt und bestraft werden.
  • Auch die etablierten Plattformen stehen in der Verantwortung: Ihre Algorithmen, die der Logik der Aufmerksamkeitsökonomie folgen, empfehlen oft radikalisierende Inhalte, die Nutzerïnnen immer weiter ins Extrem treiben. Hier regen die Forscherïnnen eine gesetzliche verankerte Sorgfaltspflicht für Plattformbetreiber an.
  • Wenn Plattformen Accounts sperren, sollen sie die Entscheidungen nachvollziehbar und öffentlich begründen. Andersherum braucht es transparente Prozesse für Nutzer ïnnen, die sich gegen eine Sperre wehren wollen, die sie als ungerechtfertigt empfinden.
  • Systematische Monitoring und Machine-Learning-Technologien können helfen, konkrete Drohungen frühzeitig zu erkennen und mögliche Anschläge zu verhindern.
  • Lehrkräfte, Eltern und Sozialarbeiterïnnen sollen geschult und für die Gefahr sensibilisiert werden, die von alternativen Plattformen ausgeht.
  • Da sich die Online-Subkulturen immer weiter dezentralisieren und auffächern, sind plattformübergreifende Analysen und Forschung nötig. Damit können Wissenschaftlerïnnen dazu beitragen, die rechtsextremen Online-Ökosysteme auszuleuchten, die Verbreitungswege der Inhalte nachzuvollziehen und die Motivation der Nutzerïnnen besser zu verstehen. Nur dann ist es möglich, effektive Gegenstrategien zu entwickeln.

Be smart: Im vergangenen Jahr haben wir uns mehrfach mit der Rolle beschäftigt, die Netz, Medien und Online-Subkulturen für Terroranschläge spielen. Die Analyse aus Briefing #586, die wir nach dem Massenmord von Halle geschrieben haben, ist nach wie vor aktuell.

Einen Aspekt betonen wir erneut, da er in der Studie nur sehr am Rande auftaucht: Auch klassische Medien haben eine Verantwortung. Es gibt den Werther-Effekt nicht nur für Selbstmorde, sondern auch für Terrorismus. Die Art und Weise, wie Journalistïnnen über Attentäter berichten, ist entscheidend, ob sie ihr Ziel erreichen.

Diese Terroristen inszenieren ihre Morde nicht für die anderen Anons auf ihren Imageboard, sondern für eine massenmediale Öffentlichkeit. Sie wollen Schrecken verbreiten und streben maximale Aufmerksamkeit an. Es liegt auch an Zeitungen, Fernsehsendern und Online-Medien, das zu verhindern.

Know more:

  • Die Broschüre "Alternative Wirklichkeiten" der Amadeu-Antonio-Stiftung beschäftigt sich ausführlich mit rechts-alternativen Medienstrategien. Das PDF-Dokument umfasst 100 Seiten und ist einen Bookmark Wert.

Grafik: Julia Tripke


Zehn Dinge, die TikTok anders macht

Was ist

TikTok ist gekommen, um zu bleiben. Das ahnten wir schon im Frühjahr 2019, als wir in einer Sonderausgabe den Hype um TikTok ausführlich einordneten. Aufgrund des anhaltenden Erfolgs (Sensortower) lohnt es sich, noch einmal die wesentlichen Unterschiede zu anderen Social-Media-Plattformen aufzuzeigen. Genau das hat Sam Lessin¹ getan (The Information $). Wir fassen seine Beobachtungen zusammen und garnieren sie mit eigenen Eindrücken.

Was TikTok unterscheidet

    1. Konsum steht an erster Stelle: Wer TikTok herunterlädt und zum ersten Mal öffnet, kann direkt Videos gucken. Nutzerïnnen müssen dafür keinen Account anlegen – ein fundamentaler Unterschied zu Facebook, Instagram und Co, bei denen ein Signup unumgänglich ist. TikTok reagiert damit auf einen Trend, den Lessin als „account and identity fatigue“ beschreibt – Menschen haben einfach immer weniger Lust, sich irgendwo neu zu registrieren, bzw. neue Online-Identitäten aufzusetzen.
    2. Ranking durch Handlung: Im Gegensatz zu Facebook oder Instagram geht es bei TikTok nicht primär darum, wen Nutzerïnnen kennen / liken, sondern darum, wie sie mit Inhalten interagieren. Per Design kann immer nur ein Video entweder angeschaut oder weggewischt werden – jede Entscheidung wird von TikTok registriert und dafür genutzt, weitere Videos vorzuschlagen.
    3. Nur ein Feed: Während Facebook, Instagram und Snapchat verschiedene Orte anbieten, wo Inhalte konsumiert werden können, ist bei TikTok der Feed zentral. Zwar gibt es auch bei TikTok Überlegungen, ob analog zu Snapchat Discover ein Ort für professionelle Medieninhalte angeboten werden sollte (Briefing #606). Bislang bekommen Nutzerïnnen aber alles zentral und integriert serviert: Inhalte von Menschen, denen sie folgen und Inhalte, die TikTok vorschlägt.
    4. Müheloser Konsum: Lange Zeit galt Facebooks News Feed als das Nonplusultra der Distribution von Inhalten. Aus geschäftlicher Sicht mag das auch weiterhin stimmen. Nutzerïnnen hingegen stehen zunehmend vor der Aufgabe, aus einer Masse an unterschiedlichen Formaten (Videos, Fotos, Posts, Links, Stories, etc.) die für sie passenden herauszufiltern. Nun wollen wir nicht suggerieren, dass das Scrollen durch den News Feed eine fordernde Aufgabe darstellt. Aber das Zappen von TikTok-Videos ist im Vergleich mit nahezu null Aufwand verbunden.
    5. Trennung von Konsum und Produktion: „Was gibt’s Neues“, fragt mich Twitter. „Schreib etwas“, fordert mich Facebook auf. Die Social-Media-Plattformen versuchen seit Jahren mit immer neuen Kniffen, Nutzerïnnen dazu zu bringen, selbst Inhalte zu produzieren. Bei TikTok ist das anders: dort wird niemand aufgefordert, etwas zu posten. Aus gutem Grund, denn bei Social-Media-Plattformen gilt das Paretoprinzip – ein Großteil der Inhalte wird von einer Minderheit der Nutzerïnnen produziert. Dadurch, dass TikTok diese Tatsache akzeptiert, kann die Plattform Tools für jene anbieten, die wirklich Inhalte produzieren wollen.
    6. Produktion als soziales Event: Während bei Instagram primär Inhalte von und mit Einzelpersonen zu finden sind, bestehen TikTok-Videos sehr häufig aus einer Vielzahl von Akteuren. Somit ist auch die Produktion der Inhalte – insbesondere bei Challenges – viel stärker ein soziales Event. Klar, auch bei TikTok geht es um Wettbewerb. Trotzdem scheint die Plattform bislang weniger narzistisch.
    7. Lob der Kopie: Normalerweise ist es verpönt, Inhalte von anderen zu kopieren. Bei TikTok aber steht die Kopie im Zentrum. Egal ob bei Challenges, Duetts, Lipsync, Tanzmoves oder Fingerspielereien – die eigene Interpretation bekannter Themen ist elementarer Bestandteil der Plattform-Logik. Genau das macht es für Nutzerïnnen recht einfach, eigene Inhalte zu kreieren.
    8. Talent-basiert: Anders als bei den etablierten Social-Media-Angeboten geht es bei TikTok nicht nur um den Status, sondern darum wie gut die Inhalte sind, die geteilt werden. Daher ist die Plattform gerade für all jene interessant, die bislang vielleicht nur die zweite Geige spielten.
    9. Lotterie-Logik: Auf Social-Media-Plattformen gehen natürlich immer mal wieder Inhalte viral, die von ganz gewöhnlichen Menschen geteilt wurden. In der Regel verhält es sich aber so, dass denen gegeben wird, die bereits die Aufmerksamkeit auf ihrer Seite haben. Bei TikTok aber scheint eine Art Lotterie-Prinzip fest in die Plattform eingebaut zu sein. Immer wieder schaffen es Videos von regulären Nutzerïnnen in die Feeds von Millionen Menschen. Das kann kein Zufall sein, sondern eher eine Art perfides Anreizsystem.
    10. Amateure stehen im Fokus: In einer Welt, die voller Stars ist, fallen die vielen Krankenschwestern, Polizisten und Angestellten, die bei TikTok Videos teilen, extrem auf. Dieser Fokus auf Amateure und der Blick ins Private unterscheidet sich stark von den anderen Angeboten.

    Be smart

    Facebook, Instagram und Snapchat schauen sich ganz genau an, warum TikTok so schnell so populär wurde. Wir können daher sicher sein, dass wir viele der hier aufgeführten TikTok-Merkmale künftig auch bei den bereits etablierten Social-Media-Angeboten sehen werden.


    ¹ Sam Lessin ist der Ehemann von Jessica Lessin, Herausgeberin und Gründerin von The Information. Von 2010 bis 2014 arbeitete Lessin als Vice President of Product Management bei Facebook. Bei The Information wird er als Praktikant geführt.


    Foto-Quelle: Kon Karampelas, Unsplash


Scroll to Top