Coronavirus und Social Media, Grenzen der Wissenschaft, Bloombergs vermeintliche Wunderwaffe

martin Briefing

Salut und herzlich Willkommen zur 620. Ausgabe des Social Media Briefings. Heute beschäftigen wir uns mit der Rolle von sozialen Medien in der Welt-Virus-Krise. Zudem zeigen wir, warum die Wissenschaft bei der Betrachtung von Social-Media-Phänomen immer wieder an ihre Grenzen kommt. Wir wünschen eine gewinnbringende Lektüre und ein schönes Wochenende, Martin & Simon



Der Coronavirus und soziale Medien

Coronavirus und Social Media

Coronavirus und Social Media

Was ist: Das Coronavirus breitet sich weiter weltweit aus. Allerdings nicht primär biologisch, sondern vor allem digital. „We’re not just fighting an epidemic; we’re fighting an infodemic”, sagte der Direktor der Weltgesundheitsbehörde, Tedros Adhanom Ghebreyesus, bereits auf der Münchener Sicherheitskonferenz Mitte Februar. Diese Infodemic hat zahlreiche Gründe und bei weitem nicht nur negative Auswirkungen.

Warum gibt es eine Infodemic?

  • Soziale Medien werden weltweit genutzt, um zu kommunizieren, bzw. um sich zu informieren.
  • Laut Digital 2020 Report (The Next Web) gibt es 3,8 Milliarden Social-Media-Nutzerïnnen. Das entspricht in etwa der Hälfte der Weltbevölkerung.
  • Während Menschen in Deutschland ein durchaus reichhaltiges Medienmenü zur Verfügung steht und Social Media nur bedingt eine Rolle beim Nachrichtenmix spielt, sind soziale Medien in anderen Ländern längst zur wichtigsten Informationsquelle gereift – gerade dort, wo es sonst primär staatlich kontrollierte Medienangebote gibt.
  • Das Problem: Während traditionelle Medien Informationen überprüfen, bevor sie publiziert werden, können Inhalte in sozialen Medien weitesgehend ungefiltet gepostet werden.
  • Zudem ist die positive Wirkung von Fact-Checking-Angeboten umstritten. Eine aktuelle MIT-Studie zeigt z.B., dass es in sozialen Medien einen sogenannten “implied truth effect“ (Researchgate) geben könnte. Der Untersuchung zufolge glaubten Menschen Nachrichten um so mehr, wenn sie von Fact-Checkern nicht als „falsch“ geflaggt wurden – sogar dann, wenn die Nachricht ganz offenkundig falsch ist. Mit anderen Worten: Leute vertrauen einem Post, der nicht als falsch gekennzeichnet wurde, weil sie denken, wenn es falsch wäre, würde es ja jemand klarstellen.

Die vielen Ebenen von falschen Informationen

  • First Draft News zufolge gibt es drei Typen von falschen Informationen: Mis-information, Dis-information und Mal-information.
  • Eine Mis-information liegt vor, wenn falsche Informationen weitergegeben werden, aber kein Schaden beabsichtigt ist.
  • Eine Dis-information liegt vor, wenn wissentlich falsche Informationen weitergegeben werden, um Schaden anzurichten.
  • Eine Mal-information liegt vor, wenn verifizierbare Informationen geteilt werden, um Schaden anzurichten, oft indem Informationen, die eigentlich dazu bestimmt sind, privat zu bleiben, in die öffentliche Sphäre verschoben werden.
  • Zudem müsse laut First Draft bei den Inhalten unterschieden werden. Die beiden folgenden Grafiken zeigen die Spannbreite von „falschen“ Informationen:

Beim Coronavirus erleben wir viele Ebenen dieser Falschinformationen:

Sowohl Plattformen als auch staatliche Institutioen reagieren auf diese Flut an Informationen mit ganz unterschiedlichen Maßnahmen:

  • In China werden laut BuzzFeed News bereits seit Januar Infos zum Coronavirus zensiert – etwa bei WeChat oder YY. Das Problem dabei: die Zensur hat womöglich die Ausbreitung des Virus eher befördert als verhindert.
  • Facebook hat eine Infobox gebastelt, die Menschen im News Feed mit Informationen der staatlichen Gesundheitsbehörden versorgt. (About Facebook)
  • Zudem verbannt Facebook Behauptungen und Verschwörungstheorien, die von führenden Gesundheitseinrichtungen als falsch deklariert wurden.
  • Twitter führt Nutzerïnnen, die nach Informationen rund um das Coronavirus suchen, zu einer speziellen Seite, auf der belastbare Informationen von Gesundheitsbehörden geteilt werden.
  • Twitter erweitert zudem seine Policy, nach der Menschen nicht diskriminiert werden dürfen um die Kategorie Krankheit. (Blog Twitter)
  • Pinterest limitiert ebenfalls die Suchergebnisse mit Blick auf Stichwörter rund um Covid-19.
  • YouTube lenkt seine Nutzerïnnen in der Suche zu Informationen der WHO.
  • Daneben haben die Tech-Unternehmen Veranstaltungen abgesagt (SXSW, f8, etc.) und ihren Mitarbeiterïnnen vielerorts Home Office empfohlen.

Die guten Seiten der Infodemic:

  • Neben all der Sorge um die Verbreitung von Falschinformationen dürfen die positiven Seiten von sozialen Medien in einer solchen Situation nicht aus dem Blick geraten.
  • Social Media kann maßgeblich dabei helfen, Menschen über den Virus zu informieren.
  • Auch kann Social Media dabei helfen, Trost zu spenden, auf Missstände hinzuweise und Hilfe zu bekommen.
  • Auch können Wissenschaftlerïnnen die Ausbreitung des Virus mittels Social Media studieren.
  • Auch kann Social Media dabei helfen, etwas Abstand zu gewinnen – etwa durch herausragende Comedy von John Oliver bis Druski2Funny.

Be smart: Dass die Weltgesundheitsorganisation von einer Infodemic spricht, ist nachvollziehbar. Wenn wir erfassen könnten, was in geschlossenen Gruppen und verschlüsselten Messengern passiert, dann dürfte das Problem der Falschinformationen noch größer sein (WaPo) als hier im Briefing skizziert. Und dennoch sollten wir dabei nicht außer Acht lassen, welche positiven Effekte soziale Medien in einer Krise wie dieser haben können. Die Plattformen jedenfalls haben viel aus vergangenen Fehlern gelernt – jetzt kommt es auf zweierlei an: erstens wie die Plattformen ihre neuen Regeln und Ideen durchsetzen, zweitens was die Menschen mit den Werkzeugen, die ihnen zur Verfügung stehen, anstellen: each one, teach one, me say!

Read on:



Eine neue YouTube-Studie zeigt die Grenzen der Wissenschaft

Was ist: Zwei Berkeley-Forscher und ein ehemaliger YouTube-Entwickler haben untersucht, was von YouTubes Behauptung zu halten ist, dass es mittlerweile deutlich weniger Videos mit Verschwörungstheorien empfehle. Hier gibt es die Studie als PDF.

Warum das wichtig ist: Zwei Milliarden Menschen nutzen YouTube. Viele lassen sich nicht nur unterhalten, sie verfolgen Nachrichten und bilden sich weiter. YouTube ist größer als alle Fernsehsender und beeinflusst, wie Hunderte Millionen Menschen die Welt wahrnehmen. Fast drei Viertel der Views beruhen auf algorithmischen Empfehlungen – die Macht der Maschinen ist also groß.

Was die neue Studie besagt:

  • Glaubt man den Forschern, empfiehlt YouTube tatsächlich deutlich weniger dubiose Inhalte. Die Vorschläge enthalten kaum noch Videos, die behaupten, dass die US-Regierung hinter 9/11 stecke oder die Erde eine Scheibe sei. Auch viele QAnon-Theorien scheinen aussortiert worden zu sein.
  • Andere wissenschaftlich fragwürdige bis falsche Aussagen finden sich aber weiter in den Empfehlungen. Wer etwa die globale Erhitzung leugnet, Aliens hinter dem Bau der Pyramiden vermutet oder an der Mondlandung der Amerikaner zweifelt, wird nach wie vor von YouTubes Algorithmen gepusht.
  • Nachdem die Menge der empfohlenen Verschwörungstheorien im Frühjahr des vergangenen Jahres stark zurückging (und YouTube sich den Erfolg öffentlich auf die Fahnen schrieb), stieg die Zahl in den Folgemonaten wieder leicht an.

Wenn du mehr über die Studie wissen willst, kannst du diesen ausführlichen Text (NYT) lesen. Wir erklären an dieser Stelle lieber, warum wir einzelnen Studien zunehmend weniger Bedeutung einräumen.

Bitte mehr Meta: Anfang des Jahres haben wir uns in Briefing #603 detailliert mit unterschiedlichen Studien über die angebliche Radikalisierungsmaschine YouTube befasst. Anlass war ein Paper, das vermeintlich die These widerlegte, dass YouTube seinen Nutzerïnnen immer extremere Inhalte vorschlägt. Bei genauerer Betrachtung war die Vorgehensweise höchst fragwürdig und das Fazit nahezu wertlos.

Damals schrieben wir:

„Nur weil Wissenschaft draufsteht, muss keine Wissenschaft drin sein: Nicht jedes „Paper“, das auf Twitter auftaucht, ist eine ernstzunehmende Arbeit. (…) Fachmagazine setzen meist Peer-Review-Verfahren voraus, bevor sie veröffentlichen. Paper auf Seiten wie arXiv werden zwar auch begutachtet, der Prozess gleicht aber eher einem Spamfilter, als einer kritischen Inhaltsprüfung.“

Doch unsaubere Forschung ist nur ein Teil des Problems. Mittlerweile wurden zu fast jedem aktuellen digitalen Thema Dutzende Studien veröffentlicht:

  • Machen Smartphones süchtig?
  • Bedrohen Social Bots die Demokratie?
  • Haben bewusst gestreute Falschnachrichten die US-Wahl 2016 beeinflusst?
  • Gibt es digitale Echokammern oder erhöhen soziale Medien die Varianz der Nachrichten, die Nutzerïnnen sehen?

Völlig egal, wie du diese Fragen beantwortest – du wirst auf jeden Fall mindestens eine Studie finden, die deine Meinung bestätigt (und eine, die ihr widerspricht). Das liegt nicht zwangsläufig an mieser Methodik, die einzelnen Untersuchungen können für sich genommen valide und reliabel sein.

Oft fokussieren sich die Forscherïnnen aber auf einen bestimmten Teilaspekt. Teils ist es auch gar nicht möglich, komplexe, sozialwissenschaftliche Fragestellungen abschließend empirisch zu beantworten. Plattformen wie Facebook und YouTube geben Wissenschaftlerïnnen nur eingeschränkt Zugriff auf ihren Datenschatz, sodass die Ergebnisse maximal bessere Mutmaßungen darstellen.

Ein aktuelles Beispiel: Während die Berkeley-Forscher YouTubes zumindest partiellen Erfolg bescheinigen, hat die Organisation Hope not Hate gleichzeitig den Report „State of Hate 2020“ veröffentlicht. Die Labour-Politikerin Yvette Cooper sagte dazu (Guardian):

„Look up one thing out of curiosity and YouTube is ever willing to offer far, far more, often getting far more extreme and pushing further out to the extremes, because that is how YouTube works. They have become an organ of radicalisation instead of taking responsibility, for that is the way their algorithms work.“

Eine andere, kürzlich veröffentlichte Studie, kommt zu einem ähnlichen Ergebnis. Die Forscherïnnen schreiben in ihrem Abstract:

„Processing 72M+ comments, we show that (…) users consistently migrate from milder to more extreme content; and that a large percentage of users who consume Alt-right content now consumed Alt-lite and I.D.W. content in the past.“

Deshalb werden wir im Watchblog versuchen, neu veröffentlichte Studien nur in Ausnahmefällen separat aufzugreifen. Vielmehr wollen wir sie in den Kontext bisheriger Publikationen stellen und erklären, warum Forscherïnnen diesmal zu anderen Ergebnissen gelangt sind als ihre Kollegïnnen.

Am liebsten sind uns Meta-Studien, die alle bisherigen Veröffentlichungen zusammenfassen und einordnen. Angesichts der Paper-Flut zum Thema YouTube wäre es langsam mal Zeit dafür. Bis dahin bündeln wir nochmal kurz den aktuellen Stand:

Was wir wissen:

  • YouTube hat seine Empfehlungsalgorithmen in den vergangenen Jahren mehrfach angepasst, um Desinformation, extremistische und potenziell radikalisierende Inhalte herabzustufen.
  • Also müssen die Algorithmen zumindest in der Vergangenheit problematische Videos empfohlen haben, sonst hätte YouTube nicht eingegriffen. Offenbar besagten auch YouTubes interne Daten, dass die Plattform üble Auswirkungen auf Nutzerïnnen haben kann.
  • Die meisten Studien der vergangenen Monate bescheinigen YouTube, an den richtigen Stellschrauben gedreht zu haben. Demnach schlägt die Plattform weniger potenziell radikalisierende Videos vor.
  • Andere wissenschaftliche Publikationen und journalistische Recherchen wie „The Making of a YouTube Radical“ (NYT), die den Radikalisierungsprozess einzelner Nutzerïnnen nacherzählen, zeigen aber auch: Wie jede Plattform und jedes Medium kann YouTube Menschen stark beeinflussen – global, automatisiert und nahezu unkontrolliert.

Was wir nicht wissen:

  • Wie wirkt sich die Personalisierung auf die Algorithmen aus? Fast alle Studien betrachten nur Empfehlungen im ausgeloggten Zustand, die sich auf das vorhergehende Video beziehen.
  • Das „Rabbit Hole“, in das YouTube Nutzerïnnen langfristig hineinziehen soll, lässt sich damit nicht nachvollziehen.
  • Um diese Mechanismen zu erforschen, müsste YouTube seine Black Box für Wissenschaftlerïnnen öffnen. Sonst lassen sich kaum verlässliche Aussagen treffen, schreibt Oxford-Forscher Chico Camargo (The Conversation).

Be smart: Die Debatte über „Fake News“, Cambridge Analytica und massenhafte Manipulation durch Microtargeting – viele Menschen neigen dazu, den Einfluss von Technik und Algorithmen zu überschätzen oder sich zumindest eher auf spektakuläre, aber wenig aussagekräftige Einzelfälle zu stürzen, statt das zugrundeliegende Problem zu beleuchten. Das zeigen drei aktuelle Texte:

Auch im Fall von YouTube wäre es Unsinn, Algorithmen allein dafür verantwortlich zu machen, dass Menschen sich radikalisieren. Digitale Plattformen beschleunigen diese Prozesse höchstens, weil sie den Zugang zu extremistischen und verschwörungstheoretischen Inhalten erleichtern.

Es gibt aber auch keinen Anlass, YouTube komplett freizusprechen. Solange Unternehmen wie Facebook und Google den Großteil ihres Umsatzes mit Werbung erzielen, haben sie ein Interesse daran, Nutzerïnnen möglichst lang auf den eigenen Plattformen zu halten.

Das funktioniert am besten mit fesselnden Inhalten. Deshalb maximieren Empfehlungsalgorithmen auf Emotionen und neigen dazu, immer extremere Beiträge und Videos vorzuschlagen. Diese Form der Radikalisierung ist also Teil der Aufmerksamkeitsökonomie mit werbefinanzierten Geschäftsmodellen – und Algorithmenkritik müsste auch Kapitalismuskritik sein.



Wahlkampf USA

Bloomberg gibt auf

Siehe da: Bloombergs vielbeachtete Social-Media-Meme-Medien-Strategie, über die wir in den letzten Briefings berichteten, hat doch nicht gereicht, um ihn zum Trump-Herausforderer Nummero Uno aufzubauen. New Yorks Ex-Bürgermeister ist aus dem Rennen um die Präsidentschaft ausgestiegen (Tagesschau) und unterstützt nun Joe Biden – mit Worten, finanziell und dem Vernehmen nach auch mit Technik. Wer allerdings glaubt, Hawkfish wäre eine Geheimwaffe / Wunderwaffe / digitale Waffenfabrik, möge bitte die bereits oben genannten Texte von Seeman und Fichter flankierend lesen. Riecht derzeit eher nach Cambridge Analytica Reloaded.



Empfehlungen fürs Wochenende

„Moralische Überlegenheit bringt euch nichts“ (SZ, €)

Früher war Alex Stamos bei Facebook für Sicherheit zuständig und arbeitet unter anderem auf, wie Russland versuchte, Facebook zu missbrauchen, um die US-Wahl zu beeinflussen. Jetzt forscht Stamos in Stanford zu digitaler Desinformation. Jannis Brühl hat mit ihm über die Verantwortung von Tech-Unternehmen, das deutsche NetzDG und Mark Zuckerbergs Verhältnis zur Privatsphäre gesprochen.

The Man Behind Trump’s Facebook Juggernaut (New Yorker)

„Donald Trump wurde gewählt weil er die beste digitale Anzeigenstrategie hatte, die ich je gesehen habe.“ Das sagt Facebook-Manager Andrew Bosworth, dessen Essay wir in Briefing #604 analysiert haben. Verantwortlich dafür war Brad Parscale, der Trumps digitalen Wahlkampf leitet. Andrew Marantz stellt den Mann vor, der Trump 2020 erneut zum Wahlsieg verhelfen könnte. Das Portrait zeigt, dass es dafür keine Psychotricks und illegalen Methoden braucht: Skrupellosigkeit, Statistik und viel Geld reichen, um Facebook in eine gigantische Wahlkampfmaschine zu verwandeln.

Digitaler Minimalismus (UARRR)

Marcel Wichman ist seit 13 Jahren aktiv im Netz. Er bloggt, hat Start-ups gegründet und so ziemlich jede neue Plattform ausprobiert. In den vergangenen Jahren ist er müde geworden: alles zu schnell, zu laut zu aufgeregt. Marcel zog Konsequenzen:

„Anfang Februar 2020 löschte ich alle verbleibenden Social Media Apps (Twitter, Instagram, Reddit) von all meinen Geräten und blockte die entsprechenden Webseiten in meinen Browsern. Dazu unterband ich auch den Zugriff auf alle Daily News Seiten, kaufte mir einen klassischen Wecker um digitale Geräte im Schlafzimmer zu verbannen, entschied eine Stunde früher aufzustehen, 52 Bücher in 2020 zu lesen, handschriftlich ein Journal zu führen, eine Wochenzeitung zu abonnieren und bewusster zu leben.“

Der verlinkte Blogeintrag ist der erste einer siebenteiligen Serie, in der Marcel seine Erfahrungen beschreibt. Auch Christoph Rauscher und Andreas Spiegler schildern digitale Übersättigung und sehnen sich nach Entschleunigung.



Neue Features

Twitter

  • Stories: Twitter testet jetzt auch Stories (Techcrunch). Das Format heißt bei Twitter „Fleets“. Diese Fleets können keine Likes, Retweets oder Replies erhalten, sie verschwinden nach 24h automatisch und tauchen nicht in der Suche auf. Vorerst gibt es Fleets nur in Brasilien. Nach ein paar Monaten wird Twitter entscheiden, ob die Funktion global ausgerollt wird. 👀

VSCO

  • New Editing Tool: VSCO ist ja quasi ein vorgelagertes Instagram. Da sich die App zunehmender Popularität erfreut, lancieren sie nun neue Editing-Funktionen (Techcrunch).


Tipps, Tricks und Apps

Superspannendes Projekt

Instagrams Algorithmus ist ein gut gehütetes Geheimnis. Zwar gibt es gut begründete Annahmen, wie er funktioniert, genau weiß es aber niemand außerhalb des Unternehmens. Da Instagrams Algorithmus zunehmend wichtiger für die digitale Öffentlichkeit wird, launcht Algorithmwatch nun ein Projekt, um besser zu verstehen, wie der Instagram-Algorithmus funktioniert.

Spannende Tool-Sammlung

Die Kollegïnnen von Tactical Tech leisten wirklich tolle Arbeit! Ihr neuestes Projekt richtet sich an alle, die vernünftig recherchieren möchten. Mit dem Exposing-The-Invisible-Kit kann jeder lernen, wie investigative Recherchen angestellt werden können. Definitiv ein Bookmark wert. 📌

 

Halb-spannender LinkedIn-Primer

Neu bei LinkedIn? Dieser Primer von G2 bietet einen guten Überblick, wie LinkedIn funktioniert.