Warum Impf-Desinformation so gefährlich ist – und so erfolgreich

Was ist

Die Corona-Impfung ist da: Fast jeden Tag verkünden Eilmeldungen die Zulassung neuer Impfstoffe gegen Sars-CoV-2. Mittlerweile werden die ersten Menschen geimpft. Es sind Nachrichten, die Mut machen, dass 2021 ein Jahr werden könnte, in dem das Leben nicht mehr komplett von der Pandemie bestimmt wird.

Doch gleichzeitig verbreiten sich Panikmache und Lügen über die Impfstoffe. Wissenschaftlerïnnen warnen vor einer Flut an bewusst gestreuter Desinformation. Social-Media-Plattformen tun ihr Bestes, sind aber trotzdem überfordert und schaffen es nicht, die Anti-Impf-Propaganda wirksam einzudämmen.

Warum das wichtig ist

Ob man sich impfen lässt oder nicht, mag eine persönliche Entscheidung sein – die Folgen betreffen aber alle Mitmenschen. Die Corona-Impfung wird erst dann wirklich effektiv, wenn sich ein Gutteil der Bevölkerung dazu bereiterklärt.

Aktuellen Umfragen wollen sich nur 60 (Pew) bis 70 Prozent (Kaiser Family Foundation) der Menschen in den USA impfen lassen. Und wenn die Anti-Impf-Kampagne weiter Fahrt aufnimmt, könnte dieser Anteil sogar noch sinken.

Wie die Panik geschürt wird

Wir wollen gar nicht im Detail auf die Lügen eingehen. Es ist der übliche Sumpf aus antisemitischen und wissenschaftsfeindlichen Verschwörungsmythen: Mikrochips, 5G, Impfpflicht, globale Eliten, cui bono, Bill Gates. Wer den Unsinn nachlesen will: Rebecca Heilweil und Sarah Emerson (OneZero) zeichnen die Verbreitung der Desinformation nach.

Grundsätzlich kann man sagen: Es gibt nicht das eine dominierende Narrativ. Vielmehr vermischen sich Lügen über die Corona-Impfung mit jahrealten Anti-Impf-Mythen. "They are inserting the word ‘covid’ into the usual canards", sagt etwa Renée DiResta (Washington Post), die am Stanford Internet Observatory zu Desinformation forscht. "They recognize the potential audience is much, much larger — it’s not just new parents searching for info. It is everyone."

Warum Anti-Impf-Propaganda so erfolgreich ist

Seit die erste Impfung erfunden wurde, gibt es Gerüchte über angebliche Gefahren. Die Debatten datieren bis ins 19. Jahrhundert zurück, wie DiResta in einer langen und lesenswerten Analyse (The Atlantic) beschreibt.

Doch damals gab es kein Internet und keine sozialen Medien. 2020 lassen sich Lügen mit einem Klick in die Welt setzen und in Sekundenbruchteilen weiterverbreiten. Das Geraune und die Warnungen gehen oft viral, weil sie eine starke Emotion ansprechen: Angst. Seit Jahren zählen Anti-Impf-Gruppen zu den aktivsten Communities auf Facebook und anderen Plattformen.

Diese mächtige, stetig gewachsene Bewegung vermischt sich nun mit der QAnon-Sekte und anderen Verschwörungsläubigen, die das Coronavirus für eine Verschwörung halten. Rechte Influencerïnnen und dubiose Alternativmedien pushen die Propaganda und erreichen damit ein Millionenpublikum.

Warum die Plattformen machtlos sind

Facebook, Instagram, Twitter und YouTube wissen, wie gefährlich die Anti-Impf-Welle sein kann. Kürzlich fiel in einem Hintergrundgespräch die Aussage (Gedächtnisprotokoll): "Wenn das so weitergeht, dann war die US-Wahl ein Kindergeburtstag. Ich will mit gar nicht vorstellen, was passiert, wenn die ersten Komplikationen bei Geimpften auftreten. Dann bricht im Netz die Hölle aus."

Es liegt also nicht an mangelndem Willen. Alle Plattformen haben relativ strikte Maßnahmen eingeführt und löschen Lügen über Impfungen genauso wie gefährliche Desinformation über das Coronavirus. Zusätzlich versuchen sie, irreführende Beiträge mit Warnhinweisen zu versehen und Nutzerïnnen auf seriöse Quellen zu verweisen.

Doch es gibt mehrere Gründe, warum sie die viralen Falschbehauptungen nicht eindämmen können:

  • Es sind zu viele: Desinformation lässt sich nur selten automatisiert erkennen und löschen. Menschliche Mitarbeiterïnnen müssen alle Beiträge einzeln überprüfen. Sie kämpfen gegen eine Hydra mit sehr vielen Köpfen, die rasend schnell nachwachsen.
  • Sie verbreiten sich in geschlossenen Gruppen, Stories und Messengern: Parallel zur abnehmenden Bedeutung der öffentlichen Newsfeeds und Timelines verlagert sich auch die Propaganda in private oder verschlüsselte Räume und Gruppen. Das macht es teils unmöglich, die Lügen zu stoppen – von Unternehmen wie Telegram erst gar nicht zu reden, die offenbar überhaupt kein Interesse an Gegenmaßnahmen haben.
  • Sie bewegen sich oft in einem Graubereich: "The platforms cannot control people’s opinions", sagt Darren Linvill (Washington Post), der an der Clemson University zu Social Media forscht. "They can’t stop someone from saying 'I’m not going to take the vaccine because I don’t think it’s safe.' And it’s those thoughts and opinions that have as much of an effect on online communities as actual fake news or actual disinformation."
  • Sie passen perfekt zur Funktionslogik der Plattformen: Menschen interagieren mit emotionalen Inhalten, Algorithmen reagieren auf Interaktionen, emotionale Inhalte verbreiten sich viral. Der demokratische Kongressabgeordnete Adam Schiff bilanziert deshalb (Politico): "Absent a fundamental overhaul, enforcement will always be stuck playing catch up in a system designed to promote the most engaging content and not the most truthful."

Be smart

Wir sind in unserem Freundeskreis bislang von Corona-Leugnerïnnen verschont geblieben. Die Begegnungen beschränken sich auf Facebook-Postings von alten Schulfreundïnnen oder losen Bekannten. Doch wenn es um die Impffrage geht, könnte sich das ändern – die Zahl der Menschen, die einer Impfung skeptisch bis ablehnend gegenüberstehen, ist auch in Deutschland (Ärztezeitung) erschreckend hoch (Barmer).

Stratcom-Bericht: Biete 300 Dollar, suche 300.000 Fake-Interaktionen

Was ist

Der Nato-Thinktank Stratcom hat untersucht, wie konsequent große Social-Media-Plattformen gegen Manipulationsversuche vorgehen. Der "Social Media Manipulation Report 2020" wirft kein gutes Licht auf die Fähigkeit der Netzwerke, gefälschte Interaktionen zu erkennen und zu entfernen.

Wie die Forscherïnnen vorgingen

  • Die Wissenschaftlerïnnen kauften für 300 Dollar bei drei russischen Dienstleistern ein. Dafür erhielten sie rund 1100 Kommentare, knapp 10.000 Likes und mehr als 320.000 Views.
  • Der Bericht untersucht Facebook, Instagram, Twitter, YouTube und TikTok. Es geht darum, wie zuverlässig die Plattformen die Erstellung von Fake-Accounts und das Verteilen von Fake-Interaktionen verhindern.
  • Die gefälschten Interaktionen stammten von rund 8000 Accounts, die teils automatisiert erstellt und gesteuert, teils von Menschen angelegt und bedient werden.
  • Außerdem arbeiteten die Forscherïnnen mit zwei US-Senatoren zusammen: Chuck Grassley von den Republikanern und Chris Murphy von den Demokraten.
  • Kurz vor der US-Wahl kauften sie Interaktionen für Beiträge der beiden Politiker. Damit wollten sie herausfinden, ob die Plattformen verifizierte Accounts besonders schützen – und ob die Unternehmen im Vorfeld des wichtigsten politischen Ereignisses des Jahres besonders aufmerksam sind.

Was die Forscherïnnen herausfanden

  • Im Vergleich zu 2019, als Stratcom ein ähnliches Experiment durchführte, haben sich Facebook und Twitter leicht verbessert.
  • Facebook macht es Betrügerïnnen nun schwerer, massenhaft Fake-Konten anzulegen. Sobald Facebooks Sicherheitsmechanismen allerdings einmal überwunden sind, führen die gefälschten Accounts ein relativ sicheres Leben und werden nicht allzu zuverlässig erkannt und gesperrt.
  • Auf Twitter fällt es leichter, Fake-Accounts zu erstellen. Dafür erkennt die Plattform die Manipulationsversuche auch nachträglich und löscht die unechten Interaktionen.
  • Instagram und YouTube liegen ungefähr auf dem Niveau von 2019 – und das ist ziemlich überschaubar. Auf beiden Plattformen ist es einfach und billig, Tausende gefälschte Likes, Kommentare oder Views zu kaufen.
  • Nur TikTok, das die Forscherïnnen erstmals untersuchten, schneidet noch deutlich schlechter ab. Die Plattform scheine nicht in der Lage zu sein, selbst die billigsten Manipulationsversuche zu entfernen und seine Nutzerïnnen zu schützen, heißt es in dem Bericht.
  • Während des mehrwöchigen Experiments sperrte TikTok keinen einzigen Fake-Account und löschte nicht eine gefälschte Interaktion. Das Einzige, was die Wissenschaftlerïnnen TikTok zugutehalten: „Es lässt die Bemühungen der anderen Plattformen in einem deutlich besseren Licht dastehen.“
  • Auch im Vorfeld der US-Wahl ließen sich die Netzwerke problemlos manipulieren. Teils dauerte es einige Stunden oder Tage, bis die gekauften Interaktionen auf den Beiträgen der beiden US-Senatoren geliefert wurden. Auf Facebook tauchten nur knapp die Hälfte der versprochenen Kommentare auf, Twitter blockierte einen Teil der bestellten Likes.
  • Dennoch ließen sich alle drei Plattformen von den Dienstleistern manipulieren. Nach einer Woche meldeten die Forscherïnnen einen Teil der Manipulationen, selbst danach blieb ein Großteil online.
  • Deshalb appelliert der Bericht: „Es braucht deutlich größere Anstrengungen, um offizielle Accounts zu schützen, Bot-Netzwerke zu erkennen und kommerzielle Manipulation zu verhindern, um den Online-Diskurs zu schützen.“

Warum die Plattformen machtlos sind

  • Die Forscherïnnen attestieren den Unternehmen durchaus Anstrengungen und loben insbesondere Facebook für die Verbesserungen.
  • Es wäre also falsch, den Konzernen vorzuwerfen, dass ihnen die Manipulationen egal sind. Selbst TikTok versucht zumindest, gegen die gefälschten Interaktionen vorzugehen. Sie verstoßen nicht nur gegen die Nutzungsbedingungen, sondern schaden auch der vielbeschworenen Authentizität.
  • Doch die Plattformen kämpfen gegen Windmühlen: Die Dienstleister, die Fake-Likes verkaufen, wissen genau, wie sie die Schutzmaßnahmen umgehen können.
  • Sie erstellen nicht einfach plumpe Bots, die sich vergleichsweise leicht erkennen lassen. Vielmehr greifen sie auf ein globales Netzwerk von Clickworkern zurück. Ein Großteil davon stammt aus Asien, aber auch in Deutschland (SZ) liken Menschen für Centbeträge massenhaft Facebook-Seiten oder schreiben Kommentare.
  • Das erschwert es den Plattformen, die Manipulation zu erkennen. Schließlich sind es Menschen und keine Bots, die da interagieren – nur steckt kein echtes Interesse für den Inhalt dahinter, sondern ausschließlich finanzielle Motivation.

Be smart

Mark Zuckerberg lobt bei jeder Gelegenheit die angeblich ach so kluge AI, die immer mehr Spam und illegale Inhalte automatisch filtere. Grundsätzlich stimmt das auch: Facebook sperrt jedes Jahr Milliarden Fake-Accounts und löscht Hasskommentare schneller als früher. Ein Großteil der Verbesserungen ist auf maschinelles Lernen zurückzuführen, das gilt auch für Twitter und YouTube.

Der Stratcom-Bericht zeigt, dass trotzdem eine Menge Betrügereien und Manipulationen durchs Raster rutschen. Allerdings muss man auch sagen: Der politische und gesellschaftliche Schaden hält sich wohl in Grenzen. Die dubiosen Dienstleistungen werden vor allem von kleinen Unternehmen oder Kriminellen in Anspruch genommen.

Bei politischen Wahlen oder Themen wie der Corona-Pandemie scheinen gefälschte Interaktionen nur eine geringe Rolle zu spielen. Für die Glaubwürdigkeit der Plattformen ist das eine gute Nachricht. Für den Glauben an die Menschheit eher nicht: Hinter all den Millionen Accounts, die Lügen über Covid-19 liken, hinter der Pandemie eine große Verschwörung vermeintlicher Eliten wittern und jetzt schon Panik vor einem Impfstoff schüren, stecken keine Bots. Es sind echte Menschen, sie glauben den Unsinn wirklich.

The Future

Social Strikes Back

Die Risikokapitalgeber Andreessen Horowitz gehören zu den einflussreichsten Personen im Silicon Valley. Mit ihren Wetten auf bestimmte Apps und Branchen bestimmen sie maßgeblich mit, in welche Richtung sich das Consumer-Internet entwickelt. Nun agieren aber auch sie mit ihren Investments nicht im leeren Raum. Vielmehr gehört es zu ihrer Aufgabe, den Markt extrem genau zu durchleuchten, um Trends frühzeitig zu erkennen und zu benennen. Ihre Reportings sind somit also immer lesenswert aber niemals uneigennützig. Ihr neuester Report beschäftigt sich mit der Zukunft von Social: Social Strikes Back. Folgenden Themen widmen sie dabei u.a. einzelne Artikel:

  • Ohne Community geht es nicht mehr: Andreessen Horowitz gehen davon aus, dass künftig Produkte nur noch längerfristig erfolgreich sein können, wenn sie eine soziale Komponente integriert haben. Als Paradebeispiele werden Spiele wie Fortnite oder Roblox erwähnt. Games hätten es geschafft, zu Orten der Begegnung zu werden. Dies würde Nutzerïnnen länger binden und insgesamt die Loyalität erhöhen. Das Phänomen ließe sich auf alle möglichen Branchen übertragen: von Shopping-Apps (think Amazon mit Social-Komponente) über Sport-Apps (Strava und Zwift zeigen bereits in Ansätzen, was geht) bis zu Food-Apps. Unserer Meinung nach lässt sich das auch auf journalistische Angebote übertragen. Auch Verlage und Sender haben die Chance, sehr viel stärker als bisher (digitale) Begegnungen zu organisieren. Auf die Schließung von Kommentarspalten darf gern etwas folgen. Beim Social Media Watchblog erleben wir jedenfalls bereits, welche Kraft es haben kann, Menschen in einer Community (in diesem Fall via Slack) zusammenzubringen. Community Takes All: The Power of Social+
  • Audio kann mehr: Derzeit schauen alle auf Podcasts. Das sei aber viel zu kurz gesprungen, heißt es im Bericht der Risikokapitalgeber. Vielmehr sollte sich der Blick weiten und das Thema Audio breiter angegangen werden. Apps wie Headspace, Chalk und Clubhouse würden bereits jetzt zeigen, welche Bedeutung das Thema Audio neben Hörbüchern, Radio und Podcasts künftig spielen kann. The Next Phase of Social? Listen Closely
  • Video als Plattform: TikTok hat gezeigt, wie mächtig Video sein kann. Andreessen Horowitz sehen darin die Bestätigung dafür, dass Video in den kommenden Jahren bei sehr vielen Angeboten das Rückgrad bilden wird: bei Bildungsangeboten genauso wie bei Shopping-, Fitness- und Social-Apps. Live, Social, and Shoppable: The Future of Video

"Video is evolving from an add-on to a requisite. Through innovative new platforms and integrated tools, video is dramatically reinventing the way we shop, learn, work out, network, even party. Video can turn intimidating or awkward tasks like learning a new language or making professional connections more engaging, interactive, and fun. That vision has already been realized elsewhere around the world; now the pandemic has accelerated video-first innovation here."


Header-Foto von Ali Gooya bei Unsplash