Preisgekrönter Indie-Newsletter zu Social Media

Facebook eskaliert den Kampf gegen Corona-Fehlinformationen, Reuters-Studie zu Social Media und Nachrichten, TikTok-DM nur noch ab 16

Salut und herzlich Willkommen zur 631. Ausgabe des Social Media Briefings. Heute beleuchten wir Facebooks neue Ideen, wie Corona-Fehlinformationen stärker eingedämmt werden sollen. Zudem widmen wir uns einer Reuters-Studie zur Bedeutung von Social Media und Nachrichten-Websites in Zeiten existentieller Ängste. Das und noch viel, viel mehr im Newsletter deines Vertrauens! Viele Grüße und ein hoffentlich angenehmes Wochenende, Simon und Martin

Facebook eskaliert den Kampf gegen Corona-Fehlinformationen

Was ist: Du klickst auf Corona-Quatsch? Dann wirst du nachträglich gewarnt. So lässt sich Facebooks Ankündigung zusammenfassen. Der Prozess funktioniert so:

  • Nutzerïnnen interagieren in irgendeiner Form mit Beiträgen, die auf Artikel verweisen, die einen Bezug zu Covid-19 haben. Das beinhaltet alle Reaktionen, also Likes, Shares und Kommentare.
  • Später stufen Faktenprüferïnnen, die WHO oder andere offizielle Stellen wie das Bundesgesundheitsministerium den zugrundeliegenden Artikel als irreführend oder falsch ein und melden das an Facebook.
  • Facebook prüft die Meldung, entscheidet, dass es sich um „schädliche Fehlinformation” handelt, und löscht den Beitrag. Für Artikel mit Corona-Bezug liegt diese Hürde derzeit deutlich niedriger als bei Desinformationen zu anderen Themen.
  • Die Nutzerïnnen sehen im Newsfeed einen Hinweis und einen Link zur WHO.

Warum das wichtig ist: Die Ankündigung ist aus drei Gründen von Bedeutung. Erstens wählt Facebook damit ein völlig neues Mittel, vor dem es lange Zeit zurückgeschreckt ist. Zweitens unterstreicht ein Avaaz-Bericht, welch große Öffentlichkeit Corona-Desinformation auf Facebook immer noch findet – trotz aller Bemühungen. Drittens sind diese Falschnachrichten in der aktuellen Situation besonders gefährlich.

    1. Bislang hat Facebook nur Hinweise unter den Beiträgen selbst eingeblendet, wenn Faktenprüferïnnen diese beanstandet hatten. Das große Problem: Alle Menschen, die bis zu diesem Zeitpunkt die Fehlinformation sehen, bekommen das vermutlich nicht mehr mit. Auf diese Art ist es kaum möglich, viralen Unsinn einzufangen – man kann höchstens Schadensbegrenzung betreiben und die künftige Verbreitung einschränken. Jetzt informiert Facebook erstmals aktiv Nutzerïnnen, die in der Vergangenheit Desinformation ausgesetzt waren.

 

    1. Einer Untersuchung der NGO Avaaz zufolge wurden allein im März mehr als hundert Fehlinformationen mehr als 1,7 Millionen Mal auf Facebook geteilt und 117 Millionen Mal betrachtet. Vier von zehn Beiträge erhalten keine Warnhinweise, obwohl zwei Drittel davon von Facebooks eigenen Factchecking-Partnern widerlegt wurden. Teils dauert es drei Wochen, bis Facebook auf einen Faktencheck reagiert.

 

  1. In Briefing #629 haben wir analysiert, wie Verschwörungstheoretiker einen Zusammenhang zwischen 5G und Covid-19 herbeifantasieren. Damit erreichen sie nicht nur Millionen Menschen, sondern verbreiten solche Panik, dass in Großbritannien Dutzende Mobilfunkmasten beschädigt wurden. Verharmlosung ist noch gefährlicher: Wenn Menschen glauben, sie seien garantiert gesund, weil sie zehn Sekunden lang die Luft anhalten können, verhalten sie sich womöglich sorgloser – und stecken Alte oder Vorerkrankte an.

Wie Facebook Nutzerïnnen warnt: „Hilf deinen Freunden und deiner Familie, Fehlinformationen zum Coronavirus zu identifizieren”, steht groß im Newsfeed. Etwas kleiner darunter: „Teile einen Link zur Website der Weltgesundheitsorganisation, die eine Liste gängiger Gerüchte rund um das Virus zusammengestellt hat.”

Dort stellt die WHO etwa richtig, dass sich Covid-19 nicht via 5G ausbreiten kann, Knoblauch keine Infektionen verhindert und weder Hitze noch Kälte die Viren zuverlässig töten. Falschnachrichten wie diese wurden teils viele Millionen Mal weiterverbreitet.

Zunächst will Facebook Nutzerïnnen nicht explizit darauf hinweisen, dass sie mit Desinformation in Kontakt gekommen sind. Eine Sprecherin sagt aber, das Unternehmen werde unterschiedliche Versionen und Formulierungen testen, die teils konkreter werden sollen.

Was das genau bedeutet, ist unklar: Womöglich erfährt man, warum man den Hinweis sieht, oder erhält eine Korrektur für die Fehlinformation, mit der man interagiert hat.

Allerdings erklärt Facebook auch, seine eigenen Erhebungen hätten ergeben, dass solche konkreten Nachrichten den gegenteiligen Effekt auslösen könnten: Menschen glauben der Desinformation dann erst recht. Deshalb fokussiere man sich darauf, Menschen mit Fakten aus glaubwürdigen Quellen in Kontakt zu bringen.

Was Avaaz dazu sagt: Die Kampagnendirektoren Christoph Schott und Fadi Quran loben Facebook für die Entscheidung. Facebook befände sich im Epizentrum der Fehlinformationskrise, sagt Quran.

Aber das Unternehmen leitet heute eine entscheidende Wende ein, um dieses vergiftete Informationsökosystem zu bereinigen, indem es als erste Social-Media-Plattform alle Nutzer, die Coronavirus-Fehlinformationen ausgesetzt waren, entsprechend alarmiert und sie auf lebensrettende Fakten hinweist.

Avaaz untersucht seit langem wie sich Fehlinformationen auf Plattformen wie Facebook und YouTube ausbreiten, und fordert die Betreiber auf, konsequenter dagegen vorzugehen. Schott glaubt, dass Avaaz entscheidend zu Facebooks neuer Policy beigetragen habe.

Wir führen seit Wochen fast täglich Gespräche mit Facebook“, sagt er. „Die nehmen das Problem sehr ernst. Wir glauben, dass wir einen großen Einfluss auf die aktuellen Änderungen hatten.

Facebook bestätigt das nicht, dementiert aber auch nicht ausdrücklich. „We did collaborate with Avaaz on the concept”, heißt es nur – was auch immer das bedeuten mag.

Trotzdem gehen Avaaz die Änderungen nicht weit genug. Schott fordert, dass alle Nutzerïnnen, die Desinformation auf Facebook gesehen haben, nachträglich gewarnt und auf entsprechende Korrekturen hingewiesen werden. „Die Studienlage ist mittlerweile eindeutig: Richtigstellungen können ein Umdenken bewirken.“

Was die Wissenschaft dazu sagt: Avaaz hat bei Ethan Porter von der George-Washington-Universität und Tom Wood der Ohio-State-Universität eine Studie in Auftrag gegeben. Die beiden Professoren haben untersucht, was nachträgliche Richtigstellungen bewirken können.

Die zentrale Aussage: Menschen, die an falsche oder irreführende Informationen glauben, können zum Umdenken gebracht werden, wenn sie Korrekturen sehen. Im Schnitt ließ sich etwa die Hälfte der Studienteilnehmerïnnen überzeugen, dass sie einer Fehlinformation aufgesessen waren.

„Diese Ergebnisse liefern ganz klare Belege dafür, dass Faktenchecks auf Facebook funktionieren würden”, sagt Porter. „Über Interessensgebiete und Ideologien hinweg fördern Faktenchecks zuverlässig das faktisch korrekte Wissen der Nutzerïnnen.”

Yes, but: In Briefing #620 haben wir erklärt, warum wir nur in Ausnahmefällen über einzelne Studien berichten:

Völlig egal, wie du diese Fragen beantwortest – du wirst auf jeden Fall mindestens eine Studie finden, die deine Meinung bestätigt (und eine, die ihr widerspricht). Das liegt nicht zwangsläufig an mieser Methodik, die einzelnen Untersuchungen können für sich genommen valide und reliabel sein. Oft fokussieren sich die Forscherïnnen aber auf einen bestimmten Teilaspekt. Teils ist es auch gar nicht möglich, komplexe, sozialwissenschaftliche Fragestellungen abschließend empirisch zu beantworten.

Das gilt auch in diesem Fall. Im Januar sammelte das Nieman Lab sieben Studien, die sich mit Desinformation beschäftigen und teils zu unterschiedlichen Ergebnissen kommen, was die Wirksamkeit von Factchecks angeht.

Kurz darauf veröffentlichen vier MIT-Wissenschaftler ein Paper, das Vice so anpries: „It’s Official: Facebook’s Fact-Checking Is Making Its Fake News Problem Even Worse”. Das Problem ist der sogenannte „Implied Truth Effect”, den Brian Feldman gut erklärt (New Yorker):

That is, when certain posts are labeled fact-checked and false, users also believe that content without the label has been fact-checked and is true.

Hinzu kommt eine Gefahr, auf die Facebook selbst hinweist: Wenn man allzu konkret auf eine bestimmte Fehlinformation hinweist, wiederholt man den Inhalt. Selbst wen rot und groß „Debunked” darüber steht, bleibt bei einigen Nutzerïnnen trotzdem eher die Desinformation als die Korrektur hängen.

Be smart: Wie fast alle Plattformen tut Facebook seit vielen Wochen außergewöhnlich viel, um Gerüchte und Falschnachrichten über Covid-19 zu bekämpfen. Das ist wichtig und lobenswert. Die aktuelle Ankündigung ist einer von vielen Schritten – und mit Sicherheit nicht der letzte.

Dass nach wie vor vieles schief läuft, zeigt etwa ein Bericht der Verbraucherschutzorganisation Consumer Reports. Der Test:

I wanted to see how well the company is policing coronavirus-related advertising during the global crisis. So I put the two dangerous claims Clegg brought up, plus other false or dangerous information, into a series of seven paid ads.“

Das ernüchternde Ergebnis:

Facebook approved them all. The advertisements remained scheduled for publication for more than a week without being flagged by Facebook.

Reuters-Studie: Veränderter (News-) Konsum

Was ist: Das Reuters Institut hat untersucht, wie Menschen Nachrichten in Zeiten der Corona-Krise konsumieren und bewerten. Die Ergebnisse zeigen, dass der Zugang zwar sehr divers ist, traditionelle Medienhäuser aber deutlich mehr Glaubwürdigkeit genießen als soziale Medien. Bei der University of Oxford gibt es alle Ergebnisse der Studie – bei uns einen Überblick der zentralen Befunde.

Die Datenlage

  • Die Untersuchung wurde von YouGov anhand eines Online-Fragebogens durchgeführt, der vom 31. März bis 7. April 2020 in Argentinien, Deutschland, Südkorea, Spanien, Großbritannien und den USA ausgefüllt wurde.
  • In Deutschland wurden 2003 Menschen befragt.
  • Die Studie gilt als repräsentativ.

 

Die Ergebnisse im Überblick:

 

N…

Noch keine Abonnentïn?

Scroll to Top