Verschwörungstheorien über Notre-Dame, Rechte dominieren im Netz, Diversität im Feed

Danke fürs Teilen

Salut und herzlich Willkommen zur 541. Ausgabe des Social-Media-Watchblog-Briefings. Heute blicken wir nach Paris, wo das Feuer in Notre-Dame abermals gezeigt hat, wie toxisch soziale Medien in Breaking-News-Situationen seien können. Außerdem beschäftigen wir uns mit einer Recherche über rechtsradikale Desinformation, geben Tipps fürs googlefreie Smartphone und verlinken jede Menge Lesestoff für die Feiertage. Apropos: Frohe Ostern! Martin & Simon

[line]
[gap size=“40px“]

Notre-Dame und die sozialen Medien

Was ist: Nach dem Brand in Notre-Dame versagen die großen Plattformen in mehrfacher Hinsicht: Youtube verwechselt Aufnahmen der brennenden Kathedrale mit den Anschlägen vom 11. September. Auf Facebook und Twitter breiten sich binnen Stunden die üblichen, gezielt gestreuten Falschmeldungen und Gerüchte aus.

Warum das wichtig ist: Die halbe Welt ist online, Milliarden Menschen nutzen Youtube und Facebook. Längst haben klassische Medien ihre Gatekeeper-Rolle an soziale Medien verloren. Für viele Menschen gilt: Was sie im Internet sehen und lesen, ist die Realität. Die Algorithmen der Plattformen, optimiert auf Emotionalität und Engagement, tragen zusätzlich zur Verbreitung der – rassistischen, islamaphoben, maximal emotionalen und damit klickträchtigen – Hoaxe bei. What a world to be alive.

Was bei Youtube schiefgeht: Als am Montagabend die Flammen durchs Dach der Kathedrale schlagen, übertragen Dutzende Medien live in alle Welt. Unter mehreren Livestreams, die zu diesem Zeitpunkt Hunderttausende Menschen verfolgen, blendet Youtube einen irritierenden Hinweis ein: "Die Anschläge des 11. September waren (…) der tödlichste Terroranschlag auf amerikanischem Boden in der Geschichte der USA." Darunter folgt ein Link auf den Eintrag über 9/11 in der Encyclopedia Britannica.

Was dahintersteckt: Seit dem vergangenen Jahr zeigt Youtube Nutzern in den USA und Südkorea bei bestimmten Themen solche Infotafeln an und verlinkt auf die Wikipedia oder die Encyclopedia Britannica. Das gilt etwa für die Mondlandung, das Sandy-Hook-Massaker und 9/11. Das soll verhindern, dass sich Verschwörungstheorien ausbreiten. Vermutlich haben Youtubes Algorithmen optische Gemeinsamkeiten zwischen Notre-Dame und dem World-Trade-Center entdeckt. Vielleicht waren es auch bestimmte Kommentare, die die Funktion ausgelöst haben. Youtube äußert sich dazu nicht, hat die Hinweise aber immerhin relativ schnell wieder entfernt.

Wie die Funktion sonst funktioniert: Kurz gesagt: ziemlich mies. Joshua Benton vom NiemanLab der Universität Harvard hat zahlreiche weitere Fälle gesammelt, in denen Youtubes Algorithmen Hinweise einblenden, die eher verwirren als aufklären: Was hat der Encyclopedia-Britannica-Artikel über 9/11 unter einem Video über New York aus dem Jahr 1976, dem Start der Rakete Falcon Heavy oder einem Feuer in San Francisco zu suchen? In einem Follow up fragt Benton, ob die Infotafeln, selbst wenn sie unter dem richtigen Video auftauchen, nicht generell kontraproduktiv sind. Einige Forscher sind der Meinung, dass die Funktion die Glaubwürdigkeit von Bullshit-Clips steigern könnte. Ganz eindeutig scheint sich das bislang aber nicht sagen zu lassen. Bleibt festzuhalten: Gut gemeint, von unklarem Nutzen, garantiert schädlich, wenn etwas schiefgeht – und das scheint häufiger zu passieren.

Was sonst so im Netz los ist: Na was wohl? Eines der berühmtesten Gebäude der Welt brennt nieder. Ein europäischer Kulturschatz wird zerstört, und die genaue Ursache bleibt zunächst unklar – It's hoax time! Ich will gar nicht im Detail auf all die bösartigen Falschmeldungen eingehen, sondern verweise auf die Arbeit von Jane Lytvynenko und Craig Silverman. Sie kümmern sich bei Buzzfeed um Desinformation und Propaganda in sozialen Medien. Gemeinsam haben sie die rechtsradikalen Verschwörungstheorien dokumentiert, die Muslime für den Brand verantwortlich machen. Einen Tag später haben sie den Weg der Falschmeldungen nachgezeichnet, die sich von Imageboards wie 4chan über Social-Media-Plattformen bis in die Massenmedien verbreiten. Am Ende steht wie üblich Fox News – und damit Abermillionen US-Amerikaner, die üble und haltlose Unterstellungen präsentiert bekommen.

Den ersten Text empfehle ich aber nur mit einer entscheidenden Einschränkung. Er mache "ungefähr alles falsch, was man aus medialer Sicht falsch machen kann", schreibt Sascha Lobo. Das ist mir zu harsch, aber Lobo spricht einen wichtigen Punkt an: Buzzfeed und andere Medien ignorieren die durchaus vorhandene Schadenfreude, mit der manche Muslime auf die Katastrophe reagiert haben. Nach jeder Tragödie gibt es widerliche Kommentare – von Menschen jedweder Religion und Nationalität. Warum sollte das bei Muslimen anders sein? Das kleinzureden, spielt nur den Rassisten in die Hände.

Be smart: In jeder Breaking-News-Situation zeigen sich Segen und Fluch der sozialen Medien: Auf jeden Mensch, der betroffen die Live-Aufnahmen der brennenden Kathedrale ansieht und sich in Echtzeit informiert, kommt ein anderer, der Gerüchte sieht, hört und liest oder sogar selbst verbreitet. Erst vor wenigen Wochen haben Facebook und Youtube den Terror von Christchurch auf der ganzen Welt verbreitet (mehr dazu in Briefing #533), jetzt nutzen Rechtsextreme die Plattformen als Propagandaschleuder.

Die Zahnpasta ist aus der Tube, wir können die Zeit nicht einfach zehn Jahre zurückdrehen. Es wäre auch zu einfach, nur mit dem Finger auf die Unternehmen zu zeigen. Ja, Facebook und Google haben lange viel zu wenig getan, um problematische Inhalte aus dem Netz zu fischen. Sie tun immer noch zu wenig: Statt sich darauf zu verlassen, dass irgendwelche Maschinen den Job übernehmen, müssen sie mehr Menschen anstellen, diese besser schulen und anständig bezahlen. Bei Jahresgewinnen im zweistelligen Milliardenbereich sollte das möglich sein.

Die Plattformen werden aber niemals alle Inhalte prüfen können. Mike Masnick rechnet das hier am Beispiel von Youtube vor. Es wird immer Menschen geben, die das ausnutzen. Deshalb verweise ich zum wiederholten Mal auf die "Sieben Regeln für mehr Social-Media-Gelassenheit", die Dirk von Gehlen formuliert hat: "Wenn in Eilmeldungs-Lagen Menschen unverantwortlich Gerüchte und Falschmeldungen streuen, kann das zu Panik führen. Das ist Mist. Deshalb haben wir sieben einfache Regeln gegen die Panik aufgeschrieben."

[line]
[gap size=“40px“]

Das Netz in rechter Hand

Was ist: In sechs Wochen wird in Europa gewählt. Wie bei jeder Wahl in den vergangenen Jahren wird das Netz davor mit politischen Manipulationsversuchen und Falschmeldungen geflutet werden. Diesmal könnte es besonders schlimm werden: Das Recherche-Team "Investigate Europe" hat mit mehr als 100 Experten, Wissenschaftlern, Politikern und Mitarbeitern der Social-Media-Plattformen gesprochen. Sie wollten herausfinden, wie die Desinformationskampagnen ablaufen, wem sie nutzen und wie Behörden und Unternehmen reagieren. Ihr Fazit: Europa ist nicht ausreichend vorbereitet (Tagesspiegel), um die Desinformationsmaschine zu stoppen.

Warum das wichtig ist: Ich bin bei solchen Texten und Studien normalerweise vorsichtig: Zu oft habe ich Warnungen vor angeblich gefährlichen Social Bots gelesen, die massenhaft Wähler beeinflusse…

Scroll to Top