The Final Countdown
Was ist
Wenn dieser Newsletter in deinem Postfach ankommt, ist Wahltag. Wir sind keine Politikexperten, doch viele unserer Themen liegen an der Schnittstelle zwischen Social Media, Politik und Gesellschaft. Dementsprechend spielte die wichtigste Wahl der vergangenen Jahre auch bei uns eine große Rolle.
Wir haben in den vergangenen Monaten Tausende Links gesammelt, Hunderte Texte gelesen, Dutzende Briefings mit Hunderttausenden Zeichen geschrieben – und ein Großteil davon hatte direkt oder indirekt mit dem 3. November zu tun. Allzu viel Neues ist übers Wochenende nicht dazugekommen. Wir haben das Gefühl, dass wir uns leergeschrieben haben: Eigentlich ist alles gesagt, jetzt heißt es abwarten.
Trotzdem wollen wir dir natürlich etwas mit auf den Weg geben, das dir womöglich bei der Vorbereitung auf die lange Wahlnacht und die Tage danach hilft. Also bereiten wir unsere eigenen Wahlressourcen auf und fassen dir kompakt zusammen, was du in den jeweiligen Ausgaben nachlesen kannst.
Wir gehen dabei chronologisch vor und hoffen, dass der Überblick der Ereignisse in Erinnerung ruft, wie außergewöhnlich und absurd diese Zeiten sind. Davor gehen wir noch kurz auf aktuelle Nachrichten ein.
Was am Wochenende geschah
Die wichtigste Entwicklung wäre fast untergegangen, hätten Ryan Mac und Craig Silverman nicht ganz genau hingehört, als Mark Zuckerberg am Mittwoch vor dem US-Senat aussagte. Während der Anhörung erwähnte Zuckerberg, dass Facebook aufgehört habe, Nutzerïnnen automatisch zu empfehlen, welchen neuen Gruppen sie beitreten könnten. Das gilt für alle Gruppen, die sich mit politischen oder sozialen Themen beschäftigen.
Mac und Silverman fragten bei Facebook nach, woraufhin eine Sprecherin die Maßnahme bestätigte (BuzzFeed):
"This is a measure we put in place in the lead-up to Election Day", said Facebook spokesperson Liz Bourgeois, who added that all new groups have been filtered out of the recommendation tool as well. "We will assess when to lift them afterwards, but they are temporary."
Das ist eine bemerkenswerte Entscheidung, die mehr Aufmerksamkeit verdient hätte. Schließlich gelten die Gruppenempfehlungen als wichtige Triebfeder der Radikalisierung. Immer wieder schlug Facebook in der Vergangenheit extremistische, verschwörungsideologische oder antisemitische Gruppen vor.
Interessant ist auch, dass Mozilla kürzlich in einem offenen Brief an Facebook und Twitter (Mozilla-Foundation), der auch als ganzseitige Anzeige in der Washington Post veröffentlicht wurde, genau das gefordert hatte:
"We are calling on both Facebook and Twitter to immediately turn off two features that can amplify disinformation: Facebook’s Group Recommendations and Twitter’s Trending Topics."
Wir wissen nicht, ob es einen kausalen Zusammenhang gibt, halten das aber für unwahrscheinlich. Solche Policy-Änderungen beschließt Facebook selten ad hoc und erst recht nicht, weil eine NGO das fordert – auch #StopHateForProfit hat Facebook weitgehend und erfolgreich wegignoriert.
Wir halten die Maßnahme für sinnvoll, fragen uns aber: Warum wird die Funktion für politische Gruppen nicht dauerhaft abgeschaltet? 2016 kam ein Facebook-Forscher zum Ergebnis (WSJ), dass fast zwei Drittel aller Beitritte in extremistische Gruppen auf den automatisierten Vorschlägen beruhen.
Ist das System so viel besser geworden? Anfang Oktober erklärten wir, wie Facebook-Gruppen "raus aus der Schmuddelecke" holen will. Doch offenbar empfindet Facebook die Empfehlungen rundum die US-Wahl immer noch als problematisch. Wir verstehen nicht, warum das zwei Wochen oder zwei Monate später anders sein sollte.
Passend dazu einige weitere Facebook-Polit-News in Kürze:
- Facebooks Werbebann hat zum Start einen Bauchklatscher hingelegt (Axios) und vor allem Demokraten verärgert (Protocol).
- Generell scheint Facebook noch ein paar Probleme mit politischen Anzeigen zu haben: Trump-Unterstützer umgehen die Faktenchecks (WSJ), indem sie widerlegte und abgelehnte Werbung mit minimalen Änderungen erneut posten. Auch eine aktuelle Untersuchung des Tow-Center (CJR) wirft kein gutes Licht auf Facebooks Factchecking-Bemühungen.
- Oder sind Facebooks eigentliches Problem nicht politische Anzeigen, sondern Konservative? "Prominent associates of President Trump and conservative groups with vast online followings have flirted with, and frequently crossed, the boundaries set forth by Facebook about the repeated sharing of misinformation", berichten Isaac Stanley-Becker und Elizabeth Dwoskin (Washington Post). Überrascht? Wir auch nicht (Vice).
- Lügen und Desinformation über soziale Medien verbreiten? Das ist doch 2016. Das geht doch auch per SMS (NYT).
- Zumindest scheinen die Plattformen ihre Kräfte zu bündeln: "Mein Pendant bei Twitter sagt, dass ich ihn öfter anrufe als seine Mutter", erzählt Facebooks Sicherheitschef Nathaniel Gleicher in einem wirklich interessanten Interview (NYT).
Was wir über die Wahl geschrieben haben
- #642, 29.5.: Twitter wagt es, unter zwei Trump-Tweets einen Faktencheck einzublenden – und tritt damit eine Lawine los: Trump tobt und bedient die alte Leier des vermeintlich anti-konservatives Bias.
- #643, 3.6.: Trump setzt seinen berüchtigten Droht-Post ("when the looting starts, the shooting starts") ab. Zuckerberg unternimmt nichts und sieht sich erstmals lautstarken öffentlichen Protesten seiner Angestellten ausgesetzt.
- #644, 5.6.: Während Twitter auf Konfrontationskurs mit Trump geht und Facebook den US-Präsidenten in Watte packt, entscheidet sich Snapchat für einen Mittelweg. Ab sofort werden Inhalte von Trump nicht mehr bei Snapchat Discover beworben.
- #649. 26.6.: Die "Black Lives Matter"-Proteste halten an, struktureller Rassismus hat in den USA vorübergehend das Coronavirus als alles bestimmendes Thema abgelöst. Der interne und externe Druck auf Facebook wächst: Immer mehr Unternehmen schließen sich der Kampagne #StopHateforProfit an, die dazu aufruft, im Juli keine Anzeigen auf Facebook zu schalten.
- #650, 30.6.: Der Werbeboykott nimmt Fahrt auf, Unternehmen, NGOs und Bürgerrechtlerïnnen fordern Facebook auf, sich endlich deutlicher zu positionieren. Die Facebook-Aktie rauscht in den Keller, Zuckerberg gibt sich ungerührt.
- #653, 10.7.: Die Initiatorïnnen von #StopHateforProfit treffen sich mit der Facebook-Führungsriege und ziehen ein vernichtendes Fazit.
- #654, 14.7.: Binnen weniger Tage werfen die Tech-Plattformen reihenweise Rechtsradikale, Rassistïnnen und Verschwörungsideologïnnen raus. Wir sehen darin einen größeren Trend: Das weitgehend unregulierte World Wild Web geht zu Ende, Konzerne übernehmen mehr Verantwortung für Inhalte.
- #656, 23.7.: Der Kampf um TikTok spitzt sich zu. Trump bringt den erzwungenen Verkauf an ein nicht-chinesisches Unternehmen ins Spiel.
- #658, 12.8.: Trump macht seine Drohungen war und erlässt zwei Executive Orders, die sich gegen TikTok und ByteDance richten. Microsoft gilt als aussichtsreichster Käufer.
- #659, 15.8.: Mehrere Recherchen legen nahe, dass Facebook seine eigenen Richtlinien ignoriere und Ausnahmen für rechte und konservative Medien mache, um es sich nicht mit Trump und dessen Unterstützerïnnen zu verscherzen. Immer wieder wird der Einfluss des früheren Republikaners Joel Kaplan thematisiert, der direkten Einfluss auf etliche Entscheidungen des Policy-Teams genommen haben soll.
- #661, 21.8.: Facebook kickt QAnon-Anhängerinnen und die Boogaloo-Bewegung, verbannt Blackfacing und bestimmte antisemitische Stereotype und startet das "Voting Information Center", um Nutzerïnnen verlässliche Informationen über die Wahl zu liefern.
- #662, 25.8.: TikTok will sich nicht so einfach aus den USA vertreiben lassen und klagt gegen Trumps Executive Order. Oracle steigt ins Bieterrennen ein.
- #664, 2.9.: Facebook setzt ein neues Forschungsprojekt auf, um zu prüfen, wie groß der Einfluss von Facebook und Instagram auf die US-Wahl ist. Die Ergebnisse sollen im Sommer 2021 veröffentlicht werden.
- #665, 4.9.: Die Wahl wirft ihre Schatten voraus. Facebook verschärft seine Regeln im Umgang mit Desinformation und führt neue Labels, Limits und Funktionen ein.
- #666, 11.9.: Die Wahl wird nicht nur auf Facebook entschieden. Trump investiert massiv in YouTube-Anzeigen und hängt dort Biden deutlich ab. Der nutzt dagegen das Videospiel "Animal Crossing", um mit seinem Wahlkampf neue Zielgruppen zu erreichen.
- #667, 15.9.: Microsoft verabschiedet sich aus dem Rennen um TikTok. Stattdessen will ByteDance mit Oracle zusammenarbeiten, um ein Verbot zu verhindern.
- #668, 18.9.: Eine ehemalige Facebook-Angestellte wirft dem Unternehmen vor, Wahlmanipulationen und Desinformationskampagnen teils monatelang ignoriert zu haben. Buzzfeed leakt das interne Memo und macht die Anschuldigungen damit öffentlich.
- #669, 22.9: Nach monatelangem Drama scheint sich ein TikTok-Deal abzuzeichnen. Tatsächlich bleiben aber viele Fragen offen. 17, um genau zu sein – die wir alle aufwerfen, aber nicht beantworten können.
- #674, 9.10.: Den September begann Facebook mit einem ganzen Maßnahmenbündel mit Blick auf die Wahl. Diese Tradition wird im Oktober fortgesetzt. Offensichtlich fürchtet Facebook Verunsicherung und zivile Unruhen.
- #675, 14.10.: Die Gründung des "Real Facebook Oversight Board" löst eine Kontroverse aus. Wir nehmen Facebook ausnahmsweise gegen allzu harsche Kritik in Schutz. Außerdem veröffentlicht die britische Datenschutzbehörde einen Bericht, der zeigt, dass die grenzenlose Empörung über Cambridge Analytica wohl etwas übertrieben war.
- #676, 16.10.: Twitter schraubt am Retweet-Button. Statt mit einem Klick zu teilen, werden Nutzerïnnen aufgefordert, einen eigenen Kommentar hinzuzufügen. Die mutmaßliche Hack-and-Leak-Operation rund um Hunter Biden zwingt Facebook und Twitter zu entschlossenem Handeln und löst erneut einen Aufschrei im Trump-Lager aus.
- #677, 23.10.: Recherchen von WSJ und Mother Jones zeigen, dass Facebook wohl tatsächlich mehrfach seine Regeln angepasst hat, um konservativen Medien nicht zu schaden.
- #678, 27.10.: Wir formulieren zehn Sätze und Thesen, die als Vorbereitung auf die Wahl dienen sollen. Die Takeaways sind nach wie vor aktuell.
- #679, 29.10: Das Silicon Valley bereitet sich auf eine wilde Wahlwoche vor. Facebook, Instagram, Google, YouTube, Twitter, TikTok und Snapchat ergreifen Dutzende Maßnahmen, um zu verhindern, dass der 3. November die USA ins Chaos stürzt.
Be smart
Wir wissen nicht, was in den kommenden Tagen geschehen wird. Aber angesichts der zu erwartenden Ungewissheit hoffen wir, dass zumindest ein paar Menschen dem weisen Ratschlag von Joanna Stern folgen:
"The first rule of election social media is: You do not use election social media. We should all take the occasional social-media break in our lives—right now’s a great time."
Es ist absehbar, dass soziale Medien mit Lügen, Desinformation und Panikmache geflutet werden. Je weniger Menschen sich davon verrückt machen lassen, desto besser. Ihre Anleitung klingt ausgesprochen sinnvoll – und könnte auch auf der anderen Atlantikseite helfen, ein bisschen gelassener zu bleiben:
"Locate the social-media apps you find most irresistible. (For me it’s Twitter and Instagram.) Place them in a new folder entitled “DO NOT USE UNTIL ELECTION IS OVER.” Now hide this folder deep inside your phone."
Social Media Watchblog Lecture: Teja talkt zu TikTok
In unserer Lecture-Premiere geht es um das Netzwerk der Stunde – TikTok. In 45 Minuten erzählt euch Teja Adams, warum ihn TikTok fasziniert, was die hohe Content-Dichte des Netzwerks ausmacht und wie der Algorithmus tickt. Im Anschluss an den Vortrag können gern Fragen gestellt werden.
Teja konzipiert und realisiert seit zehn Jahren Digital-Projekte für die ARD und ist europaweit als Berater und Coach unterwegs. Und genau wie wir begeistert sich Teja für neue Digital-Projekte. Aktuell arbeitet er am SOCIALCLUB. Wer mag, kann sich ergänzend zu Tejas Vortrag für einen seiner Online-Workshops oder für eine individuelle Analyse eines Social-Media-Accounts anmelden – 10% off gibt es, wenn bei der Anmeldung unter socialclub.tejaadams.com „SMWB“ angegeben wird.
Wir sind am SOCIALCLUB nicht beteiligt, möchten aber Teja an dieser Stelle gern die Möglichkeit geben, für sein Baby zu werben.
Header-Foto von Kayle Kaupanger bei Unsplash