Monat: August 2021

Was Menschen in Deutschland von Social Media halten | Zwölf Handlungsempfehlungen, um junge Menschen gegen digitale Desinformation und Hassrede zu stärken | TikTok führt Boost-Funktion ein

4 Reports, die 4 Wochen vor der Wahl genau richtig kommen

Was ist

Wir richten den Blick oft auf die USA. Fast alle relevanten Tech-Firmen sitzen im Silicon Valley, die US-Wahl war das wichtigste politische Ereignis der vergangenen Jahre. 2021 ist das anders: In vier Wochen wird gewählt, also widmen wir uns dem deutschsprachigen Teil des Netzes.

In dieser Ausgabe stellen wir drei Studien vor, die sich damit beschäftigen, was Menschen in Deutschland von Social Media halten. Zudem geben wir zwölf Handlungsempfehlungen eines Papers weiter, um junge Menschen gegen digitale Desinformation und Hassrede zu stärken. Egal, wer die Wahl gewinnt: Es wäre schön, wenn die neue Bundesregierung einige dieser Ratschläge beherzigt.

Die vier Ausarbeitungen stammen von zwei Autoren, die Watchblog-Leserïnnen bekannt sein dürften, weil sie immer wieder in unseren Briefings auftauchen:

  • Alex Sängerlaub hat die Ergebnisse der Befragungen für den Thinktank Reset aufbereitet.
  • Die Vodafone-Stiftung hat Martin Fuchs gefragt, welche politischen Maßnahmen helfen könnten, digitale Souveränität zu stärken.

Reset: Social Media in Deutschland

Die Befragungen umfassen drei Themengebiete (Reset.tech), zu denen jeweils ein Report erarbeitet wurde:

  • Debattenkultur in sozialen Medien (PDF)
  • Desinformation in sozialen Medien (PDF)
  • Hass in sozialen Medien (PDF)

Wir geben nicht die kompletten Ergebnisse wieder, sondern beschränken uns auf ausgewählte Informationen, die uns überrascht haben oder die wir für wichtig halten. Für alle drei Studien wurden Ende Juni jeweils gut 3000 wahlberechtigte Internet-Nutzerïnnen ab 18 Jahren befragt. Die Ergebnisse sind repräsentativ für die Gesamtbevölkerung.

Debattenkultur in sozialen Medien

  • "Debatten, die in den sozialen Medien geführt werden, bereichern unsere Demokratie." Dieser Satz polarisiert: 43 Prozent stimmen zu, 48 Prozent sehen das anders.
  • Wenn man nach dem Einfluss von Institutionen auf die Diskussionskultur fragt, ergibt sich ein interessantes Bild. Mehr als zwei Drittel schreiben Lokalzeitung und öffentlich-rechtlichem Rundfunk positive Effekte zu. Bei sozialen Medien im Allgemeinen glauben das nur ein Drittel der Befragten, Facebook und Twitter im Besonderen schneiden mit jeweils rund 20 Prozent noch schlechter ab. Nur die Bild-Zeitung liegt noch mal drei Prozentpunkte dahinter.
  • Die deutlich negative Einschätzung sozialer Medien teilen alle Altersgruppen. Allerdings sind Jüngere tendenziell positiver eingestellt als Ältere. Auch aktive Social-Media-Nutzerïnnen haben ein etwas besseres Bild der Plattformen. Das zeigt sich insbesondere bei Twitter: 47 Prozent der Befragten, die Twitter selbst nutzen, sehen das Netzwerk positiv – aber nur 20 Prozent der Gesamtbevölkerung.
  • Die einzige Gruppe, die den Ton in sozialen Medien mehrheitlich für angemessen hält, sind AfD-Anhängerïnnen. Nur ein Drittel sagt, der Umgangston sei zu rau. Bei Sympathisantïnnen aller anderer Parteien liegt die Zustimmung bei mehr als der Hälfte.
  • Drei Viertel der Befragten halten sich bei politischen Diskussionen in sozialen Medien lieber zurück. Das sagen mehr Frauen als Männer und Jüngere eher als Ältere. Gerade einmal 15 Prozent liken, teilen, kommentieren oder verfassen häufig Beiträge zum Thema Politik.
  • Für Journalistïnnen bedeutet das: Nein, ein paar Tweets oder Facebook-Posts sind kein Stimmungsbild, sondern stehen fast immer nur für ein paar Leute, die mal ihre Meinung ins Netz schreiben.

Desinformation in sozialen Medien

  • 85 Prozent der Befragten sehen in Desinformation ein großes gesellschaftliches Problem. Wer AfD wählt, ist tendenziell entspannter, was das Thema angeht.
  • Auch mit Bezug auf die Bundestagswahl sehen AfD-Sympathisantïnnen die geringste Gefahr von Fehlinformationen. 37 Prozent machen sich keine Sorgen, bei fast allen großen Parteien liegt dieser Anteil unter 20 Prozent – nur FDP-Anhängerïnnen geben sich ähnlich gelassen wie potenzielle AfD-Wählerinnen (31%).
  • Drastisch fällt der Unterschied beim Medienvertrauen aus. Dem Satz "Ich befürchte, dass Medien nicht korrekt über die Parteiprogramme und Kandidatinnen und Kandidaten berichten werden" stimmen 78 Prozent der AfD-Anhängerïnnen zu. Bei FDP und Linke liegt der Wert knapp über 50 Prozent, bei den anderen Parteien teilen diese Meinung weniger als die Hälfte der Anhängerïnnen.
  • Werden sich ausländische Staaten wie Russland oder China in den Wahlkampf einmischen? Das befürchten insgesamt 41 Prozent, die geringste Gefahr sehen Menschen, die AfD oder Linke wählen wollen.
  • In den USA hat Donald Trump unangebrachte Panik vor vermeintlicher Wahlmanipulation geschürt. Auch in Deutschland scheint diese Sorge in erster Linie am rechten Rand zu verfangen. Mehr als zwei Dritten der AfD-Anhängerïnnen glaubt, dass es "bei der Wahl nicht mit rechten Dingen zugehen wird" und etwa bei der Briefwahl manipuliert werden könnte.
  • Knapp zwei Drittel der Befragten nehmen Desinformation in sozialen Medien häufig oder sehr häufig wahr. Mit zunehmendem Alter sinkt der Wert deutlich. (Was schlicht daran liegen könnte, dass Ältere weniger Zeit mit Social Media verbringen.)
  • Vier von zehn Befragten haben Angst, auf Fehlinformationen hereinzufallen. Drei Viertel glauben, dass sie wüssten, worauf sie achten müssen, um richtige von falschen Behauptungen zu unterscheiden. Wenn wir an die Studie zur digitalen Nachrichten- und Informationskompetenz denken, die wie in Briefing #712 vorstellten, dann ist das … selbstbewusst.
  • Wie wichtig diese Fähigkeit wäre, zeigen die Antworten auf die Frage, woher Menschen politische Informationen beziehen. Insgesamt informiert sich eine knappe Mehrheit offline (TV, Radio, Print). Bei den 18-24-Jährigen sagen aber acht von zehn Befragten, dass sie ihre Informationen überwiegend online bekämen.
  • Interessant und erschreckend ist die Wirkmächtigkeit von Desinformation. Jeweils rund ein Viertel glaubt, dass die Grünen Autofahren verbieten wollen, Muslime in Deutschland einen Gottesstaat mit Scharia errichten wollen und hält die Briefwahl für besonders anfällig für Wahlmanipulation. Allen Aussagen stimmt jeweils mehr als die Hälfte der AfD-Sympathisantïnnen zu, mit deutlichem Abstand folgt die FDP.
  • Beängstigende 17 Prozent sagen, das Coronavirus sei ein Vorwand, um Menschen zu unterdrücken. Auch hier ist die parteipolitische Präferenz entscheidend: 48 Prozent der AfD-Anhängerïnnen hängt dieser Fehlinformation an, bei den Grünen sind es nur sechs Prozent.

Hass in sozialen Medien

  • 85 Prozent der Befragten sehen in Hasskommentaren ein großes gesellschaftliches Problem (kein Copy/Paste-Fehler von oben: Der Wert ist tatsächlich genau derselbe wie bei der Frage nach Desinformation). Die Ergebnisse schwanken aber stark in Abhängigkeit von Geschlecht und politischer Präferenz: 93 Prozent der jungen Frauen, aber nur 62 Prozent der AfD-Sympathisantïnnen nehmen Hass im Netz als Problem wahr.
  • Das korreliert mit der Antwort auf die Frage, wie oft die Befragten Hasskommentare im Netz sehen. Jüngere begegnen ihnen öfter als Ältere, Frauen öfter als Männer.
  • Jede dritte Frau zwischen 18 und 34 Jahren sagt, dass sie in sozialen Medien sexuell belästigt wurde. 19 Prozent der jungen Frauen geben an, dass private Daten gegen ihren Willen veröffentlicht worden seien. Auch Stalking und sexuelle Belästigung über einen längeren Zeitraum treffen etwa jede fünfte Frau aus dieser Altersgruppe.
  • Neben Alter und Geschlecht beeinflussen zwei weitere Faktoren die Erfahrungen mit Social-Media-Hass: LGBTQ und ethnischer Hintergrund, insbesondere die Religion.
  • Das Netzwerk, in dem mit Abstand am meisten Menschen Hasskommentaren ausgesetzt sind, ist Facebook (27%). Danach folgen Instagram (9%), YouTube (5%) und Twitter (3%).
  • Das liegt natürlich auch an der Größe der Plattformen. Doch selbst dann, wenn man nur die jeweiligen Nutzerïnnen befragt, ist die Prävalenz auf Facebook (37%) deutlich größer als auf Instagram (18%) und Twitter (13%).
  • Uns überrascht insbesondere der niedrige Wert bei YouTube: Nur sechs Prozent der Nutzerïnnen haben dort eine Hasserfahrung gemacht. Ähnlich wie bei Twitter erklären wir uns das damit, dass viele der Befragten wohl selten selbst kommentieren, sondern in erster Linie konsumieren, also Videos anschauen oder fremde Tweets lesen.
  • "Es ist nicht gut für mein psychisches Wohlbefinden, viel Zeit in sozialen Medien zu verbringen." Diesem Satz stimmt mehr als die Hälfte der Befragten zu, darunter fast zwei Drittel der jungen Frauen.
  • Vier von zehn Befragten zwischen 18 und 34 Jahren würden gern weniger Zeit mit Social Media verbringen, schaffen es aber nicht.

Vodafone-Stiftung: Digitale Souveränität

Seit drei Jahren befragt die Vodafone-Stiftung immer wieder repräsentativ ausgewählte 14-24-Jährige und interviewt zusätzlich Expertïnnen (die jüngsten Ergebnisse haben wir in Briefing #736 vorgestellt). Dabei geht es um Fragen wie:

  • Wie informiert sich, kommuniziert und engagiert sich Jugend heute in der Demokratie?
  • Welchen Herausforderungen und Gefahren sind Jugendliche im digitalen Umfeld ausgesetzt?
  • Wie kompetent ist diese Generation im Netz wirklich?

Auf Grundlage dieser Studien und Umfrageergebnisse bat die Stiftung Martin Fuchs, "konkrete Handlungsempfehlungen für die neue Bundesregierung zu erarbeiten, die helfen sollen, junge Bürgerïnnen digital souveräner zu machen." Martin hat seine zwölf Ratschläge in drei Themenfeldern zusammengefasst. Wir geben sie gekürzt wieder und verweisen für ausführlichere Informationen auf das Policy-Paper, das am Mittwoch erscheint und dann auf der Seite der Stiftung abrufbar sein wird.

1. Fördert die digitale Diskussionskultur bei Jugendlichen

Vermutlich wirft jede Generation der nächsten vor, sie seit unpolitisch und träge. Auch bei der Gen Z ist das Unsinn. Fridays for Future, Black Lives Matter – junge Menschen wollen ihre Zukunft politisch mitgestalten.

64 Prozent der 14- bis 24-Jährigen gibt an, dass es ihnen wichtig sei, mit anderen über politische Themen zu diskutieren – und das tun sie vor allem im Netz. Eine Mehrheit sagt, dass sie sich am liebsten online austauschen, informieren, organisieren und mit Politikerïnnen in Kontakt treten.

Trotzdem hat ein signifikanter Teil der Jugendlichen noch nie seine politische Meinung im Netz geäußert. Viele nennen die abschreckende Diskussionskultur als Grund. Es gibt also den Wunsch, mit anderen politisch zu debattieren, bislang existieren aber wenig passende Angebote. Daraus leitet Martin folgende vier Empfehlungen ab (das Paper enthält weitere Ausführungen und Details zu den einzelnen Punkten):

  • "Jugend debattiert" für den digitalen Raum
  • Bildungsangebote auf den Plattformen schaffen, wo Jugendliche selbst aktiv sind
  • Messengerdienste als Ort politischer Bildung ernst nehmen
  • Messengerdienste smart regulieren

2. Lasst die Generation Z im Netz nicht allein

Für junge Menschen gehören Falschnachrichten, Hassrede und Mobbing zum digitalen Alltag. Am häufigsten sind Frauen und Menschen mit formal niedriger Bildung betroffen. Eigentlich fühlen sich Jugendliche sicher im Umgang mit sozialen Medien. Wenn sie dort aber beleidigt werden oder jemand falsche Behauptungen in Umlauf bringt, wissen viele nicht wie sie reagieren sollen.

Rund die Hälfte hat bereits Inhalte in sozialen Medien gemeldet, doch in 60 Prozent der Fälle war die Meldung nicht erfolgreich. Die Review-Prozesse der Plattformen dauern oft quälend lang, teils kommt gar keine Rückmeldung. Deshalb fordert Martin:

  • Lebensrealität Jugendlicher muss Basis für Medienkompetenz-Bildung sein
  • Ausbau von Anlauf- und Beratungsstellen für Opfer digitaler Verbrechen
  • Ausbau von Internet-Schwerpunkt-Staatsanwaltschaften bundesweit
  • Verbesserung der Meldesysteme auf den Plattformen und Etablierung unabhängiger Schiedsstellen

3. Bekämpft Desinformation nicht nur im Wahlkampf

Drei Viertel der 14- bis 24-Jährigen sehen mindestens einmal pro Woche Falschnachrichten online oder in sozialen Medien. Binnen zwei Jahren ist der Anteil um 25 Prozentpunkte gestiegen. Die Zahl jener, die mehrfach täglich auf Desinformation stoßen, hat sich im selben Zeitraum fast verdoppelt. Insbesondere seit dem Beginn der Corona-Pandemie ist die empfundene Menge an Falschnachrichten stark gestiegen.

Gleichzeitig steigt die Fähigkeit, Fehlinformationen zu erkennen, nur langsam. Nach wie vor traut sich mehr als ein Drittel der Jugendlichen nicht zu, die Glaubwürdigkeit von Nachrichten richtig zu beurteilen. Sie wünschen sich Bildungsangebote und Unterstützung, werden aber oft allein gelassen. Zwei Drittel geben an, das Thema Falschnachrichten/"Fake News" sei nie in der Schule behandelt worden – und 85 Prozent sagen, es sollte verpflichtender Inhalt des Unterrichts werden.

Dementsprechend wünscht sich Martin, dass Schulen Lehrpläne modernisieren und Lehrerïnnen Hilfe bekommen, die digitale Lebensrealität der jungen Menschen zu verstehen, denen sie etwas beibringen sollen:

  • Thema Desinformation gehört in den Schulunterricht – fächerübergreifend
  • Digitalkompetenz von Lehrkräften kontinuierlich stärken – auch mithilfe von Schülerïnnen
  • Gründung einer Bundeszentrale für digitale Bildung
  • Digital Literacy für die Generation 40+ ausbauen

Neue Features bei den Plattformen

TikTok

  • Boost-Funktion: Bye Bye organische Reichweite: TikTok hat jetzt auch eine Boost-Funktion (TikTok for Business), wie wir sie bereits seit Jahren von Facebook kennen. Wer „sicher“ Reichweite erzielen möchte, muss / kann künftig dafür zahlen. TikTok folgt damit dem klassischen (Facebook-) Playbook:
  1. Reichweite „for free“ servieren
  2. Akteure auf die Plattform lotsen
  3. Für Reichweite kassieren

Header-Foto von Alexandre Debiève bei Unsplash


Facebook ist eine Blackbox – und das ist gefährlich | Warum Menschen in Afghanistan ihre Social-Media-Profile löschen | Goodbye Swipe-Up

Facebook ist eine Blackbox – und das ist gefährlich

Was ist

Facebook hat einen Bericht vorgelegt, um den Eindruck entgegenzutreten, dass die Plattform eine Echokammer für rechte Hetze und Verschwörungsideologien ist. Doch die Zahlen werfen mehr Fragen auf, als sie beantworten. Zu allem Überfluss kommt auch noch heraus, dass Facebook eine ähnliche Auswertung für das erste Quartal unter Verschluss gehalten hat – angeblich, weil die Verantwortlichen ein PR-Desaster befürchteten.

Warum das wichtig ist

Das T in Facebook steht für Transparenz: Dass Facebook Forschenden, Medien und Öffentlichkeit ungern Einblick in die eigene Plattform gewährt, ist bekannt. Doch während einer Pandemie und vier Wochen vor der Bundestagswahl ist das besonders problematisch. Niemand außer Facebook (und womöglich nicht mal das) weiß, wie viele Menschen Desinformation ausgesetzt sind – und Forschungsprojekten, die versuchen, das Netzwerk zu durchleuchten, entzieht Facebook den Zugang.

Was die aktuelle Kontroverse ausgelöst hat

Um zu verstehen, warum mal wieder über Facebooks fragwürdiges Verständnis von Transparenz diskutiert wird, muss man vier Erzählstränge miteinander verweben: die Veröffentlichung des "Widely Viewed Content Report", die Rolle von Kevin Roose, die Abwicklung von CrowdTangle und einen zweiten Bericht, der nie veröffentlicht wurde.

1. Die Veröffentlichung des Widely Viewed Content Report

  • Vergangene Woche legt Facebook den Widely Viewed Content Report (FB) vor, der zeigen soll, wie viele Menschen welche Inhalte sehen.
  • Die Reaktionen fielen anders aus, als Facebook es sich erhofft hatte. "Das ist so, als veröffentlichte ExxonMobil ihre eigene Studie zum Klimawandel", sagt ein ehemaliger Facebook-Mitarbeiter (Washington Post).
  • Auch Brian Boland, von 2009 bis 2020 in führenden Positionen bei Facebook tätig, hält den Report für einen "PR-Stunt" (Medium). Die Daten seien weitgehend wertlos und verschleierten, statt aufzuklären.
  • Tatsächlich mutet der Bericht in Teilen seltsam an. Unter anderem enthält er die 20 Domains, die am öftesten in Newsfeeds auftauchten, darunter so überraschende Seiten wie YouTube, TikTok, Twitter und Spotify. Menschen teilen Videos, Tweets und Musik? Ach was!
  • Diese Domain-Listen seien ziemlich nutzlos, meint auch Ethan Zuckerman, der den Bericht in seinem Blog auseinandernimmt: "If the domain list included a thousand URLs, perhaps, we might be able to compare attention to a mainstream news site like CNN to a fringe newssite like the Dan Bongino podcast. But with only 20 domains (…) it’s very hard to know what’s going on."
  • Interessanter sind die Top 20 der einzelnen Links, die einige Kandidaten enthalten, mit denen wohl kaum jemand gerechnet hätte – auf Platz 1 die Promo-Seite ehemaliger NFL-Spieler der Green Bay Packers, direkt gefolgt von einem Hanf-Shop. Auch ein christlicher Online-Shop und eine Seite, auf der man ein Abo für die Propaganda-Schleuder Epoch Times abschließen kann, sollen jeweils mehr als 40 Millionen Mal gesehen worden sein.
  • Kurzum: Facebook scheint ein ernsthaftes Problem mit Spam zu haben (Twitter / Kevin Roose). Das ist erstaunlich (wobei: bei genauerem Nachdenken vielleicht auch nicht (Charlie Warzel)), lässt aber kaum Rückschlüsse darauf zu, ob Biden recht hatte, als er Facebook kürzlich vorwarf, durch die Verbreitung von Impf-Desinformation "Menschen zu töten" (wir glauben: eher nicht, mehr dazu in Briefing #735).
  • Eine weitere spannende Erkenntnis: Der Großteil der 20 Postings mit den meisten Views ist dreist geklaut. Es finden sich alte Memes oder abgeschriebene Sprüche, die zuerst auf Reddit, Twitter oder Quora geteilt wurden.
  • Eigentlich passt das gut zu Facebook, das selbst ständig Funktionen von der Konkurrenz kopiert. Trotzdem bleibt am Ende eine ernüchternde Erkenntnis (Platformer):

Steal some questions that went viral somewhere else, spam them on your page, and presto: you’re one of the most-viewed links for the entire quarter on the world’s biggest social network.

2. Die Rolle von Kevin Roose

  • Der NYT-Reporter geht Facebook seit Jahren auf die Nerven, weil er mithilfe des Tools CrowdTangle auswertet, welche Inhalte am häufigsten gelikt, geteilt und kommentiert werden.
  • Seit gut einem Jahr veröffentlicht Roose über den Twitter-Account @FacebooksTop10 täglich eine Liste mit den Quellen, die hinter den erfolgreichsten Facebook-Postings stecken. An vielen Tagen dominieren rechte bis rechtsradikale Portale und Persönlichkeiten wie Breitbart, Dan Bongino und Ben Shapiro.
  • Wenig überraschend gefällt das Facebook gar nicht. Immer wieder erklärten hochrangige Manager, warum die Zahlen angeblich in die Irre führen (The Verge). Und natürlich haben sie einen Punkt: Die Zahl der Interaktionen ist nicht gleichzusetzen mit der Reichweite von Inhalten.
  • Allerdings bleiben sie eine Erklärung schuldig, warum die Interaktionen keine Aussagekraft haben sollen. Roose behauptet schließlich nicht, dass er die reichweitenstärksten Postings sammelt, sondern eben jene mit den meisten Likes, Shares und Kommentaren. Facebook stellt diese Zahlen prominent dar, sie beeinflussen die Algorithmen und sind eine wichtige Metrik.
  • Wir wundern uns auch deshalb über die Argumentation, weil sich Facebook von seinen eigenen Zahlen (CrowdTangle gehört seit 2016 zu Facebook) falsch dargestellt fühlt, aber lange Zeit keine Alternativen anbot, obwohl Roose und Hunderte andere Journalistïnnen genau das seit Jahren fordern.
  • Durch die Veröffentlichung des Content-Reports fühlt sich Roose gewissermaßen geehrt (Futureproof). Noch nie habe ein Milliardenkonzern so viel Zeit und Mühe investiert, um ihn wie einen Idioten aussehen zu lassen.

3. Die Abwicklung von CrowdTangle

  • Je mehr Follower @FacebooksTop10 sammelte und je lauter die Rufe nach Transparenz wurden, desto heftiger debattierten Facebooks Verantwortliche intern.
  • Wir müssen der Öffentlichkeit sagen, was auf unserer Plattform los ist, argumentierte die eine Seite. Bloß nicht, hielten andere Manager dagegen. Zu viel Transparenz sei gefährlich, die Zahlen könnten das Image von Facebook weiter beschädigen.
  • Die Geheimniskrämer setzten sich durch: Vor einem Monat löste Facebook das CrowdTangle-Team auf (NYT) und verteilte Dutzende Angestellte über andere Abteilungen.

4. Der ominöse zweite Bericht

  • Neben dem aktuellen Bericht für das zweite Quartal wurde eine Auswertung für die ersten drei Monate erarbeitet, aber nie veröffentlicht.
  • Das kam nur heraus, weil das Dokument der NYT zugespielt wurde – samt internen E-Mails, denen zufolge Facebook den Bericht zurückhielt, weil es negative Schlagzeilen fürchtete.
  • Auf die Frage, warum die Zahlen zurückgehalten wurden, sagt ein Sprecher, Facebook habe erwogen, den Report früher öffentlich zu machen. Angesichts der zu erwartenden Aufmerksamkeit habe man aber noch Korrekturen am System vornehmen wollen.
  • Diese Antwort bezieht sich offensichtlich auf das Dokument für das zweite Quartal, den Facebook selbst veröffentlichte, und nicht auf den Vorgänger, auf den die Frage abzielte.
  • Mittlerweile hat Facebooks Kommunikations-Chef Andy Stone einen Dropbox-Link geteilt, der den Q1-Report enthält. Sein Tweet wurde einmal gelikt und dürfte einen verschwinden geringen Anteil der mehr als 2,8 Milliarden Menschen erreicht haben, die Facebook nutzen.
  • Darüber hinaus plant Facebook keine weitere Veröffentlichung und wird auch in seinem Firmenblog nicht darauf hinweisen.
  • Dabei ist der Bericht selbst kein Skandal, den Facebook hätte vertuschen müssen. Dafür wäre es ohnehin zu spät: Der Streisand-Effekt hat mit voller Wucht zugeschlagen. Der Report, den Facebook geheim halten wollte, erhält nun erst recht jede Menge Aufmerksamkeit.
  • Viele Medien stürzen sich darauf, dass der am meisten gesehene Link des ersten Quartals 2021 zu einem Artikel der Chicago Tribune führt, der fälschlicherweise suggerierte, ein Arzt sei an den Nebenwirkungen der Corona-Impfung gestorben.
  • Wir fragen uns aber, ob es fair ist, Facebook für schlechten Journalismus verantwortlich zu machen. Natürlich trägt Facebook eine Mitverantwortung, weil die Algorithmen solche Desinformation und irreführenden Meldungen verstärken, die starke Emotionen auslösen und entsprechend viele Interaktionen auslösen.
  • Doch das Kernproblem ist in dem Fall eher die fürchterliche Überschrift des Artikels. Zu Recht fragt Joshua Benton (Nieman Lab): "Why in the world is that more embarrassing for Facebook than it is for the Chicago Tribune?"
  • Wir halten es mit Mike Masnick, der bei Techdirt das Schlusswort spricht:

We're not going to solve the problems associated with a bunch of people believing in nonsense if we ignore the underlying parties responsible for the content itself, and focus just on the intermediaries. That doesn't mean to ignore Facebook, but it's a reminder to view the overall ecosystem.

Wie Facebook unabhängige Forschung behindert

  • Facebook lässt sich ungern in die Karten schauen. Das gilt nicht nur für Nutzerïnnen und Medien, sondern auch für die Wissenschaft.
  • Die Initiative Social Science One, die unabhängige Studien ermöglichen soll, kommt seit Jahren nur langsam voran. Einige Forscherïnnen, darunter der Deutsche Simon Hegelich, werfen Facebook vor (Political Data Science), kein echtes Interesse an Transparenz zu haben.
  • Allein in den vergangenen Wochen wurden drei Projekte gestoppt, die Facebook oder Instagram untersuchen wollten. Zuerst sperrte Facebook mehrere Wissenschaftlerïnnen der NYU aus (NYT), die über die Browser-Erweiterung AdObserver Daten sammeln wollten.
  • Kurz darauf warfen Wissenschaftlerïnnen aus Princeton von sich aus hin (Digiday). "It doesn’t make sense for us to do research for six months and then not be able to publish it", sagte einer der beteiligten Forscher.
  • Auch in Deutschland fühlen sich Forschende behindert: Die NGO AlgorithmWatch wollte untersuchen, wie der Instagram-Algorithmus funktioniert (SZ). Vor zwei Wochen beendete AlgorithmWatch die Datensammlung, weil man juristische Konsequenzen fürchtete. Facebook bestreitet (Spiegel), mit einer Klage gedroht zu haben.
  • Mit einem offenen Brief ruft AlgorithmWatch nun Mitglieder des EU-Parlaments und Regierungen der EU-Mitgliedstaaten auf, Forschung im öffentlichen Interesse zu ermöglichen. Zwei Dutzend Organisationen wie die Mozilla Foundation und Wikimedia haben mitgezeichnet, dazu bislang mehr als 1100 Einzelpersonen.

Be smart

Wenige Journalistïnnen haben so viele Quellen bei Facebook wie Casey Newton. Kürzlich schrieb er in seinem Newsletter Platformer:

No one I have spoken to at Facebook believes that NYU’s work is not fundamentally in the public interest.

Tatsächlich wäre es zu einfach, Facebook zu unterstellen, es behindere mutwillig Forschung. Der Konzern argumentiert mit Datenschutz, und mit der Cambridge-Analytica-Affäre im Hinterkopf fällt es schwer, den Einwand komplett vom Tisch zu wischen. Schließlich waren es auch damals Schnittstellen, die für Dritte geöffnet wurden, über die schließlich sensible Daten abflossen.

Die gleichen Kritikerïnnen, die Facebook auch drei Jahre nach Cambridge Analytica noch die damaligen Fehler vorhalten, fordern nun lautstark, dass Facebook alle Datenschleusen für die Forschung öffnen soll. (Das ist natürlich etwas zugespitzt, ein Teil der Kritikerïnnen argumentiert differenziert. Aber es beschreibt das Dilemma, in dem Facebook sich befindet.)

Um unser schlechtes Wortspiel noch mal aufzugreifen: Das Transparenz-T findet man höchstens bei Instagram. Aber das O in Facebook könnte auch für Offenheit stehen (sogar doppelt) – und das läge womöglich auch in Facebooks eigenem Interesse. Denn solange Facebook mauert, werden Medien spekulieren und womöglich ein allzu düsteres Bild zeichnen. Also hoffen wir auf bessere Content-Reports und mehr Intiativen wie Facebook Open Research and Transparency (The Verge).


Warum Menschen in Afghanistan ihre Social-Media-Profile löschen

Was ist

  • Die Taliban haben die Macht übernommen, und Millionen Menschen müssen um ihr Leben fürchten. Verzweifelt versuchen sie zu fliehen, unterzutauchen oder alle Spuren zu verwischen, die darauf hindeuten, dass sie beim Militär oder Hilfsorganisationen beschäftigt waren, als Ortskräfte für westliche Demokratien gearbeitet haben oder auch nur die falschen Freundïnnen hatten.
  • Dabei durchsuchen die Taliban nicht nur Wohnungen, sondern alle sozialen Netzwerke. So archaisch die Terrormiliz politisch daherkommt, so versiert ist sie im Umgang mit modernen Medien (NYT).
  • Wie fast alle extremistischen Organisationen haben sie genau verstanden, wie sie Social Media für ihre Propaganda nutzen können (Washington Post) – und wie sie dort Menschen aufspüren können, die nicht mit ihrer radikalen Ideologie übereinstimmen.
  • Deshalb löschen Menschen massenhaft alte Postings und Fotos (NBC), verbergen ihre Social-Media-Profile oder entfernen Daten von ihren Smartphones.
  • Dabei gibt es zwei Probleme: Erstens sind komplett leere Handys und Konten ohne Inhalte verdächtigt. Zweitens ist es teils gar nicht so einfach, Accounts auf privat zu stellen, Freundeslisten zu verbergen oder frühere Beiträge zu löschen – erst recht nicht auf der Flucht, ohne Strom und in ständiger Angst, entdeckt zu werden.

Was die Plattformen unternehmen

  • Facebooks Sicherheitschef Nathaniel Gleicher nennt in einem längeren Twitter-Thread einige der Maßnahmen, die Facebook ergriffen hat. Unter anderem können Nutzerïnnen in Afghanistan ihren Account nun mit einem Klick verbergen, sodass niemand ihr Profilfoto oder ihre Postings sehen kann.
  • Außerdem ist es in ganz Afghanistan nicht mehr möglich, Freundeslisten anzuzeigen und zu durchsuchen.
  • Instagram informiert Nutzerïnnen mit Pop-ups, wie sie ihren Account schützen können. Clubhouse hat die Profile Zehntausender Menschen auf privat gestellt (The Verge) und Bio und Fotos verborgen. Auch US-Behörden säubern ihre Webseiten von Fotos (Heise), die Zivilistïnnen gefährden können.
  • Zudem sperrten alle großen Plattformen und auch Messenger wie WhatsApp Konten der Taliban. Sie stufen die Gruppierung seit Jahren als Terrororganisation ein und löschen Accounts und Inhalte, die mit den Taliban assoziiert sind, selbst wenn sie für sich genommen nicht gegen die Community Standards verstoßen.
  • Unklar ist, was geschehen wird, wenn die Taliban die Regierung stellen. Dann müssen die Tech-Konzerne etwa abwägen, ob sie den Taliban die Kontrolle über die offiziellen Regierungskonten und -Seiten geben (NDR).

Warum die Selbstzensur so tragisch ist

  • Stell dir vor: Du musst noch heute alle deine Social-Media-Profile und sämtliche Fotos löschen, die du besitzt. Dann verlierst du wertvolle Erinnerungen und einen Teil deiner Identität.
  • Viele Menschen in Afghanistan stehen vor der Wahl: digitale Daten oder eine Chance aufs Überleben (Rest of World). Die Entscheidung ist eindeutig, aber trotzdem schmerzhaft.
  • Doch es gehen nicht nur Erinnerungen verloren, sondern auch wichtige Kommunikationskanäle. Viele Afghanïnnen halten über Messenger und Social Media Kontakt zu ihren Freundïnnen und Verwandten im Ausland.
  • Teils müssen sie auch Dokumente verschicken, damit ihre Verwandte ein Visum oder Einreiseerlaubnis beantragen können. Wenn sie dafür ihr Smartphone nutzen, bringen sie sich in Gefahr – und wenn sie es nicht nutzen, bringen sie sich um die kleine Chance, das Land zu verlassen.

Be smart

Seit Jahren warnen Bürgerrechtlerinnen und Datenschützer auch in Deutschland: Wir müssen aufhören, alle verfügbaren Daten zu sammeln. Gesichtserkennung und Massenüberwachung sind gefährlich. Was ist, wenn diese Daten in die falschen Hände fällen, fragen sie.

In einer Demokratie klingt das nach einer sehr hypothetischen Gefahr. In Afghanistan ist genau dieses Albtraum-Szenario wahr geworden. Die Taliban sollen biometrische Technik des US-Militärs erbeutet haben (The Intercept). Womöglich können sie sogar auf zentrale Datenbanken zuzugreifen, in denen biometrische Daten wie Fingerabdrücke und Iris-Scans gespeichert sind.

Wir empfehlen zu diesem Thema die umfangreiche Analyse von Meike Laaff und Jakob von Lindern (Zeit Online) und den pointierten Kommentar von Patrick Beuth (Spiegel), der mahnend endet:

Es geht nicht nur darum, was heute in einer Datenbank steht, sondern darum, ob das irgendwann mal jemandem als verdächtig gelten könnte. Es geht nicht darum, wie selten eine neue Überwachungsinfrastruktur im Jahr nach ihrer Einführung genutzt wird. Es geht darum, wie häufig das passiert, wenn diejenigen, die sie beschlossen haben, nicht mehr im Amt sind. Gesetzgeber müssen aufhören, nur sich selbst in ihrer Rolle zu sehen. Sind Daten erst einmal in die falschen Hände geraten, ist es dafür zu spät.


Social Media und Politik


Schon einmal im Briefing davon gehört

  • Micro Podcasting: Nicht nur Short-Form-Video liegt voll im Trend: auch kurze Podcasts sind gerade en vogue (The Verge).
  • Billboard Creator Charts: Der Einfluss von Influencerïnnen auf die Musikindustrie ist nicht erst seit TikTok gigantisch. Um diese Realität besser abzubilden, führt Billboard die sogenannten Creator Charts ein.
  • OnlyFans: Nein, doch, oh!!! Es wird auch weiterhin Adult Content bei OnlyFans (Techcrunch) geben. Allen Kontroversen zum Trotz.
  • Facebooks Datenbrille erinnert stark an Snapchats Spectacles und soll Gemini (Protocol) heißen.

Neue Features bei den Plattformen

Twitter

  • Ticketed Spaces: Twitter beginnt mit der Einführung von kostenpflichtigen Spaces (Techcrunch).
  • Spaces entdecken: Zudem testet Twitter eine Option (@TwitterSpaces), um mehr Menschen dazu zu bringen, Spaces zu nutzen: Wenn jemand, dem du folgst, einem Space beiwohnt, könnte dir das künftig ganz oben im Feed angezeigt werden.
  • Mehr Abonnentïnnen: Twitter testet eine stärkere Integration des hauseigenen Newsletter-Services Revue: Künftig können Nutzerïnnen wohl ihren Newsletter direkt im Profil bewerben (Techcrunch).
  • Bessere DM-Funktionen: Twitter rollt eine Reihe neuer Funktionen aus, um das Verschicken von DM zu vereinfachen: u.a. soll es künftig leichter werden, einen Tweet an viele unterschiedliche Leute per DM zu verschicken.

Facebook

  • 10 Jahre Messenger: Der Messenger feiert Geburtstag. Facebook feiert sich selbst und spendiert eine Reihe neuer Features (Facebook Newsroom) – darunter eine Umfrage-Funktion, „Birthday Expression Tools“ und neue Möglichkeiten, Kontakte zu teilen.
  • Telefonieren mit Facebook Blue: Bislang war die Funktion an den Messenger ausgelagert – nun könnte eine Telefon-Funktion auch wieder in die Haupt-App integriert werden (Bloomberg).

Snapchat

TikTok

  • Hast du mal 5 Minuten? TikTok testet 5-Minuten-Videos (@MattNavarra). Keine wirkliche Überraschung.
  • Mehr Realität: TikTok arbeitet an AR-Features (Gizmodo), die wir in der Form bereits von Snapchat kennen.

Instagram

  • Mehr finden: Facebooks Such-Funktionen sind ja in aller Regel ein ziemlicher Griff ins Klo. Das soll sich (TikTok sei Dank) zumindest bei Instagram jetzt ändern. Insta-Boss Mosseri gewährt einen Blick hinter die Kulissen und verspricht bessere Suchergebnisse (Instagram Newsroom), die in der Aufbereitung stark an TikTok erinnern.
  • Stories liken: Nachdem Instagram mit viel Tamtam darüber nachgedacht hatte, Likes abzuschaffen, testen sie nun die Einführung von Likes bei Stories (@alex193a). Äh, ja. Genau. Verstehen wir auch nicht.
  • Status posten: An anderer Stelle testet Instagram, ob Nutzerïnnen gern einen WhatsApp-mäßigen Status posten (digitalinformationworld) möchten. Keine Ahnung. Bin im Fitnessstudio.
  • Goodbye Swipe-up! Instagram beerdigt die Swipe-Up-Fuktion, um auf Inhalte zu verlinken. Stattdessen soll künftig der vor einigen Wochen eingeführte Link-Sticker standardmäßig für Verlinkungen genutzt werden (The Verge).

Header-Foto von Cristina Gottardi bei Unsplash


Scroll to Top