Monat: September 2021

Facebook Files #2 | Douyin nur noch 40 Minuten am Tag erlaubt | Nachrichtenkonsum in sozialen Medien | YouTubes Empfehlungsalgorithmus

The Facebook Files #2

Was ist

Direkt nachdem wir letzte Woche unser Briefing #745 verschickt hatten, veröffentlichte das Wall Street Journal den fünften Artikel aus der Serie „The Facebook Files“:

Im fünften Artikel geht es darum, wie Impfgegner trotz Zuckerbergs Ambitionen, ihnen die Mikros abzudrehen, die Website überschwemmten und Facebooks eigene Tools nutzten, um Zweifel an Covid-19-Impfstoffen zu säen.

Pushback

Facebook hat mittlerweile an verschiedenen Stellen auf die Serie des Journals reagiert. Neben dem Blogeintrag von Instagram, auf den wir im vergangenen Briefing bereits verwiesen haben, haben sich Instagram-Boss Adam Mosseri (ziemlich unglücklich), Nick Clegg, Vice President of Global Affairs, (fühlt sich falsch verstanden) und Facebooks Comms-Team (Lenken wie gewohnt den Blick auf das, was Facebook schon alles macht, man möge nicht zu harsch mit ihnen umgehen…) zu Wort gemeldet:

These are serious and complex issues, and it is absolutely legitimate for us to be held to account for how we deal with them. But these stories have contained deliberate mischaracterizations of what we are trying to do, and conferred egregiously false motives to Facebook’s leadership and employees.

“We know that more people die than would otherwise because of car accidents, but by and large, cars create way more value in the world than they destroy,” (…) “And I think social media is similar.”

Facebook has invested more than $13 billion in teams and technology to address safety and security issues. We now have 40,000 people across the company working in those areas.

Wie es weitergeht

  • Kritik an Mosseris Vergleich: Zunächst einmal sei erwähnt, dass Insta-Boss Mosseri für seine Aussage ordentlich Kritik eingefahren hat. Den Vergleich mit den Autos fanden viele eher missglückt: Instagram chief faces backlash after awkward comparison between cars and social media safety (CNBC)
  • Facebook verschleiert Daten: Laut einer aktuellen Recherche von The Markup hat Facebook in der jüngeren Vergangenheit Änderungen beim News Feed vorgenommen, die verhindern sollen, dass Dritte öffentliche Daten sammeln können – etwa NGOs oder journalistische Projekte. Auch wenn solche Tweaks aus Datenschutzgründen womöglich notwendig sind, passt das natürlich gut ins Bild und baut nicht gerade Vertrauen auf.
  • Nach den Facebook Files ist vor dem Ad-Boycott: Laut Axios droht Facebook demnnächst wohl ein neuer Werbeboykott. Wir erinnern uns: Im Sommer 2020 machte die Kampagne #StopHateforProfit Schlagzeilen (siehe Deep Dive vom 30.6.2020). Wirklich krasse, finanzielle Auswirkungen hatte der Boykott damals zwar nicht. Die Aktion konnte dafür aber ein Schlaglicht auf die Probleme bei Facebook werfen. Genau dies könnte nun wieder der Fall sein – genug Material bieten die „Facbook Files“ ja allemal.
  • Oversight Board plant ein Review von Facebooks XCheck-System: Wie in Ausgabe #745 berichtet, gibt es ein System bei Facebook, das rund fünf Millionen Accounts mit Privilegien ausstattet, von denen reguläre Nutzerïnnen nur träumen können. Das Facebook Oversight Board möchte nun gern etwas genauer wissen, was es damit auf sich hat: Facebook Oversight Board Launches Review of Company’s XCheck System (Wall Street Journal)
  • Projekt Amplify: Die New York Times berichtet von einem Plan Facebooks, den eigenen News Feed zu nutzen, um Facebook-Nutzerïnnen mit positiven Geschichten rund um Facebook zu beglücken. Der Recherche zufolge hat Mark Zuckerberg keine Lust mehr, permanent als Sündenbock herzuhalten. Die Zeit der Entschuldigungen sei vorbei. Vielmehr möchte er als Erfinder gesehen werden – als „jemand, der mit einem elektrischen Surfboard und US-Flagge übers Wasser düst“ (CNN). Jesus Christ! Es wird immer absurder.

Social Media & Politik

Bundestagswahl

  • Wer liegt im Bundestagswahlkampf nach Social Media-Punkten vorne? Bei webnetz gibt es eine Auswertung zur Social-Media-Performance der Parteien und Kanzlerkandidatïnnen. Unter anderem kann man dort folgende Dinge erfahren:
    • Scholz hat im untersuchten Zeitraum (Mai bis August) mit Abstand die meisten Posts bei Facebook, Instagram und Twitter abgesetzt. Insbesondere auf Twitter ist Scholz sehr aktiv: Der Kanzlerkandidat der SPD twittert fast dreimal so viel wie Annalena Baerbock und Armin Laschet.
    • Hinsichtlich der Gesamtreichweite konnte Annalena Baerbock ihren Vorsprung weiter ausbauen. Die Spitzenkandidatin der Grünen kommt bei Facebook, Instagram und Twitter auf insgesamt 673.000 Follower. Laschet und Scholz kommen auf deutlich weniger: 287.000 zu 239.000 Follower.
    • Der Politiker mit den meisten Followern ist und bleibt allerdings weiter FDP-Chef Christian Lindner mit 991.000 Followern auf Facebook, Instagram und Twitter zusammen.
    • Was das Engagement bei den Parteien angeht, liegt die FDP bei Instagram vorn, die AfD kann bei Twitter die meisten Menschen mobilisieren. Bei Facebook hingegen stagniert das Engagement, AfD und CSU verzeichnen laut webnetz sogar ein Engagement-Rückgang.

In other news

  • Douyin: Nur noch 40 Minuten am Tag: Douyin, TikToks chinesische Schwester-App, führt einen sogenannten „Teenager-Modus" ein, der die Zeit, die Kinder unter 14 Jahren mit der Kurzvideo-App verbringen, auf 40 Minuten pro Tag begrenzt. Laut ByteDance (hier die Erklärung), dem Unternehmen hinter Douyin und TikTok, gilt die Regel für alle unter 14 Jahren, die sich mit ihrem echten Namen für die App registriert haben. Zudem wird die App für diese Nutzerïnnen auch zwischen 22 Uhr und 6 Uhr morgens nicht verfügbar sein. ByteDance kommt damit einer möglichen Regulierung zuvor. Bereits vor einigen Tagen hatte die Nachricht für Aufregung gesorgt, dass chinesische Kids künftig nur noch drei Stunden pro Woche Computer spielen dürfen (NPR).
  • Sturm aufs Kapitol mit TikTok: POLITICO zufolge hat auch TikTok eine Rolle bei den gewaltsamen Auseinandersetzungen am Kapitol am 6. Januar gespielt. Bislang standen hier vor allem die US-Plattformen im Fokus (siehe unseren Deep Dive vom 12.1.2021). In einem von POLITICO eingesehenen Briefing vom 19. April heißt es, „dass amerikanische Extremisten die in chinesischem Besitz befindliche Social-Media-Plattform nutzten, um Menschen für ihre Ziele zu rekrutieren und "taktische Anleitungen" für terroristische und kriminelle Aktivitäten auszutauschen.“
  • Mehr Falschinformationen wagen? Erstmal nicht! Brasiliens Präsident Jair Bolsonaro wollte gern Facebook und Co untersagen, Beiträge zu löschen, die von den offiziellen Fact-Checkern der Plattformen als Falschinformationen deklariert wurden. Nun wurde sein Vorhaben vom brasilianischen Senat und dem obersten Gericht gestoppt (Reuters).

Datenschutz-Department

  • Facebook View: Irische Datenschutzbehörde hat Bedenken: Facebooks neue smarte Brille – Facebook View – ist seit letzter Woche in Italien und Irland zu haben. Mit der Brille lassen sich Fotos und Videos per Sprachbefehl aufzeichnen. Ein kleines Lämpchen an der Brille signalisiert, dass eine Aufnahme läuft (siehe Briefing #744). Dieser sehr dezente Hinweis sorgt für Kopfschmerzen bei der irischen Datenschutzbehörde (Data Protection Commission): Laut DPC habe Facebook nicht nachgewiesen, dass sie umfassende Praxistests durchgeführt hätten, um sicherzustellen, dass die LED-Anzeige ein wirksames Mittel zur Benachrichtigung ist. Facebook müsse daher die Wirksamkeit der LED-Anzeige nachweisen und zudem eine Informationskampagne durchführen, um die Öffentlichkeit darüber zu informieren, dass mensch jetzt nicht mehr nur von Smartphones sondern auch von Brillen aufgenommen werden kann.

Menschen machen Fotos gegenseitig, Zu beweisen, dass sie wirklich exestierten, Auf Nummer sicher zu gehen, dass sie da sind.

(Goldene Zitronen)


Pew-Studie zum Nachrichtenkonsum in sozialen Medien

Was ist

Das Pew Research Center untersucht jedes Jahr aufs Neue, wie es um den Konsum von Nachrichten in den sozialen Medien bestellt ist (Pew Research). Zwar werden für den Bericht nur Zahlen von US-Nutzerïnnen erhoben. Die Daten sind aber auch für andere Märkte relevant, weil Plattformen wie Facebook oder Instagram ihre Algorithmen (und damit die Auswahl darüber, wie viele Nachrichten im News Feed landen) nicht für jedes Land komplett anders ausrichten.

Die wichtigsten Zahlen im Überblick:

  • Wenn es darum geht, wo Amerikanerïnnen regelmäßig Nachrichten in den sozialen Medien beziehen, übertrifft Facebook alle anderen sozialen Medienseiten.
  • Etwa ein Drittel der Erwachsenen in den USA beziehen ihre Nachrichten weiterhin regelmäßig von Facebook. Der Anteil ist allerdings etwas gesunken: von 36 % im Jahr 2020 auf 31 % im Jahr 2021.
  • Laut Pew spiegelt dieser Rückgang eine insgesamt leicht rückläufige Zahl von Amerikanerïnnen wider, die angeben, ihre Nachrichten von einer Social-Media-Plattform zu beziehen: waren es noch 53 % im Jahr 2020, sind es jetzt etwas weniger als 48 %.
  • 22% der Amerikanerïnnen sagten, dass sie regelmäßig Nachrichten auf YouTube erhalten.
  • Twitter und Instagram sind regelmäßige Nachrichtenquellen für 13% bzw. 11% der Amerikanerïnnen.
  • Andere Social-Media-Websites werden laut Pew Research seltener als regelmäßige Nachrichtenquellen genutzt. Weniger als jeder zehnte gibt an, regelmäßig Nachrichten von Reddit (7%), TikTok (6%), LinkedIn (4%), Snapchat (4%), WhatsApp (3%) und Twitch (1%) zu erhalten.
  • Wenn es allerdings darum geht, den Anteil der Nutzerïnnen der einzelnen Social-Media-Websites, die dort regelmäßig Nachrichten beziehen, zu betrachten, so fielen einige Websites als besonders "nachrichtenlastig" auf, auch wenn ihr Gesamtpublikum relativ klein ist, schreibt Pew.
  • Twitter etwa wird von 23 % der erwachsenen US-Bürgerïnnen genutzt, mehr als die Hälfte dieser Nutzerïnnen (55 %) beziehen regelmäßig Nachrichten auf der Website.
  • YouTube hingegen wird zwar extrem viel genutzt, jedoch informiert sich nur ein geringer Anteil der Nutzerïnnen (30 %) dort regelmäßig über Neuigkeiten.
  • Der Anteil der Facebook-Nutzerïnnen, die angeben, regelmäßig Nachrichten auf der Plattform zu beziehen, ist um 7 Punkte gesunken, von 54 % im Jahr 2020 auf 47 % im Jahr 2021.
  • Bei TikTok hingegen ist der Anteil der Nutzerïnnen, die angeben, regelmäßig Nachrichten auf der Seite zu beziehen, leicht gestiegen, von 22 % im Jahr 2020 auf 29 % im Jahr 2021.

Be smart

Einerseits bestätigen die Zahlen Facebooks Bestrebungen, den US-Nutzerïnnen insgesamt weniger Nachrichten zu präsentieren (The Verge). Andererseits verdeutlichen die Zahlen einmal mehr, dass ein erheblicher Anteil der Amerikanerïnnen Nachrichten über Facebook (und weitere Social-Media-Plattformen) erhält. Und das in einer Zeit, in der die Kritik an den Plattformen hinsichtlich der Frage, ob sie genug gegen Hass und Falschinformationen tun, immer lauter wird. Zurecht.


Social Media & Journalismus

  • Clubhouse & Head of News: Clubhouse möchte zu Medienhäusern gern bessere Beziehungen aufbauen. Dafür haben sie sich bei den anderen Plattformen etwas abgeguckt und jetzt auch einen Head of News installiert (Techcrunch).

Follow the money

  • Apple investiert kräftig in Apple TV+: Apples Streamingservice Apple TV+ hat derzeit rund 40 Millionen Subscriber – die Hälfte davon sind zahlende Kundïnnen. Allein im nächsten Jahr plant Apple, rund 500 Millionen Dollar ins Marketing von Apple TV+ zu stecken (The Information), um weiter zu wachsen. Das Ziel: Eine neue Show / ein neuer Film pro Woche. Holla!
  • Intuit kauft Mailchimp: Wir verschicken unseren Newsletter ja seit eh und je über Mailchimp. Nun wurde das Unternehmen von einer Firma, die mit Finanzsoftware groß geworden ist, für 12 Milliarden Dollar aufgekauft (Businesswire). Wir selbst werden (leider) von dem Geld nichts sehen, aber auch sonst hoffentlich keinerlei Auswirkungen erleben.
  • Discord mit 15 Milliarden Dollar bewertet: Nachdem sich Discord 500 Millionen Dollar frisches Geld (The Information) besorgt hat, um weiter wachsen zu können, wird die Chat-App nun mit 15 Milliarden Dollar bewertet.
  • Twitter zahlt Vergleich in Höhe von 809,5 Millionen Dollar. Der Grund für den Rechtsstreit mit Investoren waren zu optimitische Äußerungen zum Nutzerwachstum (SPIEGEL). Nun ja. Man darf ja wohl noch einmal hoffen…
  • Fortnite arbeitet mit Balenciaga an einer Reihe von Merchandise-Artikelnu.a. an Skins, einer Spitzhacke und Gleitern (Input Mag). Zudem wird es auch physische Goodies geben – etwa Shirts, Mützen und Kapuzenpullis. Das billigste Item – ein Hut – kostet 395 Dollar. LOL.

Aber wie viel ist dein Outfit wert?

Nike, Louis, Gucci, Dior, Fendi, Prada

Wie viel ist dein Outfit wert?

Gosha, Yeezy, Vetements, Balenciaga


Creator Economy

  • Super Follows mit schwachem Start Twitters neues Subsciption-Feature Super Follows (siehe Briefing #706) hat in den ersten zwei Wochen lediglich etwas mehr als 6000 Dollar (Techcrunch) eingebracht – allen Kreativen zusammen wohlgemerkt. Ja, gut. Bislang dürfen noch nicht all zu viele Nutzerïnnen von der Option Gebrauch machen. Etwa um die 100 Creator hat Twitter dafür ausgewählt. Aber das wären dann eben auch nur 60 Dollar pro Nase…

Zitat der Woche

Scrolling through Instagram, so much content is recycled from other apps, whether it’s Reels lifted from TikTok or meme pages full of reposted screengrabs of viral tweets. Despite so many new features, nothing feels new.


Schon einmal im Briefing davon geht

  • Wie YouTubes Empfehlungssystem funktioniert: Wir alle kennen das: Jemand schickt uns einen Link zu einem Video auf YouTube, das wir uns unbedingt mal ansehen sollen. Klar, die fünf Minuten nehme ich mir gern. Aus den fünf werden aber schnell mal 20 oder 30 Minuten. Grund dafür ist YouTubes Empfehlungsalgorithmus: 70 Prozent der Zeit (cnet), die auf YouTube verbracht wird, geht auf das Konto von Videos, die der Algorithmus empfiehlt. Mit anderen Worten: Mehr als Zweidrittel der Zeit, die Nutzerïnnen auf YouTube verbringen, wollten sie dort eigentlich gar nicht verbringen. Ob das an sich so sinnvoll ist, sei mal dahingestellt. Richtig problematisch wird es aber, wenn das Empfehlungssystem Videos vorschlägt, die einen in den sprichwörtlichen Kaninchenbau reintreiben und am Ende Nutzerïnnen womöglich „radikalisieren“. Warum das mit der „Radikalisierung“ alles nicht so einfach ist, erklären wir in Briefing #601. YouTube jedenfalls steht deshalb seit Jahren in der Kritik und versucht immer mal wieder etwas Licht ins Dunkel zu bringen.
  • So auch mit diesem Blogbeitrag, der aufzeigt, wie YouTubes Empfehlungssystem grundsätzlich funktioniert. Ein komplettes Bild kriegen wir hier natürlich nicht (schließlich ist der Empfehlungsalgorithmus für YouTube das, was für Coca Cola das Rezept ist). Für alle, die sich mit der Frage beschäftigen, nach welchen Kriterien die Videos ausgewählt werden, gibt es im Blogbeitrag aber solide Hinweise. Die vier Hauptfaktoren hat Social Media Today hier zusammengefasst.
  • TikToks Algorithmus serviert Minderjährigen Sex- und Drogen-Content: Wo wir gerade über die Problematik von Empfehlungssystemen reden: Das Wall Street Journal hat aufgeschrieben, wie bei TikTok Minderjährigen Sex- und Drogen-Content serviert wird: How TikTok serves up sex and drug videos to minors.

Neue Features bei den Plattformen

Twitter

  • Tweets bald noch hübscher: Twitter hatte ja vor gar nicht all zu langer Zeit seine Stories-Funktion (Fleets) nach nur wenigen Monaten direkt wieder begraben. Jetzt sieht es so aus (digitalinformationworld), als würde Twitter (so wie damals angekündigt) schon sehr bald die Features von Fleets (Hintergrund bunt gestalten, Sticker, etc.) in den regulären Tweet-Composer integrieren. Hui, das könnte wild werden…

Clubhouse

Waves: Clubhouse arbeitet an "Waves" (@wongmjane), einer Option, Chats mit anderen Freunden zu starten, die bereits online sind. Es geht hier wohlgemerkt um „Freunde“. Bislang war Clubhouse ja eher auf der Mission, Veranstaltungen zu ersetzen und Creatorn eine Bühne zu geben. Wir sind mal gespannt, in welche Richtung sich das bei Clubhouse weiterentwickelt. Diese jüngste Entwicklung sieht in unseren Augen jetzt nicht so vielversprechend aus…

Cameo

  • Mit Promis telefonieren: Bislang konnte man bei Cameo lediglich eine Nachricht (bzw. ein Ständchen) vom Promi seiner Wahl buchen. Ein personalisiertes Video von Tony Hawk gibt es für 205 Dollar, ein Video von Ice Cube für 615 Dollar. Jetzt kann man mit ausgewählten Promis auch telefonieren (Techcrunch). Vorausgesetzt die Kohle stimmt.

One more thing

Social Media Watchblog X Baby Got Business: Ann-Kathrin Schmitz – vielen bekannt als Himbeersahnetorte bei Instagram – ist ein wahrer Tausendsassa. Neben ihrer Arbeit als Social-Media-/ Influencer-Marketing-Expert hat sie einen Podcast und jetzt auch eine eigene Kollektion am Start. Zudem ist Ann-Kathrin seit Jahren bekennender Watchblog-Ultra. Daher freuen wir uns sehr, dass wir in der aktuellen Folge ihres Podcasts „Baby Got Business“ mit ihr über Social Media und die Bundestagswahl sprechen durften. Wer mag, hört mal rein – die neue Folge erscheint heute im Laufe des Tages bei Apple und Spotify. Ein Abo lohnt sich so oder so!


Header-Foto von Jed Villejo


The Facebook Files | Falschinformationen bei TikTok | Facebook entfernt Querdenker-Accounts | D’Amelios geht es nicht gut | LinkedIn Creator Program

The Facebook Files

Was ist

Dem Wall Street Journal (WSJ) wurden zahlreiche Dokumente zugespielt, die belegen, dass Facebook oft bis ins kleinste Detail um die Fehler der Plattformen weiß. Auch wissen sie um die Schäden, die von den Plattformen mit verursacht werden. Das Journal schreibt:

Time and again, the documents show, Facebook’s researchers have identified the platform’s ill effects. Time and again, despite congressional hearings, its own pledges and numerous media exposés, the company didn’t fix them. The documents offer perhaps the clearest picture thus far of how broadly Facebook’s problems are known inside the company, up to the chief executive himself.

Bislang wurden folgende Artikel in der Serie veröffentlicht:

  1. Facebook Says Its Rules Apply to All. Company Documents Reveal a Secret Elite That’s Exempt
  2. Facebook Knows Instagram Is Toxic for Many Teen Girls, Company Documents Show
  3. Facebook Tried to Make Its Platform a Healthier Place. It Got Angrier Instead.
  4. Facebook Employees Flag Drug Cartels and Human Traffickers. The Company’s Response Is Weak, Documents Show.

1) Nicht alle Nutzerïnnen sind gleich

  • Der erste Artikel der Serie beschäftigt sich mit einem Facebook-internen Programm namens „XCheck“. Das Programm war ursprünglich mal als Qualitätskontrolle für hochrangige Accounts gedacht. 2018 veröffentlichte Facebook einen Blogpost, in dem das Programm vorgestellt wurde.
  • Sinn und Zweck des Programms war es, Posts von besonders prominenten Accounts (etwa Medienunternehmen, Politiker oder Musiker) einem zweiten Check zu unterziehen, bevor Posts gelöscht werden.
  • Heute schirmt das Programm – so der Vorwurf des Wall Street Journal – über fünf Millionen VIP-Accounts von der normalen Durchsetzung der Community Standards ab.
  • Einige Accounts werden laut WSJ sogar auf einer Art Whitelist geführt, bei denen die Postings gar keinem Check mehr unterzogen werden. Die Inhaber können somit posten, was sie wollen.
  • Genau dies würden zahlreiche Accounts missbrauchen und Material posten, etwa Belästigungen oder Aufforderungen zur Gewalt, die bei allen anderen Nutzerïnnen zu Sanktionen führen. (Solche Sanktionen reichen vom Löschen des Posts bis zum Verlust des Accounts.)
  • Mark Zuckerberg betont öffentlich immer wieder, dass bei Facebook Milliarden Nutzerïnnen auf Augenhöhe mit den Eliten aus Politik, Kultur und Journalismus sprechen können. Genau das ist mit Blick auf das „XCheck“-Programm aber nichts als Augenwischerei.
  • Neben diesen Doppelstandards, die ein Beleg dafür sind, dass Social-Media-Plattformen eben doch gar nicht jegliche Kommunikation „demokratisieren“, sind einige weitere Dinge problematisch, wie Casey Newton festhält (Platformer):
  1. Die Öffentlichkeit weiß nicht, wer unter das XCheck-Programm fällt und wer nicht.
  2. Es gibt keine öffentlichen Standards dafür, wer für das Programm in Frage kommt.
  3. Die Standards werden ungleichmäßig angewandt: So sind z.B. einige Kandidaten für politische Ämter erfasst, andere nicht.
  4. Es gibt keine öffentlichen Angaben darüber, wie oft „XCheck“ angewendet wird oder wie es sich auf die Inhalte der Plattform auswirkt.

2) Facebook weiß um den negativen Einfluss von Instagram

  • Der zweite Artikel der Serie beschäftigt sich mit internen Studien, in denen darauf hingewiesen wird, welche negativen Auswirkungen die Nutzung von Instagram haben kann – insbesondere für Mädchen im Teenageralter.
  • Das Wall Street Journal konnte einige Präsentationen von 2019 einsehen, in denen die Studienergebnisse (hochrangigen Mitarbeiterïnnen) vorgestellt wurden. Dort heißt es unter anderem:

We make body image issues worse for one in three teen girls.

Teens blame Instagram for increases in the rate of anxiety and depression.

Social comparison is worse on Instagram.

  • Von den Jugendlichen, die in Gesprächen mit Facebook-Wissenschaftlerïnnen über Selbstmordgedanken berichteten, führten 13 % der britischen und 6 % der amerikanischen Nutzerïnnen den Wunsch, sich umzubringen, auf Instagram zurück.
  • Trotz dieser fürchterlichen Studienergebnisse spielen Zuckerberg und Co die negativen Auswirkungen der Plattform öffentlich gern herunter. Im März sagte Mark Zuckerberg bei einer Anhörung im Kongress:

The research that we’ve seen is that using social apps to connect with other people can have positive mental-health benefits.

  • Die Gründe für Facebooks Argumentation liegen auf der Hand:
  1. Nicht alle Teenager sind betroffen. Für die meisten Teenager sind die Auswirkungen "negativer sozialer Vergleiche" überschaubar und können „durch den Nutzen der App als unterhaltsame Möglichkeit, sich auszudrücken und mit Freunden in Kontakt zu treten, aufgewogen werden“, zitiert das Wall Street Journal aus einer der Untersuchungen.
  2. Instagram ist Facebooks Zukunft: Mehr als 40 % der Instagram-Nutzerïnnen sind 22 Jahre und jünger. Etwa 22 Millionen Teenager loggen sich in den USA laut WSJ täglich bei Instagram ein. Das sind im Vergleich zu Facebook mehr als viermal so viele. Zudem nimmt die Zahl der jungen Facebook-Nutzerïnnen seit Jahren ab. Das Journal schreibt: „Im Durchschnitt verbringen Teenager in den USA 50 Prozent mehr Zeit auf Instagram als auf Facebook.“
  • Dass Facebook daher alles daran setzt, nichts auf Instagram kommen zu lassen, ist aus wirtschaftlicher Sicht verständlich. Aber eben auch nur aus dieser Perspektive.
  • Zu Facebooks Ehrenrettung muss man sagen, dass sie mit Blick auf die Studienergebnisse nicht gänzlich untätig geblieben sind. Es gibt Anti-Belästigungs-Tools, Well-Being-Guides und Hinweise bei problematischen Inhalten.
  • Auch hat Facebook damit experimentiert, die Anzahl der Likes zu verstecken, um so den Druck zu minimieren, auf der Plattform reüssieren zu müssen. Der Test mit dem Projekt-Namen Daisy hat allerdings wenig gebracht, wie in einer internen Präsentation deutlich wird, aus der das WSJ zitiert:

We didn’t observe movements in overall well-being measures.

  • Instagram wird – den wenigen Anstrengungen zum Trotz – weiterhin vor allem als Plattform wahrgenommen, auf der es darum geht, wie man aussieht, was man hat, wo man ist. Dass Facebook Instagram nun zu einer Art Shopping-Mall umbaut, trägt dazu selbstverständlich bei.
  • Wie es weitergeht: Während Instagram stolz auf die Untersuchungen ist (Instagram Newsroom), zeigt sich der US-Kongress alarmiert und plant eine Untersuchung zum Thema (The Verge).
  • Dass Instagram for Kids (BuzzFeed) eine gute Idee ist, erscheint in diesem Licht zudem übringens nun noch einmal sehr viel fragwürdiger (Techcrunch, NPR) als es eh schon der Fall war.

3) Der Fokus auf „Meaningful Interactions“ war ein Fehler

  • 2018 sollte ein großer Umbau des Algorithmus dafür sorgen, dass Facebook wieder ein besserer Ort wird. Vorangegangen war eine intensive Debatte darüber, welchen Anteil Facebook am Wahlsieg Trumps und an der Spaltung der (US-) Gesellschaft hat. Der Fokus auf sogenannte „Meaningful Interactions“ sollte für Facebook eine Art Befreiungsschlag sein und Menschen dazu verleiten, Facebook wieder mehr zu nutzen. Laut den Recherchen des Wall Street Journal hat der Umbau Facebook allerdings zu keinem besseren Ort werden lassen, sondern das Gegenteil bewirkt. Davon handelt der dritte Artikel der Serie.
  • Der Fokus auf sogenannte „Meaningful Interactions“ sollte die Beziehungen zwischen den Nutzerïnnen stärken und ihr Wohlbefinden verbessern. Endlich wieder mehr Interaktion mit Freunden, Bekannten und Verwandten, weniger passiver Konsum von professionell produzierten Inhalten, was laut diversen Untersuchungen sowieso schädlich für die psychische Gesundheit der Nutzerïnnen wäre. Soweit Zuckerbergs Plan damals.
  • Umgesetzt wurde der Plan mithilfe eines (geheimen) Bewertungsverfahrens, das jeden Post darauf analysierte, wie bedeutungsvoll er ist. Die folgende Grafik verdeutlicht die Bestrebungen:

  • Diese Neu-Gewichtung der Posts hatte allerdings zur Folge, dass sich vor allem jene Posts auf der Plattform verbreiten konnten, die für Aufregung sorgten. Das WSJ zitiert Facebook-Mitarbeiterïnnen, die auf diesen unerwünschten Effekt aufmerksam wurden: „Misinformation, toxicity, and violent content are inordinately prevalent among reshares.“
  • Auch BuzzFeed-Chef Jonah Peretti erkannte frühzeitig, welche negativen Konsequenzen der Umbau von Facebooks News Feed hatte. Das Journal schreibt:

“MSI ranking isn’t actually rewarding content that drives meaningful social interactions,” Mr. Peretti wrote in his email to the Facebook official, adding that his staff felt “pressure to make bad content or underperform.” (…) It wasn’t just material that exploited racial divisions, he wrote, but also “fad/junky science,” “extremely disturbing news” and gross images.

  • Das Thema ist gerade auch aus der Perspektive „Social Media und Journalismus“ sehr spannend. Wir werden daher in einem der kommenden Briefings auf diesen Teil der WSJ-Recherche noch einmal genauer eingehen.

4) Facebook unternimmt nur dort Anstrengungen, wo öffentlicher Ärger droht

  • Der vierte Teil der Serie beschäftigt sich damit, dass Facebook zwar mit wenigen Ausnahmen weltweit genutzt werden kann, das Unternehmen aber nur dort Ressourcen investiert, wo Ärger durch Medien, Aktivistïnnen und Politik droht.
  • Das Wall Street Journal berichtet, dass im Jahr 2020 „Facebook-Mitarbeiterïnnen und externe Auftragnehmer (etwa Content-Moderatoren) mehr als 3,2 Millionen Stunden damit verbrachten, Informationen, die das Unternehmen als falsch oder irreführend einstufte, ausfindig zu machen, zu kennzeichnen oder in einigen Fällen zu entfernen“. Lediglich 13 % dieser Zeit wurde für die Bearbeitung von Inhalten außerhalb der USA aufgewendet. 13 Prozent! Und das liegt nicht nur am Volumen.
  • Samidh Chakrabarti, früher verantwortlich für das Civic Engagement Team bei Facebook, erklärt in einem Twitter-Thread sehr deutlich, welche Probleme sich aus diesem Vorgehen von Facebook ergeben. Er schreibt:

When a social network operates in any market, it needs to ensure it can adhere to some minimal set of trust & safety standards. It needs to be capable of processing user reports and automatically monitoring for the worst content in all the supported dialects. Seems like table stakes (and it is), but not operationally trivial. You must find ppl who know the dialect & context, train them on platform rule nuances, ensure they have a safe workplace, and hire enough to staff 24/7 and mitigate single points of bias. Takes time, not just $.


Social Media & Politik

Bundestagswahl

  • Mozilla-Studie zu TikTok: Laut einer Mozilla-Studie schafft es TikTok vor der Bundestagswahl nicht, Falschinformationen adäquat einzudämmen. Zudem decken die Forscherïnnen in der Studie gefälschte Konten, fehlerhafte Wahlkennzeichnung und verspätete Faktenchecks auf. Disclaimer: Wir haben die Studie noch nicht in aller Ausführlichkeit studieren können, kennen aber einige der Autorïnnen persönlich und machen daher an dieser Stelle „blind“ auf die Studie aufmerksam.

In other news

  • Facebook entfernt Querdenker-Gruppen und -Seiten: Facebook hat ein Netzwerk entfernt, das mit der Querdenken-Bewegung in Verbindung steht und wiederholt gegen die Gemeinschaftsstandards verstossen hat (Facebook Newsroom). Insgesamt handelt es sich um 150 Kanäle und Gruppen (T-Online).
  • Apple vs Epic: Den ganzen Mai über lieferten sich Apple und Epic Games eine heftige Auseinandersetzung vor Gericht (siehe Briefing #722). Im Kern geht es um die Frage, wer die Regeln im App Store schreiben darf. Nun hat das Gericht entschieden, dass Apple tatsächlich seine Regeln ändern muss. Apple muss Entwicklerïnnen künftig gestatten, iOS-Nutzerïnnen Alternativen zu Apples Bezahlmechanismus zu bieten. Als Sieger geht Epic damit aber noch lange nicht vom Platz.
  • Social Media und Polarisierung: Eine Meta-Studie zeigt, dass Social Media sehr wohl dazu beiträgt, Gesellschaften auseinzudividieren. Die sozialen Medien dafür allein verantwortlich zu machen, wäre aber zu kurz gesprungen: Fueling the Fire: How Social Media Intensifies U.S. Political Polarization — And What Can Be Done About It (NYU | STERN)
  • Miese Daten: Wir beschweren uns ja hier im Briefing oft, dass Facebook zu sehr „Blackbox“ ist und in aller Regel viel zu wenig Daten herausgibt, um wirklich zu verstehen, was auf der Plattform passiert. Gespannt blickten wir daher auf die Kooperation von Facebook mit einigen namhaften Universitäten, um zu erforschen, welche Bedeutung die Plattform für die US-Wahl 2020 hatte. Jetzt berichtet die New York Times, dass der Datensatz, den Facebook bereitgestellt hatte, fehlerhaft ist. Die Untersuchungen der Wissenschaftlerïnnen sind somit für die Tonne. Grrrr.
  • Taliban und Social Media: Wie sollen die Social-Media-Plattformen eigentlich mit den Taliban umgehen, wo sie doch jetzt Afghanistan übernommen haben? Während Facebook und YouTube weiterhin sehr strikte Auslegungen haben, was die Möglichkeiten der Taliban angeht, die Plattformen zu nutzen, ist Twitter etwas weniger streng. Slate hat den Überblick: Should Facebook Let the Taliban Post?
  • Irische Datenschutzbehörde ermittelt gegen TikTok: Die für TikTok zuständige Datenschutzbehörde in der Europäischen Union hat zwei Untersuchungen gegen TikTok eingeleitet (Reuters). Zum einen geht es um die Verarbeitung personenbezogener Daten von Kindern. Zum anderen um die Übermittlung personenbezogener Daten nach China.

Kampf gegen Desinformation

  • Faktenchecks haben positive Effekte: Eine Studie (GWU) zweier Forscher der George Washington University zeigt, dass Faktenchecks den Glauben an Fehlinformationen deutlich verringern. Die Autorïnnen kommen zu dem Schluss, dass die Überprüfung von Fakten ein wirksames Instrument zur Bekämpfung von Fehlinformationen in verschiedenen Ländern, Kulturen und politischen Umfeldern ist.

Creator Economy

  • D’Amelios geht es nicht gut: In der letzten Ausgabe hatten wir darüber berichtet, dass die D’Amelios nun ihre eigene Reality-TV-Show erhalten. Während wir annahmen, dass die Show locker flockig vom unglaublichen Leben der beiden TikTok-Superstars Charli und Dixie berichtet, geht es eher um die Schattenseiten des Ruhms. In den ersten Folgen sagt Charli – 17 Jahre, 124 Millionen Followern – wirklich bemerkenswerte Dinge:

“I feel like I’ve had a constant anxiety attack for the past four years."

"I am physically and mentally exhausted"

"I don’t know how long anyone expects me to keep going as if nothing is wrong."

"My job is never over."

"Dance used to be the most fun thing in my life and now I don’t like it. Social media has robbed me of that."

  • Welten verschmelzen: Die Met Gala ist dem Spiegel zufolge “die wichtigste Modeparty des Jahres“. Dieses Jahren waren zum ersten Mal zahlreiche Influencerïnnen, YouTuber und Creator eingeladen. Ja, Instagram hat sogar einen eigenen Meme-Reporter (NBCNews) geschickt. Ein weiteres Zeichen dafür, dass Online-Stars immer mehr zu Stars in real life werden. (Insta-Boss Mosseri war übrigens auch da, sogar als Co-Chair der Veranstaltung. Also nur wegen all der Anstrengungen, die Instagram unternimmt, um etwas von dem Druck der jungen Menschen zu nehmen…)
  • Trending VMAs: TikTok arbeitet weiter fleißig daran, in der Musik-Branche als bedeutender Multiplikator wahrgenommen zu werden. Gemeinsam mit MTV hat das Unternehmen daher nun die ersten Awards (MTV) verliehen, bei denen es um alle möglichen Songs und Tanz-Choreos ging, die auf TikTok viral gegangen sind.
  • LinkedIn Creator Program: Satte 25 Millionen Dollar nimmt LinkedIn in die Hand, um Creator auf die Plattform zu locken. Hier der Blogpost zum Start: LinkedIn’s Latest Investment in Creators.
  • YouTube startet Podcast zur Creator Economy: Wie kann aus einem ambitionierten Hobby-Projekt ein Geschäftsmodell werden? Während wir diese Frage im Bereich Newsletter ganz anständig beantworten können, haben wir keine so ganz hundertprozentige Idee, wie das bei YouTube funktioniert. Und weil das ganz vielen so geht, startet YouTube nun einen Podcast zu diesem Thema: „The Upload: The Rise of the Creator Economy“.

Neue Features bei den Plattformen

WhatsApp

  • Voice to Text: WhatsApp entwickelt derzeit eine Funktion, die Transkriptionen von empfangenen Sprachnachrichten (Wabetainfo) ermöglichen würde. So kann dieser eine Kumpel (!) endlich seine epischen Nachrichten weiter „aufs Band quatschen“, anhören muss man sie sich dann aber nicht mehr. Top!
  • Business Directory: WhatsApp testet in Brasilien ein Verzeichnis von Geschäften (Reuters), über das Shops und Services direkt in der App gefunden werden können.

Instagram

Twitter

  • Verifikation wieder möglich: Nach einer erneuten Pause können Nutzerïnnen sich nun wieder um die Verifikation (Techcrunch) ihrer Profile bemühen.

One more thing

Mehr Erfolg auf LinkedIn: Wenn dir der Stoff ausgeht für deine "Thought Leadership"-Postings auf LinkedIn: das Satire-Social-Network ShlinkedIn hat einen Content-Generator und kann garantiert helfen.


Header-Foto von Simon Maage


Wie sicher Nachrichten bei WhatsApp sind | Warum Facebook jetzt Sonnenbrillen verkauft | TikTok überholt YouTube bei durchschnittlicher Verweildauer pro Nutzerïn

Was eine ProPublica-Recherche über WhatsApp verrät – und was nicht

Was ist (scheinbar)

Am Dienstag hat ProPublica eine Recherche veröffentlicht, bei der wir auf den ersten Blick dachten: Hui, das wird das Thema der Woche. Mindestens. „How Facebook Undermines Privacy Protections for Its 2 Billion WhatsApp Users“ überschreibt die Recherche-Organisation den Text. Es folgen fünf Kapitel und fast 40.000 Zeichen, die Zweifel daran wecken sollen, ob WhatsApp wirklich so privat und sicher ist, wie es das Unternehmen selbst immer behauptet.

Was ist (tatsächlich)

Wir schätzen die Autoren, insbesondere Craig Silverman hat für BuzzFeed immer wieder richtig gute Recherchen abgeliefert. Die ProPublica-Geschichte gehört nicht dazu. Der Text enthält einige interessante Fakten, ist aber überverkauft und stellenweise irreführend.

Darin stehen etwa solche Sätze:

  • „Deploying an army of content reviewers is just one of the ways that Facebook Inc. has compromised the privacy of WhatsApp users.“
  • „This article is the first to reveal the details and extent of the company’s ability to scrutinize messages and user data — and to examine what the company does with that information.“
  • „Asked how many staffers WhatsApp employed to investigate abuse complaints from an app with more than two billion users, Cathcart didn’t mention content moderators or their access to encrypted content.“

Ständig wird suggeriert, dass WhatsApp Nutzerïnnen täusche, wenn es beteuert, alle Nachrichten seien durch Ende-zu-Ende-Verschlüsselung (E2EE) geschützt und damit auch für das Unternehmen selbst nicht lesbar. Diese Unterstellung ist falsch und journalistisch fragwürdig.

Eva Galperin, Cybersecurity-Direktorin der EFF, drückt es so aus: „(…) when it comes to encryption, it’s a misleading mess.“ Alex Stamos, einst Facebook-Sicherheitschef, heute Stanford-Professor, wird noch deutlicher (beide Twitter): „This ProPublica article on WhatsApp is terrible. (…) It incorrectly conflates responsible reporting mechanisms with proactive moderation, and creates the wrong incentive structure for E2EE products.“

Das ist umso bedauerlicher, weil der Text diese Dramatisierung gar nicht nötig hätte. Die drei Reporter haben nämlich einige wirklich spannende Details herausgefunden. Statt zu erklären, was der Artikel alles durcheinanderbringt, konzentrieren wir uns lieber darauf, welche Erkenntnisse wir beim Lesen gewonnen haben.

Wie WhatsApp Inhalte moderiert

  • Mehr als 1000 Menschen analysieren für WhatsApp Nachrichten, die Nutzerïnnen melden. Das ist nur die Zahl der Beschäftigten beim Dienstleister Accenture. Möglicherweise gibt es noch weitere Drittfirmen, die diese Arbeit im Auftrag von Facebook erledigen.
  • Bereits im Sommer wurden Einzelheiten über die Bezahlung (The Verge) und die belastende Arbeit bekannt. Die neue Information ist die Zahl der Beschäftigten.
  • Facebook und Instagram nennen diese Personen Content-Moderatorïnnen (CM). WhatsApp lehnt den Begriff ab, weil die Beschäftigten keine einzelnen Nachrichten löschen können, sondern nur drei Optionen haben: Nichts tun, Accounts auf eine Beobachtungsliste setzen oder komplett sperren.
  • Wir halten das für Haarspalterei. CM scheint uns eine treffende Bezeichnung für die Arbeit zu sein, die bei WhatsApp anfällt. Inhaltlich unterscheidet sie sich nicht großartig von den Aufgaben bei anderen Plattformen: Man muss in kurzer Zeit entscheiden, wie man mit teils verstörenden Inhalten umgeht und welche Konsequenzen man daraus zieht. Die psychischen Folgen und posttraumatischen Belastungsstörungen sind hinreichend dokumentiert.
  • Für weitere Details zu diesem Thema verweisen wir auf die Briefings #645 und #638.

Wie Inhalte bei WhatsApp landen

  • Nutzerïnnen können andere Konten blockieren oder melden (oder beides). Wenn sie sich für die zweite Option entscheiden, leiten sie die letzten fünf Nachrichten des Chats mit dem Account an den Support weiter.
  • Das ist kein Geheimnis. Im Hilfebereich schreibt WhatsApp: „Wenn du jemanden meldest, geschieht Folgendes: WhatsApp erhält die neuesten Nachrichten, die du von dem gemeldeten Benutzer oder der gemeldeten Gruppe empfangen hast, sowie Informationen zu deinen neuesten Interaktionen mit diesem Benutzer oder dieser Gruppe.“
  • Neu ist nur die Anzahl der Nachrichten. WhatsApp sagt, dass man diese Zahl bewusst nicht nennt, weil das dazu einlade, das System zu missbrauchen.
  • Die gemeldeten Nachrichten werden von einer Software in unterschiedliche Kategorien einsortiert, etwa „Spam Report“, „Civic Bad Actor“, „Terrorism Global Credible Threat“ oder CEI, was für child exploitative imagery steht. Anschließend bearbeiten die CM die Inhalte.
  • Bei alledem bleibt die E2EE intakt. WhatsApp kann nur auf Inhalte zugreifen, die Nutzerïnnen von sich aus melden und damit weiterleiten, so wie sie Nachrichten auch an Freundïnnen und Bekannte weiterschicken können.
  • Man kann WhatsApp vorwerfen, dass es diesen Mechanismus nicht richtig erklärt und ein Großteil der Nutzerïnnen vermutlich nicht weiß, wie die Meldefunktion abläuft. Das ändert aber nichts daran, dass Nachrichteninhalte bei WhatsApp sicher und privat sind.

Was Metadaten verraten

  • Einer der spannenderen Aspekte der Recherche geht angesichts des ganzen Geraunes leider ein wenig unter: WhatsApp sammelt massenhaft Metadaten, die in Summe fast genauso viel verraten wie die Inhalte der Nachrichten.
  • Wer kommuniziert wann und von wo aus mit wem? Wie oft wird die App geöffnet, welches Handy kommt zum Einsatz, wie stabil ist das Handynetz? Nahezu alle Information, die nicht die Nachrichten selbst betreffen, können gespeichert und analysiert werden.
  • WhatsApp teilt diese Daten zum Teil mit Facebook, um Profile zu vervollständigen, Anzeigen besser zuschneiden zu können und mehr Geld zu verdienen. Bei der Übernahme hatte Mark Zuckerberg noch versprochen, die beiden Plattformen niemals miteinander zu verknüpfen. Für diese Täuschung musste Facebook 2017 in der EU 110 Millionen Euro Strafe zahlen (Tagesschau).
  • Grundsätzlich ist das längst bekannt und oft erzählt, doch der ProPublica-Bericht geht weiter. Es wird deutlich, dass diese Daten nicht nur bei Facebook, sondern regelmäßig auch bei Sicherheitsbehörden landen.
  • Auf Grundlage dieser Daten wurde unter anderem die Whistleblowerin Natalie Edwards identifiziert, die im US-Finanzministerium arbeitete und Informationen an WhatsApp weitergab.
  • Wir haben in diesem Briefing oft genug Signal und Threema als sichere und datensparsame Alternativen empfohlen (#693, #695, #705). Deshalb überlassen wir das diesmal Ingo Dachwitz (Netzpolitik):

Auch wenn die Ende-zu-Ende-Verschlüsselung des Messengers funktioniert, ist WhatsApp kein guter Ort für private Kommunikation. Journalist:innen, die auf diesem Messenger vertrauliche Gespräche mit ihren Quellen führen, handeln unverantwortlich. Wer wirklich sicher und datensparsam kommunizieren will, sollte Alternativen wie Threema oder Signal nutzen, die kaum Metadaten speichern.

Be smart

Unabhängig vom fragwürdigen Framing wirft der Text eine wichtige Frage auf: Sollte WhatsApp eine Möglichkeit anbieten, andere Nutzerïnnen und Gruppen zu melden und Nachrichten direkt an den Support weiterzuleiten?

  • Was dagegen spricht: Die Funktion lässt sich missbrauchen und könnte für Whistleblowerinnen, Oppositionelle und Journalisten gefährlich sein. Allerdings sollten solche Personen ohnehin keine sensiblen Inhalte an Menschen schicken, denen sie nicht vertrauen. Schließlich können diese auch Screenshots machen oder die Nachrichten auf andere Arten weiterleiten.
  • Was dafür spricht: WhatsApp ist ein Massenmedium mit Milliarden Nutzerïnnen. Über den Messenger werden Menschen bedroht und belästigt, Verbrechen geplant und CSAM (child sexual abuse material) ausgetauscht. Allein 2020 übermittelte WhatsApp 400.000 Fälle an die Kinderschutzorganisation NCMEC. Ohne die Meldefunktion wäre das nicht möglich.
  • Deshalb glauben wir: Es ist sinnvoll, dass WhatsApp eine Möglichkeit anbietet, verdächtige Accounts zu melden. Unserer Meinung nach ist das ein sinnvoller Kompromiss, der E2EE gewährleistet und trotzdem in begrenztem Umfang Strafverfolgung ermöglicht.

Wie schwierig es ist, einen solchen Kompromiss zu finden, zeigt die Kontroverse, die Apple Anfang August auslöste. Kryptografen, Aktivistinnen und Bürgerrechtsorganisationen warnten eindringlich vor den Plänen, iPhones zu durchleuchten, um CSAM aufzuspüren und Täter zu ermitteln. Im Grundsatz geht es um das gleiche Dilemma: Wie viel Privatsphäre darf man opfern, um Verbrechen zu verhindern?

In Briefing #739 (das wir noch in WordPress einpflegen müssen, deshalb kein Link) schrieben wir:

Wir glauben, dass es nicht darum geht, lauter zu schreien, um die Gegenseite zu übertönen. Es wäre schön, wenn die beiden Anliegen, der Schutz von Kindern und die Privatsphäre von Milliarden Menschen, nicht gegeneinander ausgespielt würden. Dafür sind beide zu wichtig.

Der heftige Widerstand scheint auch Apple beeindruckt zu haben: Am vergangenen Freitag verkündete der Konzern, die Umsetzung um mehrere Monate zu verschieben. Auf Grundlage des Feedbacks von Kundïnnen, Forschern und Interessengruppen werde man sich mehr Zeit nehmen, um Input zu sammeln und Verbesserungen vorzunehmen.

„Feedback“ und „Input“ sind sehr freundliche Formulierungen für die Reaktionen, die Apple auslöste, doch in dem Fall ist der Inhalt wichtiger als die Ausdrucksweise. Mit Sicherheit wird am Ende keine Lösung stehen, die alle zufriedenstellt. Das ist bei einem derart komplexen und emotionalen Thema nicht möglich. Aber vielleicht gibt es einen Kompromiss, mit den Daten- und Kinderschützerïnnen zähneknirschend leben können. Womöglich könnte – und wir hätten wirklich nicht gedacht, dass wir das einmal schreiben würden – WhatsApp zeigen, dass es zwischen Schwarz und Weiß auch noch Grau gibt.


Warum Facebook jetzt smarte Sonnenbrillen verkaufen will

  • Facebook beschreibt seine „Ray-Ban Stories“ so: „Smart glasses that give you a new way to capture photos and video, share your adventures and listen to music or take phone calls — so you can stay present with friends, family and the world around you.“
  • Vice drückt es etwas weniger charmant aus: „Sunglasses Have Terms of Service Agreements Now, Thanks to Facebook„. Und Katie Notopoulos schreibt gar (BuzzFeed): „A Facebook VP informed me that taping over the LED light was a violation of the terms of service of the glasses.“
  • Kurzum: Es gibt einige Gründe, Facebooks Idee, zusammen mit Ray Ban eine smarte Sonnenbrille zu entwickeln und für 299 Dollar zu verkaufen, für einigermaßen bescheuert zu halten.
  • Ausgerechnet Facebook, könnte man sagen. Als ob es nicht reichte, dass Google vor acht Jahren mit seiner Brille krachend scheiterte und den Begriff „Glassholes“ prägte – reiche Tech-Bros aus dem Silicon Valley, die sich nicht um die Privatsphäre ihrer Umgebung kümmern und unbemerkt Videos aufnehmen.
  • Doch es wäre zu einfach, die Facebook-Brille bereits jetzt als Google Glass 2.0 abzutun. Man kann damit nicht live streamen, sondern nur sprachgesteuert Fotos und Videos aufnehmen, die dann per Bluetooth aufs Smartphone übertragen werden. Dort landen sie in der App Facebook View und können auf anderen Plattformen geteilt werden (auch bei Facebooks direkter Konkurrenz).
  • Ein kleines Licht soll der Umgebung signalisieren, dass gerade aufgenommen wird. Ob das aber reicht, um unbemerktes Filmen zu verhindern, ist fraglich.
  • Notopoulos fasst es so zusammen: „The privacy features for the glasses wearer are decent; privacy features for the rest of the world? Not so much. The implications for our souls? Hopelessly unclear.“
  • Andrew Bosworth, Leiter der Facebook Reality Labs, legt Wert darauf, dass Facebook nicht einfach nur Googles Idee aufgewärmt habe und hoffe, dass die Welt 2021 eher dafür bereit sei als 2013. „This product has not been tried before because we’ve never had a design like this before“, sagt er (NYT). Facebook und Ray-Ban hätten sich eher auf Mode fokussiert als auf die Technik in der Brille.
  • Für Mark Zuckerberg dürften die Facebook Glasses ohnehin nur der Einstieg in eine AR/VR-Zukunft sein, von der er schon lange träumt. In Briefing #736 schrieben wir von seiner Version für das Metaverse, in dem analoge und digitale Welt miteinander verschmelzen.
  • Im Gespräch mit Fast Company nennt er die Ray-Ban Stories „one milestone on the path to what we envision is the long-term augmented reality glasses“.
  • Wir werden uns damit im Laufe der kommenden Wochen noch mal intensiver auseinandersetzen. Fürs Erste wirst du in Deutschland ohnehin keinen Menschen mit Facebook-Brille auf der Nase begegnen: Die Ray-Ban Stories können derzeit nur in den USA, Australien, Kanada, Irland, Italien und Großbritannien bestellt werden.

Social Media und Politik

  • Studie zu politischer Propaganda: Eine Studie der Mozilla Foundation macht auf die wachsende Industrie für bezahlte politische Propaganda in den sozialen Medien aufmerksam. Konkret geht es in ihrem Report um eine Desinformationskampagne in Kenia. Dort konnten irreführende Inhalte auf Twitter trenden, womöglich sogar maßgeblich aufgrund von geboosteten Posts. Die Autorïnnen zeigen zum einen, dass es Länder gibt, in denen Menschen bereits für wenige Dollar am Tag (Rest of World) gebucht werden können, um bewusst irreführende Inhalte zu posten. Andererseits wird deutlich, dass Unternehmen wie Twitter bislang nicht ausreichend dafür aufgestellt, solche Kampagnen zu identifizieren und zu stoppen. Ja mehr noch: Derzeit verdienen sie laut Bericht sogar noch daran.

Follow the money

  • Werbung in sozialen Medien: Der Bundesgerichtshof hat entschieden, dass Influencerïnnen auf Produkte verweisen dürfen, ohne es als Werbung zu kennzeichnen. (BGH-Pressemitteilung) Allerdings gilt das nur, wenn sie keine Gegenleistung für ihre Postings erhalten. Wie es sich darstellt, wenn eine Influencerïnnen aus freien Stücken (und ohne direkte Gegenleistung) etwas anpreist, dann dafür Wochen später ein freundliches Dankeschön erhält (solche Pakete sollen ja durchaus schon einmal verschickt worden sein), ist somit nicht geklärt. Die Entscheidung aus Karlsruhe bedeutet also nur bedingt mehr Rechtssicherheit für Influencerïnnen. Richtige Klarheit dürfte erst das neue Gesetz bringen, das im Mai 2022 in Kraft tritt.
  • YouTube freut sich über 50 Millionen zahlende Abonnentïnnen: Es gibt mittlerweile über 50 Millionen Menschen, die für YouTube Music oder YouTube Premium zahlen (YouTube). Damit liegt YouTube zwar noch immer hinter Spotify (165 Millionen, The Verge) und Apple Music (78 Millionen, Financial Times $). Gleichwohl zeigt die Zahl, dass YouTube längst nicht mehr einzig und allein vom Werbegeschäft abhängig ist: das Geschäft mit Subscriptions boomt.
  • ByteDance hätte gern 5 Milliarden Dollar: TikToks Mutterkonzern ByteDance bemüht sich laut The Information derzeit darum, 5 Milliarden Dollar aufzutreiben. Das ist aus zwei Gründen interessant: Zum einen verdient ByteDance gutes Geld und hätte es daher womöglich gar nicht nötig, sich so viel Geld zu pumpen. Allerdings setzt ByteDance nach wie vor am meisten mit seinen Angeboten in China um – allen voran mit Toutiao und TikToks Schwester Douyin. Dieses Geld wiederum darf ByteDance aufgrund von strikten Bestimmungen, denen Unternehmen in China unterworfen sind, nicht ohne Weiteres in Dollar umwandeln. Womit wir bei Punkt 2 wären: ByteDance möchte das Geld nutzen, um einerseits Schulden zu tilgen, und um andererseits den rasanten Aufstieg von TikTok noch weiter zu beschleunigen. Halleluja! Was haben die vor?
  • Vergesst Native Ads! Shoppable Content ist der neue Sh!t Ganz ehrlich: Yahoos In-The-Know-Accounts hatten wir bislang nicht im Blick. Auch wussten wir nicht, dass Yahoo damit auf Social super erfolgreich ist: 66 Millionen Follower und mehr als 1 Milliarde Views pro Monat bei Facebook, Instagram, Snapchat, TikTok und Twitter zusammen sprechen für sich. Was wir aber vor allem nicht wussten: Die Formate von In The Know zielen vor allem darauf ab, Inhalte zu produzieren, die Nutzerïnnen kaufen können. Shoppable Content nennt sich das. BuzzFeed nimmt hier dem Vernehmen nach eine Vorreiter-Rolle ein (Adweek). Uns erinnert das stark an die Debatte um Native Ads: Um Anzeigen, die nach redaktionellem Inhalt aussehen, aber eben bezahlte Partnerschaften sind, gab es vor fünf, sechs Jahren große Aufregung. Bei Shoppable Content sind wir jetzt einen Schritt weiter: Bei Formaten wie In The Know gibt es einfach fast gar keinen Inhalt mehr, der nicht zum Konsum anregen soll. Wie heißt es bei Adweek zum Launch des dritten Kanals von In The Know so schön:

Shoppable content, where the line between editorial and commerce thins nearly into nonexistence.


Studien / Reports

  • TikTok überholt YouTube bei durchschnittlicher Verweildauer pro Nutzer: In Großbritannien und den USA verbringen Menschen laut einem Bericht von App Annie mittlerweile mehr Zeit auf TikTok als auf YouTube. Zwar hält YouTube weiterhin die Spitzenposition, wenn es um die insgesamt verbrachte Zeit geht (weil es mehr Nutzerïnnen zählt: 2 Milliarden monatlich aktive Userïnnen vs. schätzungsweise 700 Millionen). Mit Blick auf die Dauer pro Nutzer liegt TikTok aber vorn. Die Zahlen untermauern somit das, was viele von euch kennen dürften: Wer TikTok öffnet, kann schnell kleben bleiben. Wie würde DJ Khaled sagen: Another one! And another one! And another one!

Schon einmal im Briefing davon gehört

  • Die D’Amelios sind jetzt Reality-TV-Stars: Auf Hulu gibt es nun eine Reality-TV-Show über die Familie D’Amelio. Wer das gleich noch einmal ist? Well, Charli D’Amelio, 17 Jahre, ist TikToks größter Star mit 124 Millionen Followern, ihre Schwester Dixie, 20 Jahre, ist nicht viel weniger berühmt (56 Millionen Follower bei TikTok). Nach unzähligen Werbeverträgen, Plattenverkäufen und Fernsehauftritten folgen sie nun den Kardashians dieser Welt und bekommen zusammen mit ihren Eltern Marc und Heidi ihre eigene Reality-Sendung. Hier der Trailer (YouTube), hier einige Besprechungen: Guardian, BuzzFeed und Washington Post. Das Beispiel zeigt, dass Content Creator längst nicht mehr nur auf Social-Media-Plattformen Stars sein können, sondern als Mainstream-Celebrities anerkannt werden. Unsere Wette: Die D’Amelios werden die ersten echten Social-Media-Milliarde. IRL.

Neue Features bei den Plattformen

Twitter

Twitter übertrifft sich derzeit wirklich selbst hinsichtlich der Lancierung neuer Features. Was genau hat das Unternehmen eigentlich die letzten zehn Jahre gemacht? Egal. Hier alle neue Entwicklungen im Überblick:

  • Communities: Bislang bekamen Twitter-Nutzerïnnen Inhalte ausschließlich deshalb präsentiert, weil sie anderen folgten. Das, was Menschen, denen ich folge, posten, landet bei mir im Feed. Simple. Sämtliche Kommunikation erfolgte auf der Grundlage der sozialen Vernetzung. Von diesem Grundprinzip weicht Twitter nun ab und wagt etwas anderes: Nutzerïnnen können jetzt auch zu bestimmten Themen zusammenfinden (The Verge). In sogenannten Communities (@JoinCommunities) ist es dann irrelevant, ob ich allen folge, die sich äußern. Als Nutzer muss ich lediglich der Community meiner Wahl beitreten und schon erhalte ich sämtliche Posts aller anderen Teilnehmerïnnen – ähnlich wie bei Reddit oder Facebook Gruppen. Twitter erhofft sich davon höheres Engagement und vor allem: mehr monatliche Nutzerïnnen. Bislang ist die Hürde, sich bei Twitter zurechzufinden, ziemlich hoch. Das soll sich mit der Einführung von Communities ändern. Bis du auch einer Commmunity beitreten, bzw. eine anbieten kannst, dürfte allerdings noch etwas Zeit vergehen. Der Rollout hat gerade erst begonnen. In der Zwischenzeit werden wir sicherlich noch viele Artikel lesen, in denen sich kluge Köpfe um die Herausforderungen der Content Moderation in solchen Communities Gedanken machen… Zurecht.
  • Neue Optik: Twitter ist jetzt full-width – so wie wir es von Instagram kennen, werden die Fotos (und Texte) jetzt endlich in voller Breite angezeigt und nicht so komisch beschnitten.
  • Follower von den eigenen Inhalten aussperren: Twitter testet eine sanftere Art, Follower zu entfernen (TwitterSupport). Anstatt Follower zu blocken und sie dann wieder unzublocken (Gott verzeihe uns unsere Sprache!), können Nutzerïnnen jetzt Follower entfernen, damit sie die eigenen Tweets nicht mehr sehen können, sie aber weiterhin als Follower gelistet werden.
  • Alte Tweets verstecken / sich aus Konversationen rausnehmen: Twitter arbeitet zudem an Features, die dabei helfen sollen, einzuschränken, wer sehen kann, welche Tweets einem gefallen. Und an einer Option, um Personen zu erlauben, sich selbst aus einer Unterhaltung auf Twitter zu entfernen (beides The Verge).

One more thing

Das Metaverse, erklärt: „Virtual reality with unskippable ads“ (@dellsystem)


Header-Foto von Jed Villejo


Desinformation im Wahlkampf | TikTok verdrängt andere Medien | Roblox und das Metaverse

Desinformation im Wahlkampf: Es trifft vor allem Annalena Baerbock

Was ist

"Was ist das, wer definiert das, ist das gefährlich?", fragten wir vergangene Woche, als wir uns in Briefing #742 dem Thema Desinformation widmeten. Damals wussten wir noch nicht, dass sich kurz danach Avaaz mit dem neuen Bericht "Deutschlands Desinformations-Dilemma 2021" melden sollte, der am Montagabend veröffentlicht wurde.

Die NGO hat sich unter anderem folgende Fragen gestellt:

  • Gegen wen richtet sich Desinformation im Vorfeld der Bundestagswahl?
  • Welche Rolle spielen klassische und soziale Medien?
  • Wird Facebook seiner Ankündigung gerecht, die Bundestagswahl zur "Top Priority" zu machen und Fehlinformationen zu kennzeichnen?
  • Wer setzt am meisten Falschbehauptungen in die Welt und wer verbreitet sie?

Wie Avaaz vorgegangen ist

Die Grundlage für den Bericht bilden die Faktenchecks AFP, dpa und Correctiv, die auch für Facebook Fakten prüfen. Im Zeitraum von Januar bis August sind dabei mehr als 800 Fact-Checks zusammengekommen, die Avaaz ausgewertet hat. Zusätzlich wurden repräsentative Befragungen bei YouGov in Auftrag gegeben.

Wir haben das Vorgehen nicht im Einzelnen überprüft, vertrauen Avaaz aber grundsätzlich. In der Vergangenheit berichteten wir mehrfach über Avaaz-Reports (#631, #661, #718), methodisch war das immer seriös. Teils empfanden wir Interpretation und Verkaufe etwas zugespitzt, aber vermutlich muss das so sein, wenn man mit solchen Untersuchungen durchdringen will.

Der aktuelle Bericht hat wenig Spin und beschränkt sich auf die Fakten. Auch die Arbeit von AFP, dpa und Correctiv schätzen wir als gründlich. Soll sagen: Auch wenn wir nicht nachgezählt haben, sind wir uns ziemlich sicher, dass die Zahlen stimmen.

Wer die Desinformation abbekommt

  • Ein Viertel der Falschnachrichten betrifft Grünen-Kanzlerkandidatin Annalena Baerbock. Obwohl sie erst im April ihre Kandidatur bekannt gab, liegt sie damit auf Platz 1 im Desinformations-Datensatz.
  • Rund halb so viele Lügen und Gerüchte beziehen sich auf Angela Merkel (13 %), danach folgen Armin Laschet, Markus Söder und Karl Lauterbach.
  • Desinformations-Narrative betreffen vor allem Politikerïnnen von Grünen (46 %), CDU/CSU (32 %) und SPD (19 %). Linke, FDP und AfD sind kaum vertreten.
  • Vergleicht man die drei Kanzlerkandidatïnnen, ergibt sich ein eindeutiges Bild. 71 Prozent der Desinformation zielt auf Baerbock ab, 29 Prozent betreffen Laschet. Olaf Scholz taucht in der Datenbank von AFP, dpa und Correctiv gar nicht auf.
  • Allerdings liegt dem Ranking ein verhältnismäßig kleines Sample zugrunde. Aus den mehr als 800 Faktenchecks sind nur 85 Desinformations-Narrative über Politikerïnnen hervorgegangen.
  • Trotzdem ist die Tendenz so klar, dass man wohl problemlos konstatieren kann: Baerbock wird mit Abstand am häufigsten zur Zielscheibe von Desinformation.

Wer die Desinformation verbreitet

  • Wenn wir über Falschnachrichten schreiben, zitieren wir oft eine Kolumne von Farhad Manjoo, der 2019 schrieb: "Worry About Facebook. Rip Your Hair Out in Screaming Terror About Fox News." (NYT)
  • Anders ausgedrückt: Wir glauben, dass Journalistïnnen zu oft und zu leichtfertig mit dem Finger auf Facebook und anderen Plattformen zeigen. Stattdessen wäre es angebracht, die eigene Verantwortung in den Blick zu nehmen. Massenmedien tragen massiv zur Verbreitung von Desinformation bei.
  • Dieses Bild zeigt sich auch im Avaaz-Bericht: 56 Prozent der Erwachsenen in Deutschland haben mindestens eine Falschnachricht über Baerbock gesehen – und klassische Medien sind die wichtigsten Quellen.
  • 22 Prozent nennen Berichterstattung im Fernsehen, 18 Prozent andere Print- und Online-Medien. Erst danach folgen in dieser Reihenfolge Facebook, Twitter, Instagram, YouTube, WhatsApp und Telegram.
  • "Desinformation hat auch in Deutschland das Mainstream-Publikum erreicht", sagt Christoph Schott, Kampagnendirektor bei Avaaz. "Die Bundesrepublik läuft Gefahr, in die Fußstapfen der USA zu treten, wo Trumps Tweets – ob wahr oder falsch – von den Mainstream-Medien weit verbreitet wurden."
  • Den Begriff "Mainstream-Medien" halten wir für problematisch, da er ein Narrativ nährt, das vor allem in rechten (und teilweise auch linken) Kreisen verbreitet ist, die etablierten journalistischen und politischen Institutionen aus Prinzip misstrauen. Davon abgesehen stimmen wir Schott und Avaaz aber voll zu.

Wie sich Desinformation ausbreitet

  • Avaaz zeichnet an mehreren Beispielen nach, wie Falschbehauptungen aus sozialen Medien in klassische Medien überschwappen und damit ein viel größeres Publikum erreichen.
  • Anschaulich lässt sich das etwa an der Behauptung nachvollziehen, dass Baerbock Haustiere verbieten wolle. Das ist frei erfunden, dahinter steckt die Facebook-Seite "Ich misstraue der Regierung!".
  • Trotzdem verbreitete sich die Lüge im April. Dazu trugen maßgeblich Medien wie die Stuttgarter Nachrichten ("Fordert die Kanzlerkandidatin wirklich ein Haustierverbot?") oder Der Westen ("Annalena Baerbock: Hasst sie wirklich Hunde? Zitat macht die Runde – das steckt wirklich dahinter") bei.
  • Beide Überschriften machen nicht deutlich, dass es sich um ein erfundenes Zitat handelt. Auch die Facebook-Posts lösten die Lüge nicht auf, sondern wollten offenbar mit der Kontroverse Klicks schinden. Entsprechend wütend fällt ein Teil der Kommentare aus.
  • Merke: Wenn man sich schon dafür entscheidet, eine Falschbehauptung einem Faktencheck zu unterziehen und damit zu riskieren, sie größer zu machen, als sie ist, dann muss aus der Überschrift hervorgehen, dass es sich um eine Falschbehauptung handelt.
  • In vielen Fällen wäre es die bessere Entscheidung, die Lüge einfach zu ignorieren, da der Schaden, den man durch die zusätzliche Aufmerksamkeit auslöst, größer ist als der Nutzen.
  • Wir zitieren erneut Christoph Schott: "Wir müssen uns jetzt alle fragen: Spielen wir geraden den Verbreitern von Falschnachrichten in die Hände, indem wir ihnen helfen, ihre Lügen aus Facebook-Gruppen und Telegram-Chats auf die Fernsehbildschirme und Handydisplays von Millionen von deutschen Wählerïnnen zu bringen?"

Welche Rolle Facebook spielt

  • Im Mai erklärte Facebooks PR-Chef Nick Clegg, die Bundestagswahl habe "höchste Priorität" (FAZ). Man werde große Anstrengungen unternehmen, um die Integrität der Wahl sicherzustellen.
  • Dieses Versprechen hat Facebook seitdem in zahlreichen Blogeinträgen und Hintergrundgesprächen wiederholt. Tatsächlich ließen sich Maßnahmen gegen Fehlinformationen (FB-Newsroom) von Facebook, Instagram und WhatsApp gut und sinnvoll. Wir wollen Facebook den guten Willen auch gar nicht absprechen.
  • Dennoch liefert der Avaaz-Bericht eine ernüchternde Erkenntnis: Nach wie vor gelingt es Facebook nicht, zuverlässig Falschnachrichten zu erkennen und zu kennzeichnen – selbst wenn diese bereits von den eigenen Factchecking-Partnern entlarvt wurden.
  • Es reichen bereits minimale Veränderungen an Text oder Bild, etwa ein geringfügig anderer Zuschnitt, um Facebooks angeblich ach so intelligente Systeme zu überlisten. Dann rutscht der neue Post durch den Filter und wird nicht als Falschbehauptung markiert.
  • Im Oktober kam ein Avaaz-Bericht vor den US-Wahlen zu einem ähnlichen Ergebnis. Obwohl die Organisation Facebook mehrfach darauf hinwies, hat die Plattform immer noch größere Probleme, nachweislich falsche Behauptungen zu identifizieren.
  • Wenig überraschend ist es dann auch die AfD, die Facebook in Sachen Engagement dominiert. Knapp zwei Drittel aller Facebook-Interaktionen für deutsche Partei- und Fraktionsseiten entfallen auf die AfD. Am schlechtesten schneiden die Grünen ab, die mit ihren Inhalten rund 25 Mal weniger Interaktionen auslösen.
  • Bei den Medien zeigt sich ein ähnliches Bild: Wer laut schreit, gewinnt. Im ersten Halbjahr 2021 hat RT DE mit seiner Facebook-Seite mehr Interaktionen erzeugt als Bild, Spiegel oder Tagesschau.
  • Dafür sind vor allem die Live-Berichte über Demonstrationen der Querdenker verantwortlich. Dazu kommen eindeutig negativ konnotierte Artikel über die Impfung, die teils falsche oder irreführende Behauptungen enthielten.
  • An dieser Stelle verweisen wir auf unsere ausführliche Analyse von Facebooks "Widely Viewed Content Report" in #740. Die Kontroverse um den Bericht verdeutlicht, dass man Interaktionen nicht mit Reichweite verwechseln darf – aber dass es sich Facebook auch zu einfach macht, wenn es die Zahl der Likes und Kommentare als wenig aussagekräftig abtut.

Be smart

Als wir vor ziemlich genau einem Jahr einen anderen Avaaz-Bericht vorstellten, der Facebooks Algorithmus als "Gefahr für die öffentliche Gesundheit" bezeichnete, schrieben wir:

Auch die beiden Lösungsvorschläge, die Avaaz macht, finden wir sinnvoll. Beide knüpfen an Maßnahmen an, die Facebook bereits eingeleitet hat – nach Meinung von Avaaz aber nicht weit genug gehen.

Konkret forderte Avaaz "Correct the Record" und "Detox the Algorithm". Facebook müsse Menschen, die Fehlinformationen in ihrem Newsfeed gesehen haben, spezifische Warnungen und konkrete Korrekturhinweise anzeigen. Zudem solle die Reichweite von Seiten, die wiederholt Desinformation verbreiten, konsequenter gedrosselt werden.

Und was fordert Avaaz 2021? Ganz genau: "Richtigstellungen anzeigen" und "Algorithmen brauchen einen 'Detox'". Abgesehen von der Sprache hat sich rein gar nichts geändert. In einem Jahr kann Avaaz dann vermutlich wieder genau das Gleiche schreiben, weil eh nichts passiert – spart uns Arbeit, ist aber auch ein bisschen traurig.


Follow the money

  • Reddit plant Börsengang: Anfang kommenden Jahres könnte Reddit an die Börse gehen – aktuell wird die Plattform mit 10 Milliarden Dollar bewertet. Angepeilt wird ein Exit um die 15 Milliarden Dollar (Reuters).
  • Mehr Musik beim Streamen: Facebook hat für Facebook Gaming allerlei Musikrechte von Major Labels geklärt (Protocol). Sinn und Zweck dahinter: Streamer sollen möglichst frei Musik nutzen können und keine Takedowns riskieren.

Audio Boom

  • Voice Chat bei Roblox geplant: Vielen Eltern unter euch dürfte Roblox sowieso ein Begriff sein. Allen anderen sei gesagt: Bitte nehmt euch einmal zehn Minuten Zeit, um euch mit den wichtigsten Computer-Spielen der Kids vertraut zu machen – das ist mittlerweile alles viel, viel mehr als einfach nur ein Game. Bei Roblox kann man zum Beispiel zusammen abhängen (YouTube) oder in einer von Vans gesponserten „Welt“ eine Runde skaten gehen (Roblox). Demnächst wohl auch mit der Option, sich dort via Voice Chat relativ natürlich (read: Spatial Audio) zu unterhalten (Techcrunch). Wer würde da noch rausgehen wollen? Metaverse (#736) here we come!

Studien / Paper

  • TikTok verdrängt andere Medien: Das Datenanalyse-Unternehmen Kantar hat sich umfassend mit dem Ist-Zustand der Medienlandschaft befasst. Wir hatten noch keine Zeit, den Report in vollen Umfang zu studieren. Einige Teil-Ergebnisse haben uns aber neugierig gemacht. So brüstet sich TikTok auf seiner For-Business-Seite unter anderem damit, dass die Plattform laut Studie nicht on top zu anderen Medien genutzt würde, sondern die Nutzung von TikTok zulasten anderer Medien (allen voran Fernsehen und Podcast) ginge. Das ist schon sehr spannend. Wir schauen uns das jedenfalls die Tage noch einmal genauer an.


Schon einmal im Briefing davon gehört

  • Glass: Instagram hat ja verkündet, das Unternehmen sei nicht länger eine „photo-sharing app“. Nun ja. Die Zeiten ändern sich. Risikokapitalgeber wollen mehr. Immer mehr. Da muss man sich breiter aufstellen. Video und Shopping und so. Schon klar. Traurig ist es trotzdem irgendwie. Aber vielleicht ist Glass (Techcrunch) ja eine spannende neue Option, um sich der wunderbaren Welt der Fotografie zu widmen. Anders als Instagram ist Glass kostenpflichtig und bietet die Möglichkeit an, Exif-Dateien auszulesen. Ob sich Glass am Markt etablieren können, wird sich zeigen. Spannend sieht die App definitiv aus, aber ob die Welt schon bereit ist für eine kostenpflichtige Social-App? Wir haben da so unsere Zweifel.

Neue Features bei den Plattformen

Clubhouse

  • Creator Commons: Aufgrund des Labor Days in den USA, haben sich die Unternehmen nicht gerade überworfen mit der Ankündigung neuer Features. Clubhouse hat jetzt eine Seite, auf der Creator alle wichtigten Infos zum Start ihrer Creator-Karriere auf einen Blick erhalten: Creator Commons. Das war es aber auch schon mit News in dieser Rubrik. In der nächsten Ausgabe garantiert wieder mehr.

One more thing


Header-Foto von Adi Goldstein


Desinformation: Was ist das, wer definiert das, ist das gefährlich?

Salut! Eigentlich sind unsere Briefings kostenpflichtig. Falls du also kein Abo bei uns hast, freuen wir uns, wenn du uns als kleines Dankeschön für unsere Arbeit einen Kaffee spendierst – Merci 🙏🏻


Desinformation: Was ist das, wer definiert das, ist das gefährlich?

Was war

Unser letztes Briefing #741 beendeten wir mit einer Ankündigung:

Zum Beispiel möchten wir uns dem Thema Desinformation widmen – vor allem der Frage, was eigentlich alles dazu zählt und wer definiert, was Desinformationen sind und was nicht.

Und mit einer Aufforderung:

Wer zum Themenkomplex "Social Media / Bundestagswahl" Fragen hat, kann sie uns gern schicken. Auch freuen wir uns über Anregungen, welches Thema wir in diesem Zusammenhang einmal genauer beleuchten sollen.

Was ist

Die Ankündigung lösen wir jetzt ein. In den vergangenen Wochen haben uns immer wieder Fragen zu diesem Thema erreicht, und auf unseren Aufruf hin haben sich erneut Leserïnnen gemeldet. (Aus einer dieser E-Mails werden wir am Ende zitieren, weil darin viele Gedanken stecken, die wir uns auch machen – nur schöner formuliert.)

Einige wollten wissen, was wir eigentlich meinen, wenn wir von "Desinformation" schreiben. In dieser Ausgabe geben wir deshalb einen grundlegenden Überblick und erklären, wie wir das Thema sehen. Dafür bietet sich ein Format aus drei Fragen und Antworten an:

Was bedeutet Desinformation?

Für den Ausdruck gibt es keine offizielle Definition, teils verstehen Menschen darunter auch einfach nur: "Alles, was nicht meiner Meinung entspricht". Wir empfinden Desinformation aber (noch) nicht als politisch aufgeladenen Kampfbegriff wie "Fake News", den wir seit Jahren meiden. Wenn wir über das Thema schreiben, verwenden wir meist folgende Begriffe:

  • Desinformation (Englisch: Disinformation): Falsche Informationen, die mit der Absicht in Umlauf gebracht, Menschen zu täuschen oder Schaden anzurichten. Dazu zählen etwa erfundene Inhalte (Lügen, Gerüchte), aus dem Kontext gerissene Inhalte (verkürzte Zitate, fehlerhafte Statistiken) und manipulierte Inhalte (Photoshop-Fakes, Deepfakes).
  • Fehlinformation (Englisch: Misinformation): Falsche Informationen, die unabsichtlich und ohne Täuschungsabsicht verbreitet werden. Darunter verstehen wir unter anderem journalistische Fehler, falsche Interpretationen und teils auch reißerische Überschriften oder Satire, falls diese bei den Rezipientïnnen ein falsches Bild erzeugen.
  • Malinformation: Zutreffende Informationen, die gezielt veröffentlicht werden, um Schaden anzurichten. Beispiele sind Leaks, Doxing (das Zusammentragen und Veröffentlichen persönlicher Daten gegen den Willen der Betroffenen), Revenge Porn und dekontextualisierte Fotos oder Fakten, die Hass oder Angst schüren sollen.

Desinformation ist also die Schnittmenge aus Fehlinformationen (falsch) und Malinformation (bösartige Absicht). Exakte Abgrenzungen sind schwierig, weil oft nicht klar ist, welche Intention die Absenderïnnen verfolgen. Als grobe Orientierung sollte diese Unterscheidung aber reichen.

Wenn du tiefer einsteigen willst, empfehlen wir diese Publikationen:

  • Heinrich-Böll-Stiftung: "Fehlinformationen, Desinformationen, Malinformationen: Ursachen, Entwicklungen und ihr Einfluss auf die Demokratie" (PDF)
  • Medienanstalten: "Typen von Desinformation und Misinformation" (PDF)
  • Claire Wardle: "Fake news. It’s complicated." (First Draft)

Wer entscheidet, was wahr und falsch ist?

Bei manchen Aussagen fällt die Entscheidung leicht: "Die Erde ist eine Scheibe", "Das Coronavirus ist harmlos", "Donald Trump hat die Wahl gewonnen" – Diese Sätze sind eindeutig falsch, trotzdem glaubt eine erschreckend große Minderheit daran.

Oft muss man aber ganz genau hinschauen, um falsche Informationen zu erkennen. Und selbst dann gibt es manchmal keine endgültige Antwort, weil die Grenzen zwischen Meinungsäußerungen und Irreführung fließend sind.

Auch die Wissenschaft liefert nicht immer abschließende Erkenntnisse: Lange Zeit waren Forscherïnnen sicher, dass das Coronavirus nicht aus einem Labor in China stammt. Das gilt zwar nach wie vor als äußerst unwahrscheinlich, aber nicht mehr als vollkommen ausgeschlossen. Deshalb erlaubt Facebook nun wieder Beiträge (Guardian), die die "Lab-Leak-Theorie" propagieren. Bis Ende Mai wurde diese Behauptung als gefährliche Desinformation eingestuft und gelöscht.

Plattformen wie Facebook wollen solche Fälle minimieren. Mark Zuckerberg sagt immer wieder, private Konzerne sollten nicht zum "Schiedsrichter der Wahrheit" werden. Teils dienen solche Aussagen dazu, die eigene Verantwortung herunterzuspielen oder zu rechtfertigen, dass Facebook selbst eindeutige Lügen von hochrangigen Politikerïnnen lange Zeit nicht löschte. Aber im Kern hat er recht: Es ist problematisch, wenn Facebook, Google und Twitter allein darüber entscheiden, wo sie die Grenze zwischen Fakt und Fiktion ziehen.

Deshalb publizieren alle Netzwerke Community Standards, in denen sie definieren, welche Inhalte erlaubt sind und welche nicht. Je nach Plattform können sich die Vorgaben unterscheiden. Auf Facebook gab es etwa lange Zeit Ausnahmeregelungen für Parteien und Politikerïnnen, die nachweislich falsche Informationen in die Welt setzen.

Die Community Standards verändern sich fortlaufend. Im Zuge der Corona-Pandemie haben alle Tech-Konzerne ihre Regeln mehrfach geändert, um Verschwörungserzählungen und Desinformation zu Gesundheitsthemen konsequenter zu löschen. Öffentlich ist aber immer nur eine sehr grobe Version der Regelwerke bekannt. Für Content-Moderatorïnnen, die die endgültigen Entscheidungen treffen, gibt es teils Anleitungen, die Hunderte Seiten umfassen. Manchmal veröffentlichen Medien Auszüge aus diesen Regeln, wenn sie ihnen zugespielt werden.

Fast alle großen Social-Media-Plattformen (und mit WhatsApp seit Kurzem auch ein Messenger (AFP)) arbeiten mit externen Fact-Checkern zusammen, die Beiträge oder verlinkte Artikel prüfen. Dabei handelt es sich um unabhängige Organisationen, Medien und Agenturen wie Reuters, AFP, dpa, Correctiv oder anderen Partnern des International Fact-Checking Network (Poynter). Wenn diese eine Falschbehauptung identifizieren, kennzeichnen die Plattformen den Beitrag, drosseln die Reichweite und zeigen den Faktenchecks an. Wenn es sich um Desinformation handelt, die gefährliche Konsequenzen haben könnte, wird der Inhalt komplett entfernt.

Wie gefährlich ist (digitale) Desinformation?

Es gab schon immer Menschen, die Unsinn erzählt haben. Vor Social Media gab es Stammtische, die Bullshit-Dichte im Bierzelt dürfte so manche Facebook-Gruppe harmlos erscheinen lassen. Dennoch haben globale Kommunikationsplattformen dem Problem eine neue Dimension hinzugefügt, weil Menschen Dis-, Mis- und Malinformation mit minimalem Aufwand produzieren und massenhaft verbreiten können.

Klar ist leider nur, dass (fast) gar nichts klar ist. Man kann die Verbreitung von Desinformation analysieren, aber es ist schwierig, die Auswirkungen zu erforschen. Teils lässt sich nicht zwischen Korrelation und Kausalität unterscheiden. Werden Menschen in Social Media radikalisiert? Oder machen Social Media nur sichtbar, dass es schon immer eine Menge ziemlich unangenehmer Menschen gab, die ihre Meinung bislang nicht in die Welt hinausposaunen konnten?

Am Ende steht und fällt alles mit der Frage, für wie manipulierbar wir Menschen halten. Seit dem Aufkommen des Fernsehens in den 50er-Jahren behaupten Werbetreibende, sie könnten Zuschauerïnnen beinahe nach Belieben manipulieren. Dabei stützen sie sich auf fragwürdige psychologische Studien, die teils schlecht gealtert sind.

Die großen Plattformen haben diese Manipulationserzählung aufgegriffen. Letztendlich sind Facebook und Google in erster Linie Anzeigenverkäufer, und zwar die größten und erfolgreichsten, die die Welt je gesehen hat. Ihre Milliardengewinne verdanken sie der Tatsache, dass fast alle Unternehmen ihrem Versprechen glauben: Wir können eure Anzeigen Nutzerïnnen vorsetzen, die darauf reagieren und eure Produkte kaufen.

Auch deshalb können sich Konzerne, die soziale Netzwerke betreiben und Werbeplätze verkaufen, schlecht öffentlich hinstellen und sagen, dass Desinformation komplett harmlos sei. Schließlich erzählen sie ihren Werbekunden, wie wirkmächtig deren Anzeigen seien – wenn sie gleichzeitig behaupteten, dass Inhalte keine Auswirkung auf Nutzerïnnen hätten, gefährdete das ihr eigenes Geschäftsmodell.

All diese Gedanken (und noch viel mehr) stecken in einem der klügsten Texte, die wir in den vergangenen Jahren zu diesem Thema gelesen habe. Joseph Bernstein hat in der aktuellen Ausgabe des Harper's Magazine über "Bad News" geschrieben. Pocket gibt die Lesezeit mit 23 Minuten an, aber wir versprechen, dass es sinnvoll investierte Zeit ist – und dass die Überlegungen, die Bernstein anstellt, deutlich länger als 23 Minuten nachhallen.

Only certain types of people respond to certain types of propaganda in certain situations. (…) There is nothing magically persuasive about social-media platforms; they are a new and important part of the picture, but far from the whole thing. Facebook, however much Mark Zuckerberg and Sheryl Sandberg might wish us to think so, is not the unmoved mover.

For anyone who has used Facebook recently, that should be obvious. Facebook is full of ugly memes and boring groups, ignorant arguments, sensational clickbait, products no one wants, and vestigial features no one cares about. And yet the people most alarmed about Facebook’s negative influence are those who complain the most about how bad a product Facebook is. The question is: Why do disinformation workers think they are the only ones who have noticed that Facebook stinks? Why should we suppose the rest of the world has been hypnotized by it? Why have we been so eager to accept Silicon Valley’s story about how easy we are to manipulate?

Bernstein gibt auf diese Fragen keine Antworten, aber allein die Tatsache, dass er sie aufwirft, machen seinen Text lesenswert.

Be smart

Das letzte Wort überlassen wir Julian Jaursch, der für die Stiftung Neue Verantwortung zu den Themen digitale Öffentlichkeit und Plattformregulierung forscht. Seine Paper sind mehrfach in unseren Newslettern aufgetaucht, zuletzt in Ausgabe #645. Julian hat uns eine Nachricht geschrieben, die wir hier in gekürzter Form wiedergeben, weil sie den Desinformations-Diskurs gut zusammenfasst:

Ich habe grundsätzlich den Eindruck, dass die Debatte zu Desinformation selbst etwas in Schieflage gerät. Zwischen einem Abtun als Alarmismus und einem übereifrigen Aktionismus scheint mir eine differenzierte Debatte jetzt fast schwieriger zu sein als früher, als der Begriff noch nicht so stark bekannt war. Ein Abtun/Abwarten ist aus meiner Sicht nicht tragbar, es müssen Verantwortlichkeiten geschaffen werden. Doch kann eine aufgeblasene (Medien-/Think-Tank-)Debatte zu Desinformation vielleicht Leute stärker verunsichern als die Desinformation selbst.

Manchmal fehlt mir diese Abwägung in der aktuellen Behandlung des Themas. Es ist meist entweder "Oh nein! Russland! Alle gegen Baerbock!" oder "Was wollt ihr denn? Das bisschen Desinformation!". Daraus folgt dann oft eine Phrase wie "Es ist eine gesamtgesellschaftliche Aufgabe." Klar, das stimmt, das ist ja auch schon lange SNV-Argumentationslinie, aber das muss auch aufgedröselt werden. So ziemlich jedes politische Problem ist eine gesamtgesellschaftliche Aufgabe. Wenn wir dabei stehenbleiben, bringt das die Debatte nicht voran und behindert sie vielleicht sogar.


Social Media & Politik

Link-Dump zur Bundestagswahl

In other news:


Kampf gegen Desinformation


Social Media & Journalismus

  • Use the news: Die dpa hat gemeinsam mit mehr als zwei Dutzend Partnern das #UseTheNews-Playbook veröffentlicht (hier direkt als PDF abrufbar). Im Kern stehen zwei Fragen, die viele Medien umtreiben: Wie informieren sich junge Menschen in Deutschland und wie entwickelt man zeitgemäße Nachrichtenangebote für die Gen Z? Beteiligt sind unter anderem ARD und ZDF, große Verlage und renommierte Forschungsinstitutionen. Wenn du regelmäßig unser Briefing liest, wirst du einige Fakten und Studien entdecken, die du bereits kennst. Die 78 Seiten stecken aber voller anschaulicher Best-Practice-Beispiele und hilfreicher Tipps, sodass wir den Download dringend empfehlen. Kostet nichts, liefert aber vielleicht wertvolle Anregungen.
  • Weniger News im Feed: Facebook plant, weniger politische Inhalte im News Feed auszuspielen (Axios). Zunächst nur in den USA, womöglich dann auch in anderen Ländern. Warum? Nun, Nutzerïnnen hatten sich über zu viel Politik in ihren Feeds beschwert.

Follow the money


Audio Hype

  • Amazon will jetzt auch Live-Audio: Axios schreibt: „Wie bei Amazons Bemühungen im Bereich Podcasting und Musikabonnements sieht das Unternehmen Live-Audio als eine Möglichkeit, die Bandbreite an Inhalten zu erweitern, die es über den Sprachassistenten Alexa und seine intelligenten Lautsprecherprodukte anbieten kann.“
  • Clubhouse kann jetzt „spatial audio“, eine Technologie, die über eine Smartphone-App eine Art Surround-Sound-Erlebnis ermöglicht, ohne dass zusätzliche Lautsprecher benötigt werden.

Creator Economy

  • Super Follows: Twitter startet final das neue Super-Follow-Feature. Einige wenige Auserwählte (in den USA) können jetzt Extra-Content gegen Geld anbieten. Stück für Stück soll das Feature weiteren Nutzerïnnen zur Verfügung stehen. Aber wie twittert Kollege Dirk von Gehlen so schön: Ihr seid eh alle super, Follower!

Schon einmal im Briefing davon gehört

  • Meilenstein: Telegram verzeichnet eine Milliarde Downloads (Techcrunch).
  • Verschränkung: Immer noch sind die Bande zwischen TikTok und China sehr stark. The Information schreibt: „There are more algorithm engineers in China working on TikTok’s video recommendation engine than in any other international offices. It shows the difficulty of fully disentangling the hit app from parent company ByteDance.“
  • Überholspur: Facebook hat zwar in der Schweiz insgesamt deutlich mehr Userïnnen (3 Millionen) als TikTok (700.000), verliert aber junge Nutzer.: TikTok hat 310.000 User zwischen 15 und 24 Jahren, Facebook nur noch 260.000 (Medienpolitik).
  • Vorlieben: Auf dem Blog der Münchener Medientage gibt es eine interessante Studie zur Mediennutzung von Jugendlichen. Wir haben an dieser Stelle zu wenig Platz, um die Studie ausführlicher vorzustellen. Wir raten allerdings dazu, zumindest den Blogartikel dazu drüben bei den Medientagen anzuschauen. Ganz spannend: TikTok und Snapchat sind vor allem bei Mädels beliebt. Wir dachten, dass würde sich mehr die Waage halten.

Was wir am Wochenende lesen


Neue Features bei den Plattformen

Facebook

Instagram

Twitter

  • Safety Mode: Twitter führt einen neuen Sicherheitsmodus ein (Twitter Newsroom). Wenn das Feature aktiviert wird, können bestimmte Leute deine Tweets für sieben Tage nicht mehr sehen oder dir eine DM schreiben. Quasi eine Art Panik-Button, wenn man gerade einmal die Aufmerksamkeit eines wütenden Mobs auf sich gezogen hat.

LinkedIn

  • Schluss mit Stories: LinkedIn macht es so wie Twitter und beerdigt seine Stories-Funktion (LinkedIn) wieder. Stattdessen möchte sich das Unternehmen auf ein neues Video-Format fokussieren.

Telegram

Spotify


Header-Foto von engineering.fb.com


Scroll to Top