Desinformation: Was ist das, wer definiert das, ist das gefährlich?
Was war
Unser letztes Briefing #741 beendeten wir mit einer Ankündigung:
Zum Beispiel möchten wir uns dem Thema Desinformation widmen – vor allem der Frage, was eigentlich alles dazu zählt und wer definiert, was Desinformationen sind und was nicht.
Und mit einer Aufforderung:
Wer zum Themenkomplex "Social Media / Bundestagswahl" Fragen hat, kann sie uns gern schicken. Auch freuen wir uns über Anregungen, welches Thema wir in diesem Zusammenhang einmal genauer beleuchten sollen.
Was ist
Die Ankündigung lösen wir jetzt ein. In den vergangenen Wochen haben uns immer wieder Fragen zu diesem Thema erreicht, und auf unseren Aufruf hin haben sich erneut Leserïnnen gemeldet. (Aus einer dieser E-Mails werden wir am Ende zitieren, weil darin viele Gedanken stecken, die wir uns auch machen – nur schöner formuliert.)
Einige wollten wissen, was wir eigentlich meinen, wenn wir von "Desinformation" schreiben. In dieser Ausgabe geben wir deshalb einen grundlegenden Überblick und erklären, wie wir das Thema sehen. Dafür bietet sich ein Format aus drei Fragen und Antworten an:
Was bedeutet Desinformation?
Für den Ausdruck gibt es keine offizielle Definition, teils verstehen Menschen darunter auch einfach nur: "Alles, was nicht meiner Meinung entspricht". Wir empfinden Desinformation aber (noch) nicht als politisch aufgeladenen Kampfbegriff wie "Fake News", den wir seit Jahren meiden. Wenn wir über das Thema schreiben, verwenden wir meist folgende Begriffe:
- Desinformation (Englisch: Disinformation): Falsche Informationen, die mit der Absicht in Umlauf gebracht, Menschen zu täuschen oder Schaden anzurichten. Dazu zählen etwa erfundene Inhalte (Lügen, Gerüchte), aus dem Kontext gerissene Inhalte (verkürzte Zitate, fehlerhafte Statistiken) und manipulierte Inhalte (Photoshop-Fakes, Deepfakes).
- Fehlinformation (Englisch: Misinformation): Falsche Informationen, die unabsichtlich und ohne Täuschungsabsicht verbreitet werden. Darunter verstehen wir unter anderem journalistische Fehler, falsche Interpretationen und teils auch reißerische Überschriften oder Satire, falls diese bei den Rezipientïnnen ein falsches Bild erzeugen.
- Malinformation: Zutreffende Informationen, die gezielt veröffentlicht werden, um Schaden anzurichten. Beispiele sind Leaks, Doxing (das Zusammentragen und Veröffentlichen persönlicher Daten gegen den Willen der Betroffenen), Revenge Porn und dekontextualisierte Fotos oder Fakten, die Hass oder Angst schüren sollen.
Desinformation ist also die Schnittmenge aus Fehlinformationen (falsch) und Malinformation (bösartige Absicht). Exakte Abgrenzungen sind schwierig, weil oft nicht klar ist, welche Intention die Absenderïnnen verfolgen. Als grobe Orientierung sollte diese Unterscheidung aber reichen.
Wenn du tiefer einsteigen willst, empfehlen wir diese Publikationen:
- Heinrich-Böll-Stiftung: "Fehlinformationen, Desinformationen, Malinformationen: Ursachen, Entwicklungen und ihr Einfluss auf die Demokratie" (PDF)
- Medienanstalten: "Typen von Desinformation und Misinformation" (PDF)
- Claire Wardle: "Fake news. It’s complicated." (First Draft)
Wer entscheidet, was wahr und falsch ist?
Bei manchen Aussagen fällt die Entscheidung leicht: "Die Erde ist eine Scheibe", "Das Coronavirus ist harmlos", "Donald Trump hat die Wahl gewonnen" – Diese Sätze sind eindeutig falsch, trotzdem glaubt eine erschreckend große Minderheit daran.
Oft muss man aber ganz genau hinschauen, um falsche Informationen zu erkennen. Und selbst dann gibt es manchmal keine endgültige Antwort, weil die Grenzen zwischen Meinungsäußerungen und Irreführung fließend sind.
Auch die Wissenschaft liefert nicht immer abschließende Erkenntnisse: Lange Zeit waren Forscherïnnen sicher, dass das Coronavirus nicht aus einem Labor in China stammt. Das gilt zwar nach wie vor als äußerst unwahrscheinlich, aber nicht mehr als vollkommen ausgeschlossen. Deshalb erlaubt Facebook nun wieder Beiträge (Guardian), die die "Lab-Leak-Theorie" propagieren. Bis Ende Mai wurde diese Behauptung als gefährliche Desinformation eingestuft und gelöscht.
Plattformen wie Facebook wollen solche Fälle minimieren. Mark Zuckerberg sagt immer wieder, private Konzerne sollten nicht zum "Schiedsrichter der Wahrheit" werden. Teils dienen solche Aussagen dazu, die eigene Verantwortung herunterzuspielen oder zu rechtfertigen, dass Facebook selbst eindeutige Lügen von hochrangigen Politikerïnnen lange Zeit nicht löschte. Aber im Kern hat er recht: Es ist problematisch, wenn Facebook, Google und Twitter allein darüber entscheiden, wo sie die Grenze zwischen Fakt und Fiktion ziehen.
Deshalb publizieren alle Netzwerke Community Standards, in denen sie definieren, welche Inhalte erlaubt sind und welche nicht. Je nach Plattform können sich die Vorgaben unterscheiden. Auf Facebook gab es etwa lange Zeit Ausnahmeregelungen für Parteien und Politikerïnnen, die nachweislich falsche Informationen in die Welt setzen.
Die Community Standards verändern sich fortlaufend. Im Zuge der Corona-Pandemie haben alle Tech-Konzerne ihre Regeln mehrfach geändert, um Verschwörungserzählungen und Desinformation zu Gesundheitsthemen konsequenter zu löschen. Öffentlich ist aber immer nur eine sehr grobe Version der Regelwerke bekannt. Für Content-Moderatorïnnen, die die endgültigen Entscheidungen treffen, gibt es teils Anleitungen, die Hunderte Seiten umfassen. Manchmal veröffentlichen Medien Auszüge aus diesen Regeln, wenn sie ihnen zugespielt werden.
Fast alle großen Social-Media-Plattformen (und mit WhatsApp seit Kurzem auch ein Messenger (AFP)) arbeiten mit externen Fact-Checkern zusammen, die Beiträge oder verlinkte Artikel prüfen. Dabei handelt es sich um unabhängige Organisationen, Medien und Agenturen wie Reuters, AFP, dpa, Correctiv oder anderen Partnern des International Fact-Checking Network (Poynter). Wenn diese eine Falschbehauptung identifizieren, kennzeichnen die Plattformen den Beitrag, drosseln die Reichweite und zeigen den Faktenchecks an. Wenn es sich um Desinformation handelt, die gefährliche Konsequenzen haben könnte, wird der Inhalt komplett entfernt.
Wie gefährlich ist (digitale) Desinformation?
Es gab schon immer Menschen, die Unsinn erzählt haben. Vor Social Media gab es Stammtische, die Bullshit-Dichte im Bierzelt dürfte so manche Facebook-Gruppe harmlos erscheinen lassen. Dennoch haben globale Kommunikationsplattformen dem Problem eine neue Dimension hinzugefügt, weil Menschen Dis-, Mis- und Malinformation mit minimalem Aufwand produzieren und massenhaft verbreiten können.
Klar ist leider nur, dass (fast) gar nichts klar ist. Man kann die Verbreitung von Desinformation analysieren, aber es ist schwierig, die Auswirkungen zu erforschen. Teils lässt sich nicht zwischen Korrelation und Kausalität unterscheiden. Werden Menschen in Social Media radikalisiert? Oder machen Social Media nur sichtbar, dass es schon immer eine Menge ziemlich unangenehmer Menschen gab, die ihre Meinung bislang nicht in die Welt hinausposaunen konnten?
Am Ende steht und fällt alles mit der Frage, für wie manipulierbar wir Menschen halten. Seit dem Aufkommen des Fernsehens in den 50er-Jahren behaupten Werbetreibende, sie könnten Zuschauerïnnen beinahe nach Belieben manipulieren. Dabei stützen sie sich auf fragwürdige psychologische Studien, die teils schlecht gealtert sind.
Die großen Plattformen haben diese Manipulationserzählung aufgegriffen. Letztendlich sind Facebook und Google in erster Linie Anzeigenverkäufer, und zwar die größten und erfolgreichsten, die die Welt je gesehen hat. Ihre Milliardengewinne verdanken sie der Tatsache, dass fast alle Unternehmen ihrem Versprechen glauben: Wir können eure Anzeigen Nutzerïnnen vorsetzen, die darauf reagieren und eure Produkte kaufen.
Auch deshalb können sich Konzerne, die soziale Netzwerke betreiben und Werbeplätze verkaufen, schlecht öffentlich hinstellen und sagen, dass Desinformation komplett harmlos sei. Schließlich erzählen sie ihren Werbekunden, wie wirkmächtig deren Anzeigen seien – wenn sie gleichzeitig behaupteten, dass Inhalte keine Auswirkung auf Nutzerïnnen hätten, gefährdete das ihr eigenes Geschäftsmodell.
All diese Gedanken (und noch viel mehr) stecken in einem der klügsten Texte, die wir in den vergangenen Jahren zu diesem Thema gelesen habe. Joseph Bernstein hat in der aktuellen Ausgabe des Harper's Magazine über "Bad News" geschrieben. Pocket gibt die Lesezeit mit 23 Minuten an, aber wir versprechen, dass es sinnvoll investierte Zeit ist – und dass die Überlegungen, die Bernstein anstellt, deutlich länger als 23 Minuten nachhallen.
Only certain types of people respond to certain types of propaganda in certain situations. (…) There is nothing magically persuasive about social-media platforms; they are a new and important part of the picture, but far from the whole thing. Facebook, however much Mark Zuckerberg and Sheryl Sandberg might wish us to think so, is not the unmoved mover.
For anyone who has used Facebook recently, that should be obvious. Facebook is full of ugly memes and boring groups, ignorant arguments, sensational clickbait, products no one wants, and vestigial features no one cares about. And yet the people most alarmed about Facebook’s negative influence are those who complain the most about how bad a product Facebook is. The question is: Why do disinformation workers think they are the only ones who have noticed that Facebook stinks? Why should we suppose the rest of the world has been hypnotized by it? Why have we been so eager to accept Silicon Valley’s story about how easy we are to manipulate?
Bernstein gibt auf diese Fragen keine Antworten, aber allein die Tatsache, dass er sie aufwirft, machen seinen Text lesenswert.
Be smart
Das letzte Wort überlassen wir Julian Jaursch, der für die Stiftung Neue Verantwortung zu den Themen digitale Öffentlichkeit und Plattformregulierung forscht. Seine Paper sind mehrfach in unseren Newslettern aufgetaucht, zuletzt in Ausgabe #645. Julian hat uns eine Nachricht geschrieben, die wir hier in gekürzter Form wiedergeben, weil sie den Desinformations-Diskurs gut zusammenfasst:
Ich habe grundsätzlich den Eindruck, dass die Debatte zu Desinformation selbst etwas in Schieflage gerät. Zwischen einem Abtun als Alarmismus und einem übereifrigen Aktionismus scheint mir eine differenzierte Debatte jetzt fast schwieriger zu sein als früher, als der Begriff noch nicht so stark bekannt war. Ein Abtun/Abwarten ist aus meiner Sicht nicht tragbar, es müssen Verantwortlichkeiten geschaffen werden. Doch kann eine aufgeblasene (Medien-/Think-Tank-)Debatte zu Desinformation vielleicht Leute stärker verunsichern als die Desinformation selbst.
Manchmal fehlt mir diese Abwägung in der aktuellen Behandlung des Themas. Es ist meist entweder "Oh nein! Russland! Alle gegen Baerbock!" oder "Was wollt ihr denn? Das bisschen Desinformation!". Daraus folgt dann oft eine Phrase wie "Es ist eine gesamtgesellschaftliche Aufgabe." Klar, das stimmt, das ist ja auch schon lange SNV-Argumentationslinie, aber das muss auch aufgedröselt werden. So ziemlich jedes politische Problem ist eine gesamtgesellschaftliche Aufgabe. Wenn wir dabei stehenbleiben, bringt das die Debatte nicht voran und behindert sie vielleicht sogar.
Social Media & Politik
Link-Dump zur Bundestagswahl
- Wenn Influencerinnen Politik machen (Deutschlandfunk)
- Wahl-Watching des Hans-Bredow-Instituts (Leibniz HBI)
- Social-Media-Analysen zur Bundestagswahl von der Uni Mainz und der LMU (Twitter / Simon Kruschinski): Wöchentliche Reports der Anzeigen (Uni Mainz) / Wöchentliche Reports der Postings (Uni München)
- Desinformationstracker zur Bundestagswahl (NewsGuard)
In other news:
- WhatsApp erhält Strafe für Datenschutzverletzungen: WhatsApp soll 225 Millionen Euro Strafe zahlen (netzpolitik). Datenschützer Max Schrems von der NGO noyb begrüßt zwar die Entscheidung, findet sie aber immer noch zu lasch: „Selbst die 225 Millionen sind immer noch nur 0,08 Prozent des Umsatzes der Facebook-Gruppe.“
- Lobbying in Brüssel: Ein neuer Bericht von LobbyControl und Corporate Europe Observatory (PDF) zeigt, wie viel Geld Big Tech in die Hand nimmt, um in Brüssel Einfluss zu nehmen. Microsoft, Google und Facebook geben deutlich mehr aus als etwa die Finanzbranche, die Pharmaindustrie oder Ölfirmen.
- China will Algorithmen, die nicht süchtig machen: Das Regime in China hat ein 30-Punkte-Papier zur Regulierung von Empfehlungsalgorithmen (Bloomberg) ausarbeiten lassen. Unter anderem sollen Algorithmen verboten werden, die süchtig machen oder einen "hohen Konsum" fördern. Das könnte spannend werden!
Kampf gegen Desinformation
- Reddit-Admins machen dicht: 135 Subreddits mit mehreren Millionen Followern wurden von ihren Admins vorübergehend deaktiviert, um gegen die Verbreitung von Desinformation und Falschnachrichten auf Reddit zu protestieren (Zeit) – mit Erfolg: Reddit bans Covid misinformation forum after ‘go dark’ protest (Guardian)
- Twitch-Streamer streiken: Weil seit einiger Zeit zu viele sogenannte Hass-Raids auf Twitch abgehalten werden, sind einige populäre Streamer in den Streik getreten – #ADayOffTwitch (The Verge). Ihr Argument: Amazons Livestreaming-Plattform tut zu wenig, um den Hass auf der Plattform in den Griff zu kriegen. Eigentlich sind Raids dafür gedacht, anderen Streamern Aufmerksamkeit zu verschaffen – im positiven Sinne natürlich. Bei Hass-Raids wird dieses Vorgehen ins Gegenteil pervertiert.
Social Media & Journalismus
- Use the news: Die dpa hat gemeinsam mit mehr als zwei Dutzend Partnern das #UseTheNews-Playbook veröffentlicht (hier direkt als PDF abrufbar). Im Kern stehen zwei Fragen, die viele Medien umtreiben: Wie informieren sich junge Menschen in Deutschland und wie entwickelt man zeitgemäße Nachrichtenangebote für die Gen Z? Beteiligt sind unter anderem ARD und ZDF, große Verlage und renommierte Forschungsinstitutionen. Wenn du regelmäßig unser Briefing liest, wirst du einige Fakten und Studien entdecken, die du bereits kennst. Die 78 Seiten stecken aber voller anschaulicher Best-Practice-Beispiele und hilfreicher Tipps, sodass wir den Download dringend empfehlen. Kostet nichts, liefert aber vielleicht wertvolle Anregungen.
- Weniger News im Feed: Facebook plant, weniger politische Inhalte im News Feed auszuspielen (Axios). Zunächst nur in den USA, womöglich dann auch in anderen Ländern. Warum? Nun, Nutzerïnnen hatten sich über zu viel Politik in ihren Feeds beschwert.
Follow the money
- ByteDance möchte Facebook ins Metaverse folgen: ByteDance hat Pico übernommen (CNBC), den Hersteller des drittbeliebtesten Virtual-Reality-Headsets.
- Secure for life: Twitchen lohnt sich: Dr Lupo hat sich auf Twitch einen Namen erstreamt, um nun bei YouTube einen Deal zu unterschreiben (Washington Post), der ihn bis an das Lebensende absichert. Holla!
Audio Hype
- Amazon will jetzt auch Live-Audio: Axios schreibt: „Wie bei Amazons Bemühungen im Bereich Podcasting und Musikabonnements sieht das Unternehmen Live-Audio als eine Möglichkeit, die Bandbreite an Inhalten zu erweitern, die es über den Sprachassistenten Alexa und seine intelligenten Lautsprecherprodukte anbieten kann.“
- Clubhouse kann jetzt „spatial audio“, eine Technologie, die über eine Smartphone-App eine Art Surround-Sound-Erlebnis ermöglicht, ohne dass zusätzliche Lautsprecher benötigt werden.
Creator Economy
- Super Follows: Twitter startet final das neue Super-Follow-Feature. Einige wenige Auserwählte (in den USA) können jetzt Extra-Content gegen Geld anbieten. Stück für Stück soll das Feature weiteren Nutzerïnnen zur Verfügung stehen. Aber wie twittert Kollege Dirk von Gehlen so schön: Ihr seid eh alle super, Follower!
Schon einmal im Briefing davon gehört
- Meilenstein: Telegram verzeichnet eine Milliarde Downloads (Techcrunch).
- Verschränkung: Immer noch sind die Bande zwischen TikTok und China sehr stark. The Information schreibt: „There are more algorithm engineers in China working on TikTok’s video recommendation engine than in any other international offices. It shows the difficulty of fully disentangling the hit app from parent company ByteDance.“
- Überholspur: Facebook hat zwar in der Schweiz insgesamt deutlich mehr Userïnnen (3 Millionen) als TikTok (700.000), verliert aber junge Nutzer.: TikTok hat 310.000 User zwischen 15 und 24 Jahren, Facebook nur noch 260.000 (Medienpolitik).
- Vorlieben: Auf dem Blog der Münchener Medientage gibt es eine interessante Studie zur Mediennutzung von Jugendlichen. Wir haben an dieser Stelle zu wenig Platz, um die Studie ausführlicher vorzustellen. Wir raten allerdings dazu, zumindest den Blogartikel dazu drüben bei den Medientagen anzuschauen. Ganz spannend: TikTok und Snapchat sind vor allem bei Mädels beliebt. Wir dachten, dass würde sich mehr die Waage halten.
Was wir am Wochenende lesen
- The Silent Partner Cleaning Up Facebook for $500 Million a Year (New York Times)
- The Social-Media Stars Who Move Markets (The Wall Street Journal)
- There’s no escape from Facebook, even if you don’t use it (Washington Post)
Neue Features bei den Plattformen
- Fantasy Games: In den USA und Kanada können Facebook-Nutzerïnnen jetzt auf Sport, TV-Shows und popkulturelle Ereignisse wetten (Facebook Newsroom).
- Wie alt bist du eigentlich? Instagram möchte jetzt das Alter der Nutzerïnnn verbindlich wissen (The Verge), um einen besseren Schutz auf der Plattform zu gewähren.
- Safety Mode: Twitter führt einen neuen Sicherheitsmodus ein (Twitter Newsroom). Wenn das Feature aktiviert wird, können bestimmte Leute deine Tweets für sieben Tage nicht mehr sehen oder dir eine DM schreiben. Quasi eine Art Panik-Button, wenn man gerade einmal die Aufmerksamkeit eines wütenden Mobs auf sich gezogen hat.
- Schluss mit Stories: LinkedIn macht es so wie Twitter und beerdigt seine Stories-Funktion (LinkedIn) wieder. Stattdessen möchte sich das Unternehmen auf ein neues Video-Format fokussieren.
Telegram
- Livestreaming ohne Limits: Bei Telegram kann man jetzt für unbegrenzt viele Menschen einen Livestream aufsetzen (The Verge).
Spotify
- Blend: Zwar kein Social Media im klassischen Sinne, aber bei Spotify können Nutzerïnnen jetzt ihren Playlists miteinander mixen (Techcrunch). Ganz interessant wie Unternehmen immer stärker versuchen, ihren Produkten eine soziale Komponente beizumengen.
Mitglieder-Diskussion