Was ist

Die Weltlage ist düster genug, betrachten wir es also positiv: Endlich interessiert sich jemand für den Digital Services Act (DSA). Das große Plattformgesetz der EU und die nationale Umsetzung in Deutschland sind sonst eher Themen, die weniger Aufmerksamkeit erhalten, als sie verdienen. In den vergangenen Wochen hat sich das geändert.

Leider war es das dann auch mit den guten Nachrichten. Die aktuelle Debatte dreht sich nicht um Inhalte oder sachliche Kritik, sondern um Skandalisierung. Der Vorwurf lautet: Die Bundesregierung habe eine neue Zensurbehörde geschaffen, um die Meinungsfreiheit im Netz zu beschränken.

Um es vorwegzunehmen: Diese Behauptung entbehrt jeder Grundlage. Doch mittlerweile haben auch so viele seriöse Medien das Thema aufgegriffen, dass wir es nicht mehr länger ignorieren können. Also erklären wir, worum es geht, weshalb die meisten Vorwürfe hanebüchen sind und warum ein wenig Kritik trotzdem angebracht ist.

Was Trusted Flaggers sind

  • Der DSA sieht sogenannte vertrauenswürdige Hinweisgeber vor, besser geläufig als Trusted Flaggers. Im Text der Verordnung heißt es dazu (Lex-Europa.eu):
Die Anbieter von Online-Plattformen ergreifen die erforderlichen technischen und organisatorischen Maßnahmen, damit Meldungen, die von in ihrem ausgewiesenen Fachgebiet tätigen vertrauenswürdigen Hinweisgebern über die in Artikel 16 genannten Mechanismen übermittelt werden, vorrangig behandelt und unverzüglich bearbeitet und einer Entscheidung zugeführt werden.
  • Trusted Flaggers sind also unabhängige Organisationen, die Facebook, Instagram, YouTube, TikTok und weiteren Plattformen, für die der DSA gilt, potenziell rechtswidrige Inhalte melden können.
  • Die Plattformbetreiber müssen diese Hinweise mit Priorität behandeln und möglichst zeitnah prüfen. Es besteht aber keine Pflicht, die gemeldeten Inhalte zu löschen. Diese Entscheidung liegt bei den Plattformen selbst.
  • In Deutschland ist die baden-württembergische Meldestelle REspect die erste Organisation, die als Hinweisgeber zugelassen wurde. Sie hatte dafür einen Antrag beim deutschen Digital Services Coordinator (DSC) eingereicht.
  • Diese Koordinierungsstelle soll eine einheitliche Anwendung des DSA sicherstellen und die Durchsetzung der Regeln überwachen. In Deutschland wurde die Stelle bei der Bundesnetzagentur angesiedelt, der DSC ist ausdrücklich nicht weisungsgebunden und entscheidet unabhängig von der Bundesregierung oder anderen Behörden (Grün-Digital).
  • Aktuell ist die Position noch nicht endgültig besetzt, weil zuvor im Haushalt eine Stelle geschaffen und ausgeschrieben werden muss. Deshalb übernimmt Klaus Müller, der Präsident der Bundesnetzagentur, die Aufgabe als DSC kommissarisch.

Wie die Debatte entstand

Plattformen sind verpflichtet, auf Meldungen von Trusted Flaggers sofort zu reagieren. Illegale Inhalte, Hass und Fake News können sehr schnell und ohne bürokratische Hürde entfernt werden. Das hilft, das Internet sicherer zu machen. Was illegal ist, entscheiden weder Trusted Flagger noch die Bundesnetzagentur.
  • Stein des Anstoßes ist der zweite Satz. Müller suggeriert zwei Dinge: Zum einen legt die Aufzählung nahe, dass "Hass und Fake News" gemäß DSA entfernt werden müssen. Das ist nicht der Fall. Die Verordnung verpflichtet Plattformen lediglich, Inhalte zu löschen, die gegen nationales Recht verstoßen. Viele hasserfüllte Kommentare und Falschbehauptungen sind nicht strafbar.
  • Zum anderen wirkt es so, als müssten Plattformen auf Anweisung der Trusted Flaggers reagieren. Das priorisierte Meldeverfahren sieht schließlich nicht das schnelle Entfernen, sondern das schnelle Prüfen vor. Alles Weitere obliegt den Plattformen.
  • Müller stellt seine Aussage zwar mit dem letzten Satz richtig, dieser Kontext wurde aber oft ignoriert.
  • Mittlerweile wurde die Pressemitteilung online überarbeitet. Der zweite Satz beginnt nun so: "Illegale Inhalte, illegaler Hass und illegale Fake News (…)". (Zum Vergleich die ursprüngliche Version im Internet Archive.)
  • Müller sagt, er habe das Adjektiv von Anfang an auch auf Hass und Fake News bezogen. Das erscheint uns wie eine schwache Rechtfertigung. Die Formulierung war ein Fehler.

Wie die Debatte eskalierte

  • Konservative, rechte und rechtsradikale Medien sprangen auf die Pressemitteilung an und drehten an der Empörungsspirale. Aus der Bundesnetzagentur wurde eine "Zensurbehörde", die Bundesregierung wolle ein "Wahrheitsministerium" schaffen.
  • Auch die Tatsache, dass Müller Grünen-Mitglied ist, gab Anlass zu allerlei Verschwörungserzählungen. Zudem thematisierte ein rechtsradikales Portal den muslimischen Glauben des Chefs der Organisation REspect und unterstellte ihm, islamistische Gewalt nicht scharf genug zu verurteilen.
  • Wenig überraschend instrumentalisierten auch Parteien und Politiker die Debatte, konkret Wolfgang Kubicki und die AfD. In deren Pressemitteilung war von "Netzdenunzianten" und einem "massivem Angriff auf die Meinungsfreiheit" der Bundesregierung die Rede.

Warum die Vorwürfe größtenteils absurd sind

  • Allein die Wortwahl macht klar, dass die Absender keine inhaltliche Diskussion über die Vorgaben des DSA im Sinne haben. Sie wollen polemisieren und Wut schüren. Dafür verdrehen sie Fakten und zeichnen ein irreführendes Bild.
  • Das Konzept der Trusted Flaggers existiert seit vielen Jahren. Alle großen Plattformen arbeiten längst mit unabhängigen Organisationen zusammen, die bestimmte Arten von potenziell illegalen Inhalten mit Priorität melden können.
  • Das gilt etwa für Darstellungen von Kindesmissbrauch oder Verstöße gegen das Urheberrecht. Zum Beispiel können Verwertungsgesellschaften und andere Rechteinhaber bei YouTube veranlassen, dass Videos gesperrt werden, wenn diese urheberrechtlich geschütztes Material enthalten.
  • Bislang können die Plattformen selbst auswählen, mit welchen Partnern sie zusammenarbeiten. Der DSA überträgt diese Entscheidung den nationalen Koordinierungsstellen und knüpft sie an bestimmte Standards wie inhaltliche Kompetenz, Unabhängigkeit und Objektivität. Zudem müssen die Trusted Flaggers jährliche Transparenzberichte veröffentlichen.
  • Wenn Plattformen überzeugt sind, dass eine ausgewählte Organisation wiederholt unpräzise, ungenaue oder unzureichend begründete Meldungen übermittelt, können sie sich beim DSC beschweren. Trusted Flaggers, die ihren Aufgaben nicht gerecht werden oder ihre Kompetenzen überschreiten, können ihren Status verlieren.
  • Der DSA hat eine weitere Möglichkeit geschaffen: Nutzerïnnen können sich niedrigschwellig beschweren, wenn sie glauben, dass ihre Beiträge zu Unrecht entfernt wurden. Die erste Anlaufstation sind die Plattformen selbst, danach folgt die erste offizielle zugelassene Streitbeilegungsstelle User Rights. Das Verfahren und die juristische Prüfung sind für Nutzerïnnen kostenlos.
  • All diese Strukturen sind komplex, aber sinnvoll. Weder dürfen Regierungen entscheiden, welche Inhalte gelöscht werden, noch sollten private Plattformen allein bestimmen, wo die Grenzen der Meinungsfreiheit verlaufen. Der DSA versucht, einen Kompromiss zu finden, um Moderationsentscheidungen schneller, transparenter und weniger willkürlich zu machen.
  • Die Arbeitsweise von REspect habe mit Zensur nichts zu tun, wie die Vorsitzende der Stiftung erklärt, die REspect gegründet hat (SZ):
Man melde weder Behörden noch Plattformen einfach nur irgendwelche unliebsamen Meinungen. Schon gar nicht durchforste man aktiv Instagram, X etc. nach Meldewürdigem, schon allein, weil die Fachleute von „Respect“ gar keine Zeit dafür hätten. (…) Wenn eine Nutzerin oder ein Nutzer einen Beitrag sieht, der zum Beispiel volksverhetzend sein könnte, kann sie oder er das „Respect“ melden. Kommen sie dort zu dem Schluss, dass das Geschriebene potenziell strafbar ist – was sie in knapp 40 Prozent der Fälle tun, der Rest ist laut der Meldestelle „rechtlich unbedenklich“ –, melden sie den Beitrag dem Bundeskriminalamt.
  • Dann prüfen BKA und eine spezialisierte Staatsanwaltschaft in Köln, ob ein Anfangsverdacht besteht. Erst dann meldet REspect den Beitrag. Bei den Plattformen kommen also mehrfach vorgefilterte Meldungen an – und dann können sie immer noch selbst entscheiden, wie sie damit umgehen.
  • REspect meldet bereits seit zwei Jahren Inhalte ans BKA (nur ohne sie danach an die Plattformen weiterzureichen), das strafbaren Postings nachgeht und deren Verfasserinnen ermittelt.
  • Dem Spiegel zufolge schätzt das BKA neun von zehn der gemeldeten Beiträge als illegal ein. Das klingt nicht gerade nach maßloser "Zensur", sondern einem ordentlich regulierten System.

Be smart

Neben der Aufregung über die unglückliche Pressemitteilung kann man substanziellere Kritik üben. Wir empfinden die Doppelrolle von Müller als CMS und Präsident der Bundesnetzagentur als irritierend. Für die kommissarische Besetzung hätte man sicher eine unverfänglichere Übergangslösung finden können als den Chef einer Behörde, die an Weisungen des Bundeswirtschaftsministeriums gebunden ist. Auch wenn man Müller selbst für vollkommen integer hält, hätte man diese Steilvorlage vermeiden sollen.

Die inhaltliche Auseinandersetzung mit den Strukturen des DSA überlassen wir dem geschätzten Johannes Kuhn. In seinem Newsletter wägt er ab, wie illegale Inhalte definiert und Overblocking verhindert werden könnte. Letztlich kommt er aber zum Schluss:

Das [bestehende System] ist meiner Meinung nach eine akzeptable Lösung. Die Sorge über Trusted Flagger artikuliert zwar ein im Prinzip nicht unberechtigtes Misstrauen gegenüber staatlichen Eingriffen, wird aber von nicht wenigen Akteuren schlicht instrumentalisiert – unter anderem, um das Gesamtkonstrukt staatlich koordinierter Moderationsarchitektur zu diskreditieren.

Trotzdem sieht Johannes zwei Gründe, den DSA berechtigt zu kritisieren – die aber nichts mit der aktuellen Zensurdebatte zu tun haben:

Meine eigene Sorge gilt zwei anderen Aspekten: Der Möglichkeit, dass die angewendeten “nationalen Gesetze” mittelfristig so verändert werden, dass sie die Meinungsfreiheit wirklich einschränken und nun eine Infrastruktur existiert, die das durchsetzen kann – und bei der Missbrauch nur verhindert werden kann, wenn wirklich alle Institutionen funktionieren. Kurz: Der DSA, unkontrolliert ungarisiert.
Und, Leserinnen und Leser kennen mein Lamento, die internationale Signalwirkung von NetzDG und DSA – prinzipielle Eingriffe, die eben von denjenigen, die Gewaltenteilung und checks & balances für überflüssig halten, als Rechtfertigung für autoritäre Plattform-Politiken missbraucht werden können.

Social Media & Politik

  • Google setzt auf Mini-Atomkraftwerke, um seinen stetig steigenden Energiehunger zu stillen (Google). 2030 soll das erste Mini-Atomkraftwerk der Firma Kairos Power in Betrieb genommen werden. Google sieht in Atomstrom eine „saubere“ Option, um das selbst gesteckte Ziel der Klimaneutralität zu erreichen. Dass bei Betrieb langlebige, hochradioaktive Abfälle entstehen und "entlang der kompletten Wertschöpfungskette (Uranabbau, Anreicherung, Transporte, Zwischen- und Endlagerung) sowie dem Bau und Rückbau des Kraftwerkes selbst CO2 emittiert" (Tagesschau) wird, erscheint uns nicht sehr sauber.
  • Studien zufolge verbraucht eine Anfrage bei ChatGPT zehnmal so viel Strom wie eine einfache Google-Suche (heise online). Es stellt sich daher doch vielmehr die Frage, wie mensch auch hier insgesamt umweltbewusster agieren kann. Dass wir im Alltag Müll vermeiden und ressourcenschonend handeln, ist mittlerweile Konsens. Wir würden uns wünschen, dass sich dieses Bewusstsein auch auf die digitale Sphäre überträgt.
  • First Podcast-Election? Es ist inzwischen zur Tradition geworden, jede US-Präsidentenwahl mit einer neuen Technologie zu verknüpfen. Bei Barack Obama staunte die Welt darüber, wie ausgefuchst sein Team Facebook nutzte, um Stimmung für die Demokraten zu machen. Bei der Wahl von Donald Trump zeigte sich die Welt entsetzt, wie sehr Trump die sozialen Medien „ausnutzte“, um die Wahl zu seinen Gunsten zu entscheiden. Dieses Mal stehen TikTok (Wall Street Journal), künstliche Intelligenz (AP) und neuerdings auch Podcasts im Zentrum der Debatte (The New Yorker).
  • Warum jetzt auch Podcasts? Zahlreiche US-Podcaster erreichen ein Millionenpublikum, sind primär ihren finanziellen und politischen Interessen verpflichtet und stellen daher in der Regel deutlich weniger unangenehme Fragen als ausgebildete Journalistïnnen. Dass Kamala Harris gern bei Call Her Daddy (Spotify) auftritt und Trump ohnehin gefühlt keine Option auslässt, um bei ihm wohlgesonnenen Hosts aufzutreten (YouTube / Impaulsive), verwundert da nicht wirklich. Die Frage ist eher: Was bringt das? Gibt es schon wissenschaftliche Untersuchungen zum Einfluss von Podcasts auf die politische Willensbildung? Oder ist es einfach genau das, was US-Politikerïnnen den deutschen Demokraten voraushaben (Friedrich-Ebert-Stiftung)?
Ziel demokratischer Parteien sollte es fortan sein, Fans und Verbündete aktiv an der Verbreitung überzeugender Kommunikation zu beteiligen, um in einer subjektiv erlebbaren unendlichen Medienumgebung (Infinite Media En- vironment, vgl. Echauri 2023) sichtbar zu sein.
  • Tim Walz geht bei Twitch live: Kamala Harris Running Mate, Tim Walz, lässt ebenfalls nichts unversucht und geht bei einem „World of Warcraft Twitch Stream“ live (Wired). Irgendwie muss man ja diese jungen Leute erreichen... Erinnert sich noch jemand an Merkels Auftritt bei LeFloid? Das war eigentlich ziemlich weitsichtig damals.
  • Russland verbietet Discord: Im fortwährenden Kampf gegen westliche Technologiekonzerne hat Russlands Internetregulierer Roskomnadzor entschieden, nun auch Discord den Stecker zu ziehen. Russische Militärs zeigen sich bestürzt, schließlich sei Discord neben Telegram eines der zentralen Kommunikationstools gewesen (Washington Post). Einfach nur irre. Auf der ganzen Welt sitzen Kids vor ihren Rechnern und kommunizieren mittels Discord beim Counterstrike-Zocken. Dass russische Soldaten ebenfalls Discord nutzen, um ihren Angriffskrieg auf die Ukraine zu koordinieren, kriegen unsere Köpfe hier gerade kaum verarbeitet.
  • Bericht: TikTok wusste, dass die App mentale Probleme bei Heranwachsenden verursachen könnte: Gerichtsunterlagen legen nahe, dass die Gefahr bewusst in Kauf genommen wurde, um weiter zu wachsen (NPR). Mehr Screentime = mehr Geld = mehr Einfluss. So einfach ist die Rechnung als Tech-Konzern fast immer. Immerhin sind die Unterlagen vier Jahre alt, TikTok hat aus der Vergangenheit bestimmt gelernt. Bestimmt.
  • TikTok kooperiert vorübergehend mit Headspace, damit die Creator nicht ausbrennen (TikTok). Mental Health und so… Nichts gegen Headspace. Tolle Meditations-App. Seit Jahren selbst im Einsatz. An sich immer schön, wenn das Thema mentale Gesundheit adressiert wird. Aber irgendwie ist diese Form von PR nur noch schwer zu ertragen. Zu TikToks Rettung sei gesagt: Es verhält sich bei YouTube jetzt auch nicht komplett anders (YouTube / Official Blog).

Follow the money

  • TikTok möchte verkaufen: Also nicht im Sinne des US-Gesetzes, das den Verkauf von TikTok an ein nicht chinesisches Unternehmen vorsieht. Nein, TikTok möchte Produkte verkaufen. Und zwar auch nicht direkt selbst, sondern über seine Userïnnen. Egal, ob Creator mit gerade einmal Tausend Followern oder Marken mit fetten Shops: Hauptsache der Rubel rollt (Rest of World). TikToks chinesische Schwester-App macht es vor: Die Plattform rechnet für 2024 mit Verkäufen mit einem Bruttowarenwert von 548 Milliarden Dollar — gut 50 Prozent mehr als im Jahr zuvor (Jing Daily). Übrigens sind es genau diese unfassbaren Summen und die daraus resultierenden Gewinne, die ByteDance so viel Geld in die Kassen spülen, dass sie TikTok im Westen überhaupt auf den Markt bringen konnten und halten können.

Next (AR, VR, KI, Metaverse)

  • Content Moderation: ByteDance setzt verstärkt auf KI: TikToks Mutterhaus trennt sich von rund 700 Mitarbeitern. Die KI macht das schon 😬 (Reuters)
  • ByteDance hat jetzt smarte Earbuds: Ola heißen die Teile, die vorerst nur in China zu haben sind, rund 170 Dollar kosten und mit Chinas meist genutzter GenAI-App Doubao gekoppelt sind (South China Morning Post). Wir haben noch keine Reviews gesehen, finden das Thema aber sehr spannend. Earbuds erscheinen uns nämlich als die viel naheliegendere Option, um KI-Hardware zu nutzen. Smarte Brillen sind so 🥸

Reports, Paper, Studien

  • Why We Watch 2.0: Beyond The Frame: How viewers perceive content quality (YouTube)
  • Taking Stock With Teens: 48th semi-annual Generation Z survey of 13,515 U.S. teens (Piper / Sandler)
  • Memes of Late Capitalism: Highlighting the contradictory function of memes as both expressions of discontent with existing power relations and content exploited by social media platforms for profit. (Malmö University)

Neue Features bei den Plattformen

YouTube

  • YouTube testet das Ende des Dislike-Buttons bei YouTube Shorts. Stattdessen soll an gleicher Stelle ein Save-Button installiert werden. Das gefällt uns. (Social Media Today)

Bluesky

  • Bluesky gibt sich redlich Mühe, Threads-Userïnnen auf die eigene Plattform zu locken. Auf dem eigens dafür eingerichteten Account (Threads / Bluesky) wurden nun einige neue Features bekannt gegeben, die zum Wechsel anregen sollen:
– pinned posts are here! 📌 – search now includes a language filtering tool 🔎– customization options for font & text size ✍️– multiple look & feel improvements, including new animations– now you can swipe to delete a DM conversation– muted words now apply to notifications and search too– now you can share videos to Bluesky directly from your camera roll