Big Tech & Klimaschutz: revisited

Was war

In Ausgabe #668 fragten wir: "Tech goes Klimaschutz: mehr als nur PR?" Unter anderem beschäftigten wir uns mit Googles Maßnahmen. Wir sahen darin zwar ein "wichtiges Signal", verlinkten aber auch auf die Einordnung eines BBC-Journalisten, der forderte, Google Ankündigungen kritisch zu hinterfragen. Dadurch entstand der Eindruck, Google verfolge mit seinen Maßnahmen auch PR-Interessen.

Was ist

Uns haben Rückmeldungen erreicht, unsere Darstellung sei unvollständig und oberflächlich. Und das stimmt: Googles Maßnahmen gehen deutlich über die rückwirkende Kompensation des CO2-Ausstoßes der Jahre 1998 bis 2007 hinaus. Insgesamt umfasst die Ankündigung neun Punkte, darunter etwa das ambitionierte Ziel, bis 2030 rund um die Uhr in allen großen Rechenzentren und Standorten CO2-neutral zu arbeiten. Für weitere Details zu diesem Vorhaben verweisen wir auf die Nachhaltigkeitsberichte und das Whitepaper, das Google dazu veröffentlicht hat (PDF).

Mehrere Organisationen, die sonst eher nicht dafür bekannt sind, große Unternehmen unkritisch anzufassen, haben Googles Vorhaben ausdrücklich gelobt. Greenpeace sagt etwa, Google nehme seine Rolle im Kampf gegen die Klimakrise ernst und setze eine hohe Messlatte für andere Konzerne.

Wir ergänzen: Nachdem wir uns intensiver mit Googles Maßnahmen beschäftigt haben, hoffen wir, dass sich andere Unternehmen ein Beispiel daran nehmen. Gleichzeitig gilt aber auch: Ein Teil der Ankündigungen sind bislang bloß Versprechungen – Ziele sind schön und gut, aber endgültig loben sollte man erst, wenn diese Ziele auch erreicht werden. Das wissen wir 2030.

Yes but

Der Großteil unserer Kritik galt nicht Google, sondern Facebook, das sich zwar ebenfalls ambitionierte Ziele gab (Facebook-Newsroom), diese aber teils mit seinem eigenen Verhalten konterkariert. Bei dieser Einschätzung bleiben wir. Außerdem verweisen wir darauf, dass Facebook in der Zwischenzeit die Konten von etlichen Klima-Aktivistïnnen und Organisationen sperrte (Guardian) und das später als ein Versehen bezeichnete (Gizmodo), dem ein Fehler der automatisierten Systeme zugrunde liege.

Ausführlich beschäftigen sich Judd Legum und Emily Atkin mit dem Thema. In "Facebook's climate of denial" (Popular Information) stellen sie die Schwäche von Facebooks Ansatz zur Bekämpfung von Desinformation dar: Facebook setzt darauf, Lügen und Falschbehauptungen mit Fakten und korrekten Informationen zu begegnen. Insbesondere bei der Klimakrise reiche das nicht aus, sagt etwa der Forscher John Cook (PDF):

"I see it as a greenwashing exercise. Facebook is polluting the information landscape by allowing misinformation to proliferate from their platform. And they’re trying to distract from the fact that they’re not doing anything to prevent it."

Noch problematischer ist, dass Facebook Verharmlosungen und eindeutige Falschbehauptungen über die Klimakrise nur eingeschränkt gegencheckt und teils unwidersprochen viral gehen lässt – darunter auch Artikel des Portal The Daily Caller, das zu Facebooks offiziellen Factcheck-Partnern zählt.

Be smart

Trotz dieser Kritik möchten wir eine Sache wiederholen: Ein Klima-Informationszentrum ist besser als kein Klima-Informationszentrum. Wir wollen nicht reflexhaft jede Maßnahme kritisieren, nur weil Multimilliarden-Konzerne natürlich auch immer noch mehr tun könnten oder damit womöglich auch ein Eigeninteresse verfolgen.

Ganz bestimmt mehr tun könnte der reichste Mann der Welt: Im Februar kündigte Jeff Bezos an (NPR), zehn Milliarden Dollar in Klimaschutzmaßnahmen zu stecken, um etwas gegen die "größte Bedrohung des Planeten" zu unternehmen. Sieben Monate später konstatiert Emily Atkin (Heated):

"(…) Bezos has made $73 billion during this year’s pandemic and record-breaking extreme weather season. Yet he has failed to announce a single grant for that $10 billion climate fund he so loudly announced."


YouTube: Halbgare Faktenchecks, dumme Maschinen und eine Klage

Was ist

In den vergangenen Tagen gab es drei Entwicklungen, die YouTubes Umgang mit Inhalten betreffen:

  1. Die Plattform hat sein Faktencheck-Feature auf Deutschland ausgeweitet (YouTube-Blog).
  2. Nachdem seit Ausbruch der Corona-Pandemie die meisten Videos automatisiert geprüft und gelöscht wurden, sollen diesen Job nun wieder Menschen übernehmen – weil die Maschinen zu viele Fehler gemacht hatten.
  3. Eine ehemalige Content-Moderatorin verklagt YouTube (Cnet): Sie wirft dem Unternehmen vor, sie unzureichend vor den Folgen ihrer Arbeit geschützt zu haben, weshalb sie eine Posttraumatische Belastungsstörung und Depressionen entwickelt habe.

1. "Faktenchecks", die ihren Namen kaum verdienen

  • Wer mit Organisationen wie Correctiv spricht, die mit Facebook zusammenarbeiten und Artikel prüfen, hört seit Jahren Unverständnis: Warum in aller Welt gibt es bei YouTube kein vergleichbares Programm?
  • Schließlich verbreiten sich zahlreiche Lügen und Falschbehauptungen über die Videoplattform, die dafür jedoch deutlich weniger öffentliche Kritik abbekommt als Facebook.
  • Das System von YouTube bleibt hinter Facebooks Ansatz zurück: Es geht nicht darum, konkrete Videos zu überprüfen und richtig zu stellen. YouTube blendet lediglich auf der Startseite und bei Suchen nach bestimmten Themen Hinweise auf verlässliche Quellen zu dem Thema sein.
  • Im Gegensatz zu Facebook setzt YouTube nicht auf feste Partner (Facebook arbeitet in Deutschland mit Correctiv, der dpa und seit kurzem auch AFP zusammen), sondern ruft alle Verlage auf, sich am ClaimReview-Tagging-System zu beteiligen.
  • Bislang machen ein halbes Dutzend deutscher Verlage und Faktencheck-Organisationen mit, darunter Correctiv und BR24.
  • Ähnlich wie bei Facebook lautet YouTubes Strategie: Wir setzen Desinformation mehr Information entgegen. Ob das wirkt, wird auch davon abhängen, zu welchen Themen YouTube die Hinweise einblendet.
  • Die Plattform zeigt bei Videos zu bestimmten Themen bereits Verweise etwa auf die Wikipedia an – allerdings nur klein unter dem Video und ohne deutlich zu machen, dass der Inhalt des Clips womöglich falsch ist.
  • Das sogenannte Faktencheck-Feature ist besser als nichts, aber auch nicht viel mehr. Wir hoffen, dass YouTube künftig auch einzelne Videos von Faktenprüferïnnen auswerten und einordnen lässt.
  • YouTube-Produktchef Neal Mohan erkennt das Problem selbst an und sagt, dass "Verschwörungstheorien verschwinden müssen" (FAZ). Als Chefentwickler gehe es ihm darum "unserer Verantwortung als globale Plattform gerecht zu werden".
  • Die Fortschritte, die YouTube bei seinen Videoempfehlungen gemacht hat, sodass der Algorithmus nun seltener radikale oder verschwörungsideologische Inhalte vorschlägt, sind beachtlich. Aber es bleibt noch einiges zu tun.

2. Die Maschinen sind noch lange nicht bereit

  • "Menschen nehmen Maschinen den Job (wieder) weg" – eine Schlagzeile, die man 2020 auch nicht allzu oft zu lesen bekommt.
  • Doch nach sechs Monaten ist klar: Die sogenannte künstliche Intelligenz ist teils immer noch ziemlich dumm. Deshalb müssen bei YouTube nun wieder menschliche Content-Moderatorïnnen ran.
  • In Ausgabe #625 erklärten wir, warum Facebook, Twitter, Google und YouTube wegen Corona fast alle Content-Moderatorïnnen vorübergehend durch Maschinen ersetzen müssen.
  • "Die Corona-Krise wird zeigen, ob künstliche Intelligenz mehr ist als ein überstrapaziertes Modewort. Werden Algorithmen in der Lage sein, menschliche Moderatoren zu ersetzen?", fragte ich damals (SZ).
  • Bereits damals warnten die Plattformen, dass die automatisierten Systeme vermutlich weniger effektiv arbeiten und Inhalte zu Unrecht löschen würden.
  • YouTube kündigte etwa an, dass Nutzerïnnen "möglicherweise feststellen, dass mehr Videos entfernt werden, darunter auch einige, die nicht gegen unsere Richtlinien verstoßen."
  • Diese Prognose hat sich bewahrheitet: Zwischen April und Juni löschte YouTube elf Millionen Videos, gegen 320.000 Entscheidungen wurde Einspruch eingelegt – und rund die Hälfte der Videos wurde wieder eingestellt. Sowohl die absolute Zahl als auch der Anteil der erfolgreichen Widersprüche liegen etwa doppelt so hoch wie sonst.
  • YouTube hat sich bewusst dafür entschieden, lieber zu viel als zu wenig zu sperren. Der Schaden, der entstehe, wenn Inhalte fälschlicherweise online bleiben, sei höher zu gewichten als das Risiko versehentlicher Sperren. Das ist eine nachvollziehbare Entscheidung.
  • Es ist gut, dass es automatisierte Systeme gibt, die einen Großteil der Inhalte löschen können, bevor sie jemand zu Gesicht bekommt. Die gestiegene Fehlerrate zeigt aber auch, dass AI noch lange nicht das Wundermittel ist, zu dem Mark Zuckerberg es gern stilisiert (The Verge).
  • Das gilt insbesondere für Verschwörungsideologien, die bewusst mit Andeutungen und Chiffren hantieren: "We are a very long way from using artificial intelligence to make sense of problematic speech such as a three-hour rambling conspiracy video", sagt etwa Claire Wardle (FT) von First Draft. "Sometimes it is a nod and a wink and a dog whistle. The machines just can’t do it."

3. Die Verantwortung der Tech-Konzerne beginnt bei sich selbst

  • Die Erkenntnis, dass Maschinen mehr Fehler machen als Menschen, bedeutet aber auch: Zehntausende Content-Moderatorïnnen müssen einen Job erledigen, der ihre psychische Gesundheit bedroht und zu schweren Traumata führen kann.
  • Die Klage der Frau (Cnet), die für den YouTube-Dienstleister Collabera in Austin den Schmutz aus dem Netz fischte, zeigt erneut, wie belastend die Arbeitsbedingungen für viele Menschen sind.
  • Für die inhaltliche Einordnung verweisen wir auf Ausgabe #638, in der wir eine Sammelklage ehemaliger Facebook-Mitarbeiterïnnen analysierten, die aus ähnlichen Gründen vor Gericht zogen und 52 Millionen Dollar Schadenersatz erhielten (35 Millionen nach Abzug der Anwaltskosten).
  • In beiden Fällen gilt: Konzerne, die jedes Jahr Dutzende Milliarden Dollar Gewinn machen, sollten in der Lage sein, allen Angestellten und Mitarbeiterïnnen gute Arbeitsbedingungen zu bieten. Das gilt auch und insbesondere für Menschen, die für wenig Geld bei Dienstleistern arbeiten.
  • Gerade das Silicon Valley, dass der Meinung ist, dass ihre Produkte die Welt verbessern, sollte Hilfskräfte, die keine Lobby und wenig Macht haben, anständig bezahlen und ihnen zumindest ausreichend Pausen und umfassende psychologische Betreuung gönnen.

Ein zweiter Blick auf "The Social Dilemma"

Was ist

  • In Ausgabe #666 schilderte Martin seine Eindrücke der Netflix-Doku "Das Dilemma mit den sozialen Medien".
  • Er bemängelte fehlende Differenzierung und einen Mangel an Lösungsvorschlägen, nannte den Film aber einen "wirklich guten Primer, um sich mit dem Dilemma der sozialen Medien auseinanderzusetzen".
  • Ich sehe das deutlich kritischer als Martin: Der Film hat mich enttäuscht, weil das Thema so wichtig und das Potenzial so groß ist – und das Ergebnis so eindimensional (und in Teilen schlicht falsch).
  • "Im Fokus stehen Risiken und Nebenwirkungen. Die Doku zeigt kein Dilemma, sie zeichnet eine Dystopie", schrieb ich in einer Kritik (SZ).
  • Martin und ich haben uns in den vergangenen Tagen mehrfach über die Doku unterhalten und verstehen jetzt besser, warum wir das Resultat so unterschiedlich beurteilen.
  • Martin hat eine ZDF-Vergangenheit und betrachtet den Film aus dem Blick eines Fernsehmenschen – er weiß, dass Regisseurïnnen Komplexität reduzieren müssen, wenn sie Botschaften vermitteln wollen.
  • Als SZ-Autor vereinfache auch ich viele Sachverhalte. Meist frage ich mich dabei: Wie erkläre ich ein Thema so, dass es auch meine Eltern, prototypische SZ-Abonnentïnnen, verstehen? Trotzdem kann ich mich nicht damit anfreunden, wie stark Regisseur Jeff Orlowski die Welt in Schwarz und Weiß, in Gut und Böse einteilt.

Was jetzt?

  • Meine eigenen Kritikpunkte stehen in der SZ-Rezension, für die ich mich allerdings kurz fassen musste. Deshalb verweise ich lieber auf die ungleich längeren und tiefgehenderen Einwände, die Will Oremus (OneZero) und Michael Church (Antipodes) formulieren.
  • Bereichernd und erhellend ist in dem Zusammenhang auch eine Buchrezension (Bookforum): Max Read bespricht "The Twittering Machine" von Richard Seymour, der den Blick weg von den angeblich ach so manipulativen und allmächtigen Konzernen auf uns selbst richtet.
  • Das Buch selbst haben wir noch nicht gelesen, aber bereits die Rezension an sich enthält viele kluge Gedanken. Diesen Absatz würden wir euch gern mit ins Wochenende geben:

"After all, Mark Zuckerberg is not pointing a gun at anyone’s head, ordering them to use Instagram—and yet we post as though he is. Perhaps the best lens to examine compulsive, unproductive, inexplicable use of social media is not technical, or sociological, or economic, but psychoanalytic. In which case, rather than asking what is wrong with these systems, we might ask, "What is wrong with us?"


Schon einmal im Briefing davon gehört

Crowdtangle-Limitationen

Viele von euch werden bereits mit Crowdtangle gearbeitet haben. Das von Facebook aufgekaufte Tool ermöglicht es, Likes, Kommentare und Shares zu messen, um so herauszufinden, welche Artikel mit Blick auf diese Metriken am besten performen. Was das Tool allerdings nicht leistet, wird dabei häufig ausgeblendet. Weder zeigt Crowdtangle, welche Artikel tatsächlich am meisten Impressions erzielt haben oder wie oft ein Artikel bei Nutzerïnnen im Feed auftaucht. Auch zeigt Crowdtangle keine privaten Posts oder Beiträge in Gruppen. Genau hier spielt aber die Musik. Kurioserweise empfiehlt Facebook das Tool trotzdem Bürgerrechtsgruppen & Tech Watchdogs, um z.B. Falschnachrichten frühzeitig aufzuspüren. Die wollen das jetzt nicht länger hinnehmen und fordern bessere Werkzeuge (Bloomberg).


Empfehlungen fürs Wochenende

Casey über Zuckerberg

Casey Newton hat einen spannenden Longread bei The Verge im Angebot: Der Text Mark in the Middle basiert auf einer Vielzahl geleakter Audio-Files und Transkripte, die verdeutlichen, wie sich Mark Zuckerberg in den vergangenen Monaten immer wieder intern erklären musste: wegen seiner Untätigkeit mit Blick auf Trump, wegen der Rolle, die Facebook bei den Protesten in den USA spielte, wegen des Einflusses von Joel Kaplan, wegen der Gefahr, die von Gruppen ausgeht, usw. Zitat:

"An engineer who worked on groups told me they found the group recommendation algorithm to be the single scariest feature of the platform — the darkest manifestation, they said, of data winning arguments."

"They try to give you a mix of things you’re part of and not part of, but the aspect of the algorithm that recommends groups that are similar to the one that you’re part of are really dangerous,” the engineer said. “That’s where the bubble generation begins. A user enters one group, and Facebook essentially pigeonholes them into a lifestyle that they can never really get out of."

Wirklich super spannend und sehr, sehr lesenswert!

Renée DiResta über AI & Desinformation

Renée DiResta beschäftigt sich seit Jahren mit der Frage, wie sich Narrative online verbreiten. Naturgemäß spielt das Thema Desinformation dabei eine besondere Rolle. In einem Gastartikel für The Atlantic beschreibt DiResta, wie sich Computerprogramme, die vollautomatisiert Inhalte produzieren können, auf die Gesellschaft auswirken könnten. Zitat:

"Americans who read an article in an online newspaper or a comment on an internet message board today might fairly assume that it’s written by a real person. That assumption won’t hold in the future, and this has significant implications for how we parse information and think about online identity."

Wir sehen hier enorme Herausforderungen auf uns zukommen. Sicherlich: Bislang ist das Gros dieser Tools noch recht stumpf und schnell zu entlarven. Aber wahrscheinlich würden viele staunen, wie viele der Texte, die einem im Alltag begegnen, bereits automatisch produziert wurden. In aller Regel mit guten Absichten. Aber was ist, wenn gezielte Desinformationskampagnen mit solchen Werkzeugen erstellt werden? Fake-Personas schreiben Fake-Artikel auf Fake-Websites – und alles fühlt sich zunächst einmal echt an. Klingt absurd? Nun, DiResta liefert direkt die Probe aufs Exempel und lässt Teile ihres Artikels von einem Tool namens GPT-3 schreiben.

"In a future where machines are increasingly creating our content, we’ll have to figure out how to trust."

Eugene Wei über TikTok

Wir haben in den vergangenen Ausgaben bereits voller Enthusiasmus auf die Blogposts von Eugene Wei zu TikTok verlinkt: TikTok and the Sorting Hat & Seeing Like an Algorithm. Völlig zurecht natürlich. Deshalb möchten wir auch die Chance nicht ungenutzt lassen, auf eine aktuelle Episode des a16z-Podcasts (a16z) aufmerksam zu machen. In der Folge vom 20.9. geht es schwerpunktmäßig um die Frage, welche Rolle der Algorithmus für TikTok spielt – Spoiler: durchaus eine andere als man gemeinhin annehmen würde. Wirklich spannend und bereichernd, was Eugene in knapp 30 Minuten erzählt.


Neue Features bei den Plattformen

WhatsApp

  • Expiring Messages: Laut Wabetainfo arbeitet WhatsApp an einer Funktion, die es ermöglichen würde, Nachrichten zu verschicken, bei denen die Fotos / Videos dann von selbst wieder verschwinden sobald der Chat verlassen wird. Hat hier jemand Snapchat gesagt? 👻

Instagram

  • Reels: Instagrams Antwort auf den anhaltenden Erfolg von TikTok ist ja bekanntlich Reels. Wir sprechen an dieser Stelle bewusst nicht von Instagrams TikTok-Klon, denn das ist Reels bei weitem nicht. Gern stellen wir in einer der kommenden Ausgaben noch einmal ausführlicher dar, was wir von Reels halten und warum es unserer Meinung nach in dieser Form keine Konkurrenz für TikTok darstellt. Heute soll nur kurz festgehalten werden, dass bei Reels nachgebessert wird: Nutzerïnnen können nun Clips mit einer Länge von 30 Sekunden teilen (Techcrunch). Auch wird es bald bessere Montage-Möglichkeiten geben. Ok. Alles weitere demnächst an dieser Stelle.

LinkedIn

  • Stories & mehr: LinkedIn führt jetzt auch Stories ein. Wer also von seinen beruflichen Erfolgen künftig gern im Stories-Format erzählen möchte, it is possible. Zudem kommt es zu einer Integration von Zoom, BlueJeans und Teams. Mehr dazu bei Techcrunch.

📌 FYI

Themen, zu denen wir derzeit recherchieren:

  • Facebooks Pläne in Sachen AR / VR
  • Der Kampf der Plattformen gegen QAnon / AntiVaxx
  • Wie sich das Silicon Valley auf die US-Wahl vorbereitet
  • Die Antitrust-Pläne in den USA
  • Ein Vergleich zwischen TikTok, Reels, Triller und Co
  • Facebooks Workplace Guidelines
  • Komplex: Facebook, Max Schrems, Irland

Falls du zu einem der Themen etwas beitragen möchtest, dann freuen wir uns über Feedback per Email – einfach auf diese Newsletter-Ausgabe antworten. Falls du uns lieber verschlüsselt schreiben möchtest, dann ist das auch kein Problem. Merci!


Header-Foto von Gayatri Malhotra bei Unsplash