Zum Inhalt springen
12 Min. Lesezeit

25.9.2020 | Big Tech und Klimaschutz, YouTube und halbgare Faktenchecks, Faszination Social Media - ein Fall für Psychologen

25.9.2020 | Big Tech und Klimaschutz, YouTube und halbgare Faktenchecks, Faszination Social Media - ein Fall für Psychologen

Big Tech & Klimaschutz: revisited

Was war

In Ausgabe #668 fragten wir: "Tech goes Klimaschutz: mehr als nur PR?" Unter anderem beschäftigten wir uns mit Googles Maßnahmen. Wir sahen darin zwar ein "wichtiges Signal", verlinkten aber auch auf die Einordnung eines BBC-Journalisten, der forderte, Google Ankündigungen kritisch zu hinterfragen. Dadurch entstand der Eindruck, Google verfolge mit seinen Maßnahmen auch PR-Interessen.

Was ist

Uns haben Rückmeldungen erreicht, unsere Darstellung sei unvollständig und oberflächlich. Und das stimmt: Googles Maßnahmen gehen deutlich über die rückwirkende Kompensation des CO2-Ausstoßes der Jahre 1998 bis 2007 hinaus. Insgesamt umfasst die Ankündigung neun Punkte, darunter etwa das ambitionierte Ziel, bis 2030 rund um die Uhr in allen großen Rechenzentren und Standorten CO2-neutral zu arbeiten. Für weitere Details zu diesem Vorhaben verweisen wir auf die Nachhaltigkeitsberichte und das Whitepaper, das Google dazu veröffentlicht hat (PDF).

Mehrere Organisationen, die sonst eher nicht dafür bekannt sind, große Unternehmen unkritisch anzufassen, haben Googles Vorhaben ausdrücklich gelobt. Greenpeace sagt etwa, Google nehme seine Rolle im Kampf gegen die Klimakrise ernst und setze eine hohe Messlatte für andere Konzerne.

Wir ergänzen: Nachdem wir uns intensiver mit Googles Maßnahmen beschäftigt haben, hoffen wir, dass sich andere Unternehmen ein Beispiel daran nehmen. Gleichzeitig gilt aber auch: Ein Teil der Ankündigungen sind bislang bloß Versprechungen – Ziele sind schön und gut, aber endgültig loben sollte man erst, wenn diese Ziele auch erreicht werden. Das wissen wir 2030.

Yes but

Der Großteil unserer Kritik galt nicht Google, sondern Facebook, das sich zwar ebenfalls ambitionierte Ziele gab (Facebook-Newsroom), diese aber teils mit seinem eigenen Verhalten konterkariert. Bei dieser Einschätzung bleiben wir. Außerdem verweisen wir darauf, dass Facebook in der Zwischenzeit die Konten von etlichen Klima-Aktivistïnnen und Organisationen sperrte (Guardian) und das später als ein Versehen bezeichnete (Gizmodo), dem ein Fehler der automatisierten Systeme zugrunde liege.

Ausführlich beschäftigen sich Judd Legum und Emily Atkin mit dem Thema. In "Facebook's climate of denial" (Popular Information) stellen sie die Schwäche von Facebooks Ansatz zur Bekämpfung von Desinformation dar: Facebook setzt darauf, Lügen und Falschbehauptungen mit Fakten und korrekten Informationen zu begegnen. Insbesondere bei der Klimakrise reiche das nicht aus, sagt etwa der Forscher John Cook (PDF):

"I see it as a greenwashing exercise. Facebook is polluting the information landscape by allowing misinformation to proliferate from their platform. And they’re trying to distract from the fact that they’re not doing anything to prevent it."

Noch problematischer ist, dass Facebook Verharmlosungen und eindeutige Falschbehauptungen über die Klimakrise nur eingeschränkt gegencheckt und teils unwidersprochen viral gehen lässt – darunter auch Artikel des Portal The Daily Caller, das zu Facebooks offiziellen Factcheck-Partnern zählt.

Be smart

Trotz dieser Kritik möchten wir eine Sache wiederholen: Ein Klima-Informationszentrum ist besser als kein Klima-Informationszentrum. Wir wollen nicht reflexhaft jede Maßnahme kritisieren, nur weil Multimilliarden-Konzerne natürlich auch immer noch mehr tun könnten oder damit womöglich auch ein Eigeninteresse verfolgen.

Ganz bestimmt mehr tun könnte der reichste Mann der Welt: Im Februar kündigte Jeff Bezos an (NPR), zehn Milliarden Dollar in Klimaschutzmaßnahmen zu stecken, um etwas gegen die "größte Bedrohung des Planeten" zu unternehmen. Sieben Monate später konstatiert Emily Atkin (Heated):

"(…) Bezos has made $73 billion during this year’s pandemic and record-breaking extreme weather season. Yet he has failed to announce a single grant for that $10 billion climate fund he so loudly announced."


YouTube: Halbgare Faktenchecks, dumme Maschinen und eine Klage

Was ist

In den vergangenen Tagen gab es drei Entwicklungen, die YouTubes Umgang mit Inhalten betreffen:

  1. Die Plattform hat sein Faktencheck-Feature auf Deutschland ausgeweitet (YouTube-Blog).
  2. Nachdem seit Ausbruch der Corona-Pandemie die meisten Videos automatisiert geprüft und gelöscht wurden, sollen diesen Job nun wieder Menschen übernehmen – weil die Maschinen zu viele Fehler gemacht hatten.
  3. Eine ehemalige Content-Moderatorin verklagt YouTube (Cnet): Sie wirft dem Unternehmen vor, sie unzureichend vor den Folgen ihrer Arbeit geschützt zu haben, weshalb sie eine Posttraumatische Belastungsstörung und Depressionen entwickelt habe.

1. "Faktenchecks", die ihren Namen kaum verdienen

2. Die Maschinen sind noch lange nicht bereit

3. Die Verantwortung der Tech-Konzerne beginnt bei sich selbst


Ein zweiter Blick auf "The Social Dilemma"

Was ist

Was jetzt?

"After all, Mark Zuckerberg is not pointing a gun at anyone’s head, ordering them to use Instagram—and yet we post as though he is. Perhaps the best lens to examine compulsive, unproductive, inexplicable use of social media is not technical, or sociological, or economic, but psychoanalytic. In which case, rather than asking what is wrong with these systems, we might ask, "What is wrong with us?"


Schon einmal im Briefing davon gehört

Crowdtangle-Limitationen

Viele von euch werden bereits mit Crowdtangle gearbeitet haben. Das von Facebook aufgekaufte Tool ermöglicht es, Likes, Kommentare und Shares zu messen, um so herauszufinden, welche Artikel mit Blick auf diese Metriken am besten performen. Was das Tool allerdings nicht leistet, wird dabei häufig ausgeblendet. Weder zeigt Crowdtangle, welche Artikel tatsächlich am meisten Impressions erzielt haben oder wie oft ein Artikel bei Nutzerïnnen im Feed auftaucht. Auch zeigt Crowdtangle keine privaten Posts oder Beiträge in Gruppen. Genau hier spielt aber die Musik. Kurioserweise empfiehlt Facebook das Tool trotzdem Bürgerrechtsgruppen & Tech Watchdogs, um z.B. Falschnachrichten frühzeitig aufzuspüren. Die wollen das jetzt nicht länger hinnehmen und fordern bessere Werkzeuge (Bloomberg).


Empfehlungen fürs Wochenende

Casey über Zuckerberg

Casey Newton hat einen spannenden Longread bei The Verge im Angebot: Der Text Mark in the Middle basiert auf einer Vielzahl geleakter Audio-Files und Transkripte, die verdeutlichen, wie sich Mark Zuckerberg in den vergangenen Monaten immer wieder intern erklären musste: wegen seiner Untätigkeit mit Blick auf Trump, wegen der Rolle, die Facebook bei den Protesten in den USA spielte, wegen des Einflusses von Joel Kaplan, wegen der Gefahr, die von Gruppen ausgeht, usw. Zitat:

"An engineer who worked on groups told me they found the group recommendation algorithm to be the single scariest feature of the platform — the darkest manifestation, they said, of data winning arguments."

"They try to give you a mix of things you’re part of and not part of, but the aspect of the algorithm that recommends groups that are similar to the one that you’re part of are really dangerous,” the engineer said. “That’s where the bubble generation begins. A user enters one group, and Facebook essentially pigeonholes them into a lifestyle that they can never really get out of."

Wirklich super spannend und sehr, sehr lesenswert!

Renée DiResta über AI & Desinformation

Renée DiResta beschäftigt sich seit Jahren mit der Frage, wie sich Narrative online verbreiten. Naturgemäß spielt das Thema Desinformation dabei eine besondere Rolle. In einem Gastartikel für The Atlantic beschreibt DiResta, wie sich Computerprogramme, die vollautomatisiert Inhalte produzieren können, auf die Gesellschaft auswirken könnten. Zitat:

"Americans who read an article in an online newspaper or a comment on an internet message board today might fairly assume that it’s written by a real person. That assumption won’t hold in the future, and this has significant implications for how we parse information and think about online identity."

Wir sehen hier enorme Herausforderungen auf uns zukommen. Sicherlich: Bislang ist das Gros dieser Tools noch recht stumpf und schnell zu entlarven. Aber wahrscheinlich würden viele staunen, wie viele der Texte, die einem im Alltag begegnen, bereits automatisch produziert wurden. In aller Regel mit guten Absichten. Aber was ist, wenn gezielte Desinformationskampagnen mit solchen Werkzeugen erstellt werden? Fake-Personas schreiben Fake-Artikel auf Fake-Websites – und alles fühlt sich zunächst einmal echt an. Klingt absurd? Nun, DiResta liefert direkt die Probe aufs Exempel und lässt Teile ihres Artikels von einem Tool namens GPT-3 schreiben.

"In a future where machines are increasingly creating our content, we’ll have to figure out how to trust."

Eugene Wei über TikTok

Wir haben in den vergangenen Ausgaben bereits voller Enthusiasmus auf die Blogposts von Eugene Wei zu TikTok verlinkt: TikTok and the Sorting Hat & Seeing Like an Algorithm. Völlig zurecht natürlich. Deshalb möchten wir auch die Chance nicht ungenutzt lassen, auf eine aktuelle Episode des a16z-Podcasts (a16z) aufmerksam zu machen. In der Folge vom 20.9. geht es schwerpunktmäßig um die Frage, welche Rolle der Algorithmus für TikTok spielt – Spoiler: durchaus eine andere als man gemeinhin annehmen würde. Wirklich spannend und bereichernd, was Eugene in knapp 30 Minuten erzählt.


Neue Features bei den Plattformen

WhatsApp

Instagram

LinkedIn


📌 FYI

Themen, zu denen wir derzeit recherchieren:

Falls du zu einem der Themen etwas beitragen möchtest, dann freuen wir uns über Feedback per Email – einfach auf diese Newsletter-Ausgabe antworten. Falls du uns lieber verschlüsselt schreiben möchtest, dann ist das auch kein Problem. Merci!


Header-Foto von Gayatri Malhotra bei Unsplash