Facebook, der große Polarisierer? Es ist kompliziert

Seit Jahren gilt "der Facebook-Algorithmus" als mitverantwortlich für vieles, was in der Welt schiefläuft. Vier Studien zeigen, dass man den Einfluss sozialer Medien nicht überschätzen sollte. Sie sprechen Meta aber auch nicht von Verantwortung frei.
Danke fürs Teilen

Ausgabe #893 | 2.8.2023

Was ist

17 Forschende haben untersucht, ob und wie die Mechanismen, nach denen Facebook und Instagram Beiträge sortieren, die Nutzerïnnen beeinflussen. Die Ergebnisse der vier Studien wurden in den Fachzeitschriften Science und Nature veröffentlicht:

  • Reshares on social media amplify political news but do not detectably affect beliefs or opinions (Science)
  • How do social media feed algorithms affect attitudes and behavior in an election campaign? (Science)
  • Asymmetric ideological segregation in exposure to political news on Facebook (Science)
  • Like-minded sources on Facebook are prevalent but not polarizing (Nature)

Die Wissenschaftlerïnnen konzentrierten sich auf die Monate rund um die US-Wahl im Jahr 2020. Dabei wurden für jeweils Zehntausende Facebook- und Instagram-Nutzerïnnen unterschiedliche Versionen der Algorithmen aktiviert. Für eine der vier Untersuchungen stellte Facebook anonymisierte Daten von mehr als 200 Millionen US-Nutzerïnnen zur Verfügung.

Teils sahen die Probandïnnen chronologisch sortierte statt algorithmisch kuratierter Feeds. Andere bekamen mehr Inhalte von Menschen mit abweichenden politischen Überzeugungen ausgespielt, oder Meta verbannte alle geteilten Beiträge aus der Timeline. Am Ende des Erhebungszeitraums wurde untersucht, ob und wie sich Nutzungsgewohnheiten, politische Ansichten oder Wahlverhalten geändert hatten.

Wir gehen nicht einzeln auf die jeweiligen Studien ein. Einen guten Überblick geben Kai Kupferschmidt (Science) und auf Deutsch Daniel Leisegang (Netzpolitik). Stattdessen konzentrieren wir uns auf die zentralen Ergebnisse und Limitationen.

Warum das wichtig ist

Fast alle großen Plattformen sind für die Wissenschaft eine Blackbox. Für Außenstehende ist kaum zu erahnen, welche Inhalte wem warum ausgespielt werden, welche Auswirkungen das hat und was geschieht, wenn man die Gewichtung der Algorithmen ändert. Das ist ein Problem, schließlich sprechen wir über eine Kommunikations-Infrastruktur, die Milliarden Menschen vernetzt.

Meta verspricht seit Jahren, man wolle transparenter werden. Mehrere Projekte sind gescheitert, Facebook sah dabei selten gut aus (Washington Post). Für die aktuellen Veröffentlichungen haben Forschende erstmals weitreichende Einblicke erhalten, die vorsichtige Rückschlüsse auf den Einfluss von Algorithmen zulassen.

Was die Forschung ergeben hat

  • Algorithmen sind keine schwarze Magie: Keiner der Algorithmus-Tweaks hatte messbaren Einfluss auf die politischen Einstellungen und das Verhalten der Probandïnnen. Das muss nicht heißen, dass die Auswahl der Beiträge egal ist. Es zeigt nur, dass die Inhalte, die Menschen in sozialen Medien sehen, wohl doch nicht ganz so entscheidend für die eigenen Überzeugungen sind, wie häufig behauptet wird. Zumindest reichen ein paar Monate nicht aus, um das Weltbild zu verändern.
  • Kein Algorithmus ist auch keine Lösung: Menschen brauchen nicht viel, um glücklich zu sein: nur Weltfrieden und eine chronologische Timeline. Diesen Eindruck vermitteln zumindest manche Forderungen aus Politik, Journalismus und Wissenschaft. Die aktuellen Studien zeichnen ein anderes Bild. Im chronologischen Feed tauchten signifikant mehr Inhalte aus nicht vertrauenswürdigen Quellen auf, deren Sichtweite sonst algorithmisch eingeschränkt wird. Auf Polarisierung und politisches Wissen hatte die Umstellung kei…

Nach oben scrollen
WordPress Cookie Plugin von Real Cookie Banner