Briefing für den 6.2.2018 | Ausgabe #426

martin Briefing

Salut! Herzlich Willkommen an die vielen neuen Kollegen hier bei unserem Social Media Briefing! Wir suchen übrigens ab der kommenden Woche einen neuen Sponsor! Vielleicht ist das ja für den einen oder anderen ganz spannend – sind ja eine Reihe namhafter Adressen unter uns! Bei Interesse bitte melden: socialmediawatchblog@posteo.de – Danke, Martin & Team


IN DER KRITIK: YOUTUBES ALGORITHMUS

Was ist: Ein Artikel im Guardian geht der Frage nach, welche Rolle YouTube bei der US-Wahl 2016 gespielt hat, respektive generell bei der Vermittlung von Informationen spielt.

Warum ist das wichtig? Die von den Tech-Konzernen eingesetzten Algorithmen haben großen Einfluss darauf, welche Inhalte bei den Nutzern landen – egal ob bei Facebook, Google oder eben YouTube, wo der Algorithmus vor allem dafür zuständig ist, die nächsten Videos auszusuchen, die im Anschluss – im Zweifelsfall per Autoplay – geguckt werden sollten.

Was ist das Problem bei YouTube?

  • YouTubes Algorithmus ist wohl vor allem darauf optimiert, Nutzer dazu zu verleiten, maximal viel Zeit auf der Plattform zu verbringen.
  • Es ist nicht das Ziel, den Nutzer bestmöglich zu informieren.
  • Vielmehr besteht mit Blick auf YouTubes Algorithmus die Sorge, dass Nutzer stark in ihren Filterblasen gefangen gehalten werden, respektive eben jene mit kreiert würden.
  • Mit Blick auf die US-Wahl, respektive Vermittlung von Informationen lässt sich für YouTube feststellen, dass wohl ein enormer Anteil der durch den Algorithmus vorgeschlagenen Videos aus Verschwörungstheoretiker-Kreisen stammt.

Wie lässt sich das belegen? Ein ehemaliger Mitarbeiter von YouTube bekräftigt diese These im Guardian. YouTube selbst verbittet sich, den Algorithmus auf solch kommerzielle Interessen zu reduzieren.

Und ließe sich das Problem beheben? Der ehemalige Mitarbeiter erklärt, dass es ein Leichtes für YouTube wäre, den Algorithmus eher in die Richtung zu tweaken, weniger Verschwörungstheoretiker-Videos anzuzeigen.

Be smart: Kein Algorithmus ist neutral. Der Algorithmus ist immer von Programmierern mit einem bestimmten Auftrag geschrieben worden. Da die besagten Tech-Konzerne ihre Milliarden-Umsätze vor allem über Werbung und Reichweite erzielen, ist es nicht weiter verwunderlich, dass die Algorithmen vor allem dafür Sorge tragen sollen, den Nutzer zu binden. Ihn zu langweilen oder gar in seiner Meinung herauszufordern, ist einfach schlecht fürs Geschäft.


KOALITION GEGEN FACEBOOK

Was ist: Eine Gruppe von prominenten Tech-Kritikern macht mobil gegen Facebook & Co. Unter dem Namen „Center for Humane Technology“ wollen sie fortan vor den negativen Auswirkungen von bestimmten Technologien warnen.

Was ist denn ihre Kritik? Hauptsächlich geht es um:

  • Die Art und Weise, wie Nutzer „abhängig“ gemacht werden von den Technologien
  • Wie Nutzer ausgeleuchtet werden, wenn sie die Technologien nutzen
  • Die Auswirkungen auf die mentale Gesundheit – vor allem von Kids

Wer ist dabei?

  • Tristan Harris (Ex-Google, Time Well Spent)
  • Sandy Parakilas (Ex-Facebook Operations Manager)
  • Lynn Fox (Ex-Apple und Google Communications Executive)
  • Dave Morin (Ex-Facebook Executive, Path-Gründer)
  • Justin Rosenstein (Miterfinder Facebook-Like-Button, Gründer Asana)
  • Roger McNamee (Früher Facebook-Investor)
  • Renée DiResta (Wissenschaftler)

Gab es nicht so etwas schon? Yes. Die neu geschaffene Koalition orientiert sich in erster Linie an dem Projekt „Time Well Spent“, das Tristan Harris bereits vor einigen Jahren ins Leben gerufen hatte, aber erst im letzten Jahr so richtig an Fahrt aufgenommen hatte. Die Initiative „Time Well Spent“ scheint nun im „Center for Humane Technology“ aufgegangen zu sein.

Was ist der Unterschied zu „Time Well Spent?“ 50 Millionen US Dollar. So viel Geld hat die neue Koalition zunächst zur Verfügung, um gegen Facebook & Co Werbekampagnen zu fahren.

Be smart: Durch das Aufgreifen des Narrativs „Time Well Spent“ von Zuckerberg drohte die Debatte um die negativen Konsequenzen von Social Media etwas abzuebben. Es wird daher spannend zu beobachten sein, ob sich das „Center for Humane Technology“ mit seinen Forderungen wirklich fortwährend und nachhaltig in die öffentliche Debatte einbringen kann. Prinzipiell hatte es aber eigentlich genau daran die ganze Zeit gefehlt: an einem Narrativ, das all die unterschiedlichen Kritiken an Social und Tech eint. Jetzt ist es da. Mal sehen, ob es bleibt.


STUDIE ZUM THEMA TARGETING ANHAND VON LIKES

Was ist: Eine aktuelle Studie zeigt auf, wie sich Facebook-Likes dazu nutzen lassen, passgenau Werbung zu schalten.

Und, wie gut funktioniert das? Die Ergebnisse lassen darauf schließen, dass Facebook schon heute bei vielen Nutzern Zugriff auf ihre Weltanschauung hat und dadurch entsprechendes Targeting ermöglicht.

Ist das alles? Darüberhinaus könnte es auch bald sehr wohl möglich sein, Nutzer gezielt aufgrund ihrer psychologischen Verfassung anzusprechen. Aus ethischen Gründen ist dies aber natürlich bedenklich.

Be smart: Grundsätzlich wird Facebook alles daran setzen, den Nutzer immer besser kennenzulernen, um ihm so zielgerichtet Inhalte und Werbung anzeigen zu können. Ein sehr große Rolle wird dabei vor allem auch das Thema „visual computing“ spielen – gilt es doch zu erkennen, was auf den Fotos der Nutzer zu sehen ist. Dadurch dürften sich Nutzer noch besser vermessen lassen als anhand von Facebook Likes.

Tipp: Wer wissen möchte, wie Visual Computing funktioniert und warum das eins der größten Themen in den kommenden Jahren wird – auch im Journalismus – der sollte Amy Webbs Präsentation schauen.


APP-STINENZEN

Twitter: Unter Medienmachern und Journalisten hält sich hartnäckig die Idee, dass Twitter essentiell für den eigenen Job ist – sicherlich sehr zur Freude von Twitters Marketingabteilung. Auch ich rate vielen Volos und Studierenden, sich als angehende Medienmacher mit Twitter vertraut zu machen. Aber ist das wirklich so? Wie wäre es, Twitter einfach sein zu lassen? Lyndi West hat es getan. Sie ist ihren Twitter-Account los – wenn auch etwas komisch unfreiwillig. Das Ergebnis: Sie fühlt sich großartig.

WhatsApp: Im Prinzip die gleiche Story, aber hier geht es nicht um Journalisten, PR-Experten und andere Medienprofis, sondern um den Kontakt zu Freunden, Verwandten, Kollegen oder diese nervigen Nachrichten in Kindergarten- / Elterngruppen. Ein Autor vom Guardian hat WhatsApp vom Telefon geschmissen und musste feststellen, dass er dadurch zwar eine Menge an Kontakten eingebüßt und eine Menge an Gossip zwischen Freunden verpasst hat. Letztlich sei es für ihn aber eine Befreiung, nicht mehr via WhatsApp ständig verfügbar zu sein.


FEATURES, TOOLS & APPS

Instagram: Ab sofort ist es möglich, bei Instagram Posts zu einer geplanten Uhrzeit zu veröffentlichen. Alles, was es dafür braucht, ist ein Instagram-Business-Account und einen Drittanbieter deines Vertrauens: etwa Falcon, Facelift, Hootsuite oder SocialHub…

Snapchat: Neue Fonts und ein "Do not Disturb"-Feature werden demnächst bei Snapchat eingeführt. Die neuen Fonts sollen das Erstellen von Updates schöner machen, das "Do not Disturb"-Feature soll das Leben erträglicher machen – "Time Well Spent" eben.

Korrektur: Im letzten Briefing verwiesen wir auf einen Bericht von Motherboard, in dem behauptet wurde, Facebook könne beim hauseigenen Messenger Nachrichten entschlüsseln. Die Wahrheit ist: Das stimmt so nicht. Es ist sehr viel komplizierter, wie dieser arroganten Antwort eines Verschlüsselungs-Experten zu entnehmen ist. Ah, ich hasse solche Antworten. Ehrlich. Ist doch gut, dass er es besser weiß. Ist doch großartig, dass er die Kollegin – und damit uns alle – eines Besseren belehren kann. Aber die Art und Weise, wie er es macht, ist genau der Grund, warum man Twitter am liebsten wegschmeissen würde. Hatten wir das Thema nicht weiter oben im Briefing? Genau.