Was "An Ugly Truth" über Facebook verrät – und welche Bücher wir außerdem empfehlen

Was ist

Sheera Frenkel und Cecilia Kang haben ein Buch veröffentlicht, vor dem sich, so erzählen es Facebook-Angestellte, angeblich sogar Mark Zuckerberg und Sheryl Sandberg fürchteten. In "An Ugly Truth – Inside Facebook's Battle for Domination" (Harper Collins) kommen die beiden Reporterinnen der New York Times zu einer drastischen These: All die Skandale der vergangenen Jahre waren keine Fehler, sondern unausweichlich – weil Mark Zuckerberg Wachstum wichtiger sei als alles andere.

Warum das wichtig ist

Facebook? Das ist doch diese blaue App mit ein paar Milliarden Karteileichen, die eh niemand mehr nutzt und bald irrelevant wird. Im Interview mit dem Spiegel erwidert Kang:

Viele Menschen wissen offenbar nicht, dass Facebook viel mehr ist als die blaue App. Instagram, WhatsApp und Oculus gehören ja auch dazu. Facebook ist ein wucherndes Konglomerat mit fast drei Milliarden Nutzerinnen und Nutzern. Und auch wenn Facebook selbst in manchen Gegenden nicht mehr so populär sein mag: In vielen Ländern gehört es fast zur öffentlichen Grundversorgung. Wir sprechen hier über das größte Kommunikationsunternehmen der Geschichte.

Ein Kommunikationsunternehmen, zu dessen großen Stärken Kommunikation eher nicht gehört und über dessen Innenleben recht wenig bekannt ist. Dabei wäre es wichtig zu verstehen, warum Facebook in welchen Fällen wie entscheidet – denn diese Entscheidungen betreffen das Leben Hunderter Millionen Menschen. Genau diese Einblicke versprechen Frenkel und Kang.

Was das Buch nicht leistet

Wer Facebook seit Jahren verfolgt (oder unsere Briefings) liest, wird in dem Buch wenig substanziell Neues lernen. Es gibt nicht das eine große Geheimnis, einen bislang nicht berichteten Skandal oder eine Szene, die ein völlig neues Licht auf den Konzern wirft.

Auch die Kernthese, die Frenkel und Kang im Nachwort beschreiben, hat man so oder so ähnlich auch schon woanders gelesen:

One thing is certain. Even if the company undergoes a radical transformation in the coming years, that change is unlikely to come from within. The algorithm that serves as Facebook’s beating heart is too powerful and too lucrative. And the platform is built upon a fundamental, possibly irreconcilable dichotomy: its purported mission to advance society by connecting people while also profiting off them. It is Facebook’s dilemma and its ugly truth.

Was das Buch leistet

Die beiden Reporterinnen haben mehr als 1000 Stunden lang mit mehr als 400 aktuellen und ehemaligen Mitarbeiterïnnen gesprochen. Sie zitieren aus internen Dokumenten, geben den Verlauf Dutzender Meetings wieder und stützen sich auf vertrauliche Gespräche und Memos an die Angestellten. Allein diese Rechercheleistung ist beeindruckend.

Obwohl Frenkel und Kang nicht den einen großen Aufreger liefern, gelingt ihnen etwas Bemerkenswertes. In der Summe wirken die Fehltritte und fragwürdigen Entscheidungen viel stärker als einzeln und über mehrere Jahre verteilt. Wir zitieren erneut aus einem Interview (T-Online):

Wir glauben und hoffen, dass unser Buch die Leser wirklich näher an das Unternehmen bringt, sie besser verstehen lässt, wie diese Facebook-Maschinerie genau funktioniert, sowohl als Technologie als auch als Geschäftsmodell. Und wir hoffen, dass es die Menschen besser als je zuvor verstehen lässt, welchen Einfluss die Führungsriege auf die Richtung des Unternehmens hat. Aber auch, dass diese Führung Verhaltensmuster gezeigt hat, die Sorgen bereiten. Ich glaube, wenn man sich diese Verhaltensmuster im Gesamten anschaut, dann hat das eine ganz andere Wirkung als die einzelnen Nachrichten von einer Krise, die auf die nächste folgt.

"An Ugly Truth" liest sich stellenweise wie die Schilderung zweier Kriegsreporterinnen, die jahrelange Gefechte embedded miterleben. Sie liefern die interne Sichtweise auf all die Krisen, die Facebook durchlebt hat. Die äußeren Ereignisse sind meist bekannt, aber man bekommt ein besseres Gefühl, wie Facebook tickt.

Was hängenbleibt

Wir können ein Buch mit mehr als 350 Seiten in diesem Newsletter nicht komplett zusammenfassen. Das wollen wir auch gar nicht. Unser Ziel ist es, dir bei der Entscheidung zu helfen, ob du das Buch selbst lesen solltest.

Dabei helfen womöglich die beiden Exzerpte, die New York Times und Telegraph exklusiv veröffentlicht haben. Außerdem haben wir einige Eindrücke und Erkenntnisse zusammengestellt, die uns nach dem Lesen in Erinnerung geblieben sind:

  • Die Enthüllung mit dem härtesten Nachrichtenwert: Facebook hat zwischen Januar 2014 und August 2015 52 Angestellte gefeuert, die ihren Zugriff auf private Profildaten missbraucht haben – und das sind nur diejenigen, die entdeckt wurden. Die meisten davon waren Männer, die Facebook-Profile von Frauen stalkten, die sie dateten.
  • Damals hatten Facebook-Angestellte unbeschränkten Zugriff auf private Nutzerdaten, darunter Nachrichtenverläufe im Messenger, besuchte Veranstaltungen, hochgeladene Fotos (auch gelöschte) oder angeklickte Links. Zuckerberg wollte keine technischen Hürden einbauen, um den Entwicklerïnnen möglichst schnelles und autonomes Arbeiten zu ermöglichen.
  • Bei Missbrauch drohte die Kündigung. Letztendlich beruhte das System aber auf Vertrauen und höchstens nachträglichen Konsequenzen, falls Facebooks Software verdächtige Zugriffe von Arbeitsrechnern registrierte.
  • 2015 wies der damalige Sicherheitschef Alex Stamos Zuckerberg auf das Risiko hin. Zu diesem Zeitpunkt sollen mehr als 16.000 Facebook-Mitarbeiter Zugang zu den Profildaten gehabt haben. Stamos beklagte angeblich, dass Facebook nichts Unternehme, "um dieses eindeutig systemische Problem zu lösen oder zu vermeiden".
  • Zuckerberg war überrascht und schockiert und fragte. Er fragte, warum er erst so spät davon erfahre und niemand erwogen haben das System zu ändern – ein System, das er selbst etabliert hatte.
  • Stamos, der Facebook 2018 verließ und nach Stanford wechselte, taucht in weiteren eindrücklichen Passagen auf. Er wird als eine Art gutes Gewissen, eine ständig mahnende Stimme dargestellt.
  • Unter anderem forderte er mehrfach, die Gefahr russischer Desinformationskampagnen ernster zu nehmen und Maßnahmen zu ergreifen – was aber erst mit einem Dreivierteljahr Verspätung bei Zuckerberg ankommt. Nach der US-Wahl 2016 machte er sich dafür stark, die eigene Rolle aufzuarbeiten und auch öffentlich transparent zu kommunizieren. In Grundzügen berichteten Frenkel und Kang zusammen mit drei anderen Reportern darüber aber bereits 2018 (NYT).
  • Über Zuckerberg selbst erfährt man wenig Neues: ein Getriebener mit unbändigem Ehrgeiz, der in der Anfangsphase oft bis tief in die Nacht programmierte und davon überzeugt ist, dass Facebook die Welt besser macht. Zuckerberg ist ein Alleinherrscher, der seine Macht nicht teilt: Das letzte Wort, die endgültige Entscheidung gehört immer ihm.
  • Spannender sind die Details über seine Vize-Chefin und Geschäftsführerin Sheryl Sandberg. Obwohl sie Facebooks Anzeigengeschäft aufgebaut und den kommerziellen Erfolg damit erst möglich gemacht hat, ist sie in vielen inhaltlichen und strategischen Fragen angeblich erstaunlich machtlos.
  • Angeblich haben sich Zuckerberg und Sandberg in den vergangenen Jahren auseinandergelebt. Zuckerberg mischte sich zunehmend in Policy-Fragen ein und überstimmte Sandberg. Insbesondere der Umgang mit Donald Trump und der Kuschelkurs mit den Republikanern soll die Beziehung der beiden Top-Manager beschädigt haben.
  • Dieser Darstellung widerspricht eine Facebook-Sprecherin. Zwischen Zuckerberg und Sandberg gebe es keinen Bruch. Sandbergs Rolle habe sich nicht verändert, das Verhältnis sei intakt, ihre Zusammenarbeit vertrauensvoll. Trotzdem bleiben jede Menge Fakten, die auch Facebook nicht wegreden kann.
  • Eines der frustrierendsten Kapitel dreht sich um Facebooks Rolle in Myanmar. Es wäre falsch, Facebook direkt für den Genozid an den Rohingya verantwortlich zu machen. Klar ist aber, dass die Plattform als Brandbeschleuniger diente.
  • "Facebook ist zu einer nützlichen Plattform für diejenigen geworden, die Gewalt anstacheln und offline Schaden anrichten wollen", konstatierte ein Untersuchungsbericht, den Facebook selbst in Auftrag gegeben hatte (#501). Auch für seine Rolle bei Menschenrechtsverletzungen in Sri Lanka, Indonesien und Kambodscha entschuldigte sich Facebook später (#638).
  • All das ist gut dokumentiert, doch Frenkel und Kang leisten eine wertvolle Ergänzung. Sie dokumentieren, wie frühzeitig, eindringlich und unmissverständlich Facebook intern und extern gewarnt wurde – und trotzdem weitgehend tatenlos zusah oder zumindest weit hinter den Maßnahmen zurückblieb, die in dieser Situation nötig gewesen wären.
  • In den USA und Europa nimmt Facebook Hasskommentare und andere, potenziell geschäftsschädigende Probleme ernst. Doch in vielen asiatischen oder afrikanischen Ländern schob der Konzern seine Verantwortung lange Zeit von sich weg.
  • Ein Beispiel verdeutlicht die Ignoranz und Fahrlässigkeit: Als sich die Lage in Myanmar 2015 zuspitzte, gab es im Content-Moderation Team eine einzige Person, die für Inhalte aus Myanmar zuständig war – aber nur Burmesisch sprach. In Myanmar existieren Dutzende Sprachen und Hunderte Dialekte:

Everything was beginning to make sense. There was only one moderator tasked with monitoring the deluge of content being generated in Myanmar, and that person spoke only Burmese. The repeated complaints of harassment and hate speech had gone unanswered because the company was hardly paying attention. The sheer amount of information being shared in Myanmar was tremendous, but Facebook hadn’t expanded its staff to keep up.

Was Facebook selbst dazu sagt

Überraschend wenig. Frenkel und Kang haben Facebook sämtliche offiziellen Zitate und jeden Fakt vorgelegt und hatten sich auf eine zähe Autorisierung eingestellt. Doch es kamen nur minimale Änderungswünsche (Tages-Anzeiger), sagt Frenkel:

Es waren wirklich sehr kleine Dinge. Wir erinnern uns, dass das an einem Dienstagnachmittag geschah, nicht an einem Dienstagmorgen, oder sie aßen zu Mittag, bevor das Meeting begann, nicht während des Meetings.

Das zeigt, wie akribisch die beiden gearbeitet haben. Facebook dürfte über das Buch nicht glücklich sein, doch offenbar gab es keinen Anlass für ein inhaltliches Dementi. Am Tag der Veröffentlichung wurden Zuckerberg und Sandberg bei einem gemeinsamen Spaziergang im Sun Valley fotografiert. Das letzte Foto, das sie dort zusammen zeigt, ist sieben Jahre alt. Es gab also einiges zu besprechen.

Dabei reagierte Facebook in der Vergangenheit immer wieder öffentlich auf kritische Berichterstattung und veröffentlichte Richtigstellungen (oder zumindest das, was Facebook dafür hält) im offiziellen Newsroom. Teils widersprachen hochrangige Facebook-Manager auf Twitter den Darstellungen der Reporterïnnen und diskutierten dort. Auch zwei aktuelle Kontroversen zeigen, wie ungewöhnlich Facebooks Schweigen ist. Beide passen auch inhaltlich gut zu den großen Themen des Buches, deshalb gehen wir an dieser Stelle darauf ein:

1. Sind Hass und Wut gut fürs Geschäft?

  • Am Dienstag warfen drei Forscher in einem Gastbeitrag in der Washington Post Facebook vor, dass es kein Interesse daran habe, den Algorithmus so zu verändern, dass der Anteil extremistischer Inhalte sinke – weil das Interaktionen, Verweildauer und Gewinn schmälere.
  • Facebook reagierte umgehend mit einer umfangreichen Gegendarstellung (Facebook-Newsroom). "The opinion editorial is simply wrong", schreibt Pratiti Raychoudhury.
  • Tatsächlich liefert der Blogeintrag wichtigen Kontext. Die Untersuchung der Forscher erscheint damit zumindest unvollständig, weil der Zeitraum in den Monaten vor der US-Wahl wohl nicht repräsentativ ist. Vor allem machen sie einseitig Plattformen für gesellschaftliche Probleme verantwortlich und blenden andere mögliche Ursachen aus.
  • Die Anschuldigungen, die der Gastbeitrag macht, wirken dadurch arg zugespitzt und nicht komplett von Fakten untermauert. Ob sie aber "einfach falsch" sind, wie Facebook behauptet, lässt sich von außen kaum beurteilen.
  • Es ist das alte Problem: Nur wenige Wissenschaftlerïnnen erhalten Zugang zu internen Facebook-Daten, die verlässliche Forschung ermöglicht. Mehrere Projekte, die unabhängige Untersuchungen ermöglichen sollten, sind gescheitert oder stecken auf halbem Weg fest.
  • Facebook mag teils gute Gründe haben, externen Forscherïnnen nicht leichtfertig Zugriff zu gewähren. Allzu offene Schnittstellen brachten die Cambridge-Analytica-Affäre ins Rollen, und nicht nur Entwicklerïnnen, sondern auch Wissenschaftlerïnnen können Daten missbrauchen.
  • Am Ende bleibt aber trotzdem ein ungutes Gefühl: Facebook widerspricht vehement einer Studie, mauert aber weiter, wenn es darum geht, mehr Forschenden Einblicke in die Blackbox des Algorithmus zu geben. Man muss Facebook also vertrauen – und das fällt nicht leicht.

2. Wird Facebook von Rechten dominiert?

  • Der zweite Konflikt schließt sich direkt an den ersten an. In einer langen Kolumne (NYT) schildert Kevin Roose, wie die Daten des Analysetools CrowdTangle Facebook intern entzweien.
  • Die Vorgeschichte in Kürze: Roose und andere Reporterïnnen (wir auch) nutzen CrowdTangle seit Jahren, um öffentlich verfügbare Interaktionszahlen von Facebook-Posts zu aggregieren und auszuwerten. Über den Twitter-Account Facebook's Top 10 veröffentlicht er täglich eine Liste mit den zehn Artikeln, die am meisten Interaktionen sammelten.
  • Angesichts der Listen drängt sich der Eindruck auf, dass rechte und rechtsradikale Seiten dominieren. Facebook hält dem entgegen, dass Daten von CrowdTangle keinen unmittelbaren Rückschluss zuließen, wie viele Menschen bestimmte Inhalte sehen und welche Beiträge von Facebooks Algorithmen gepusht werden.
  • Vergangenes Jahr meldete sich unter anderem John Hegemann, Facebooks Produktverantwortlicher für den Newsfeed, auf Twitter zu Wort. Er kritisierte die Aussagen von Roose als verkürzt. Dessen Vorgehen sei zwar formal korrekt, entscheidender als die Interaktionen sei aber die Reichweite.
  • Womit wir wieder beim gleichen Problem wie bei der ersten Kontroverse wären: Diese Daten kennt nur Facebook – und die verantwortlichen Managerïnnen, so schildert es Roose, haben kein Interesse daran, die Zahlen zu veröffentlichen.
  • Der Artikel vermittelt den Eindruck, dass es einem Teil des Führungsteams bei Facebook eher um die Außenwirkung als die Auswirkung des eigenen Produkts geht. Wichtig ist es, die negativen Schlagzeilen über CrowdTangle-Daten zu verhindern – dass lautstarke Rechte und Rechtsextreme einen Teil der Plattform dominieren und kräftige Unterstützung von Facebooks Algorithmus erhalten, scheint das kleinere Problem zu sein.

Be smart: Vier weitere Tech-Bücher, die wir empfehlen

Wir haben in den vergangenen Jahren nicht nur Tausende Texte über Tech-Konzerne gelesen, sondern auch Dutzende Bücher. Einige waren mies, viele gut, manche sehr gut. Wenn du tiefer einsteigen willst, legen wir dir diese vier Bücher ans Herz, die alle im Laufe der vergangenen anderthalb Jahre erschienen sind – und erklären in einem Satz, was sie für uns lesenswert gemacht hat:

  • Steven Levy – Facebook: The Inside Story: Levy gibt tiefe Einblicke in ein intransparentes Unternehmen und verdeutlicht, wie Zuckerbergs Entscheidungen die Welt verändert haben.
  • Alex Kantrowitz – Always Day One: Wie Amazon, Facebook, Google und Microsoft zu den mächtigsten Konzernen der Welt wurden: mit dem absoluten Willen, sich immer wieder neu zu erfinden und alles zu tun, um das nächste große Ding nicht zu verschlafen.
  • Tim Hwang – Subprime Attention Crisis: Personalisierte Werbung ist eine Hunderte-Milliarden-Dollar-Branche – und womöglich eine Blase, die irgendwann platzen könnte.
  • Sarah Frier – No Filter: Was Levy sowie Frenkel und Kang bei Facebook erreicht haben, ist Frier mit Instagram gelungen: ein Blick ins Innenleben einer Plattform, die Popkultur und Politik des 21. Jahrhunderts prägt.

Social Media & Politik

  • Facebook beschuldigt iranische Hacker, die Plattform zum Ausspionieren des US-Militärs zu nutzen: Taking Action Against Hackers in Iran (Facebook Newsroom)
  • Was zeigt der YouTube-Algorithmus zur Bundestagswahl? AlgorithmWatch untersucht in einem Forschungsverbund mithilfe der neuen Datenspende-Plattform „DataSkop“, welche Videos der YouTube-Algorithmus verschiedenen Nutzer·innen zur Bundestagswahl empfiehlt.
  • Die AfD läuft sich auf TikTok für die Bundestagswahl warm: Belltower News hat einen lesenswerten Artikel zum Engagement der AfD auf TikTok verfasst. Wer sich dafür interessiert, wie die AfD versucht, auf der gerade in der jungen Zielgruppe extrem populären Plattform Stimmung zu machen, hier entlang.

Creator Economy

  • Facebook investiert eine Milliarde Dollar in Creator: Ok, ok. Facebook nimmt also bis Ende 2022 eine Milliarde Dollar in die Hand, damit Creator Content für Facebook und Instagram produzieren (Facebook Newsroom). Das klingt natürlich nach einer soliden Option, um endlich für all die spannenden Inhalte bezahlt zu werden, die Creator auf den Plattformen bislang (in den allermeisten Fällen) für umme gepostet haben. Im Vergleich zu YouTube und weiteren Plattformen (The Information) ist der Deal aber gar nicht so klasse. Erstens ist bislang überhaupt nicht transparent, wer von dem Geld profitieren wird. Und auf welche Weise dies geschehen soll. Zweitens ist eine Milliarde Dollar zwar viel Geld, den eigentlichen – wirklich fetten – Kuchen möchte Facebook aber nicht mit Creatorn teilen: Da ist YouTube schon eine Ecke weiter (VOX).


Studien / Paper / Reportings

  • Spotify Culture Next Report 2021: Spotify hat sich angeschaut, „wie Gen Z und Millenials das Audio-Streaming und den Zeitgeist prägen“. Wir selbst haben noch keine Zeit gehabt, den Report in aller Ausführlichkeit zu studieren. Gern möchten wir ihn aber hier bereits heute mit euch teilen.
  • Twitter schaut auf einen entspannten Sommer: Jedenfalls geben das die Datenanalysen her, die Twitter nutzt, um Marketing-Verantwortlichen das Werben auf Twitter schmackhaft zu machen. Hoffen wir das Beste!

Zahl der Woche

  • TikTok verzeichnet 3 Milliarden Installationen: TikTok hat eine Schallmauer durchbrochen, die bislang nur Apps aus dem Hause Facebook geknackt hatten: 3 Milliarden Installationen auf Android- und Apple-Geräten (Sensortower).
    • Das bedeutet nicht, dass drei Milliarden Menschen TikTok nutzen. Viele laden TikTok mehrfach runter. Etwa um sich am Wochenende eine Pause zu gönnen. Oder weil man die App dann doch noch einmal ausprobieren möchte.
    • Die Anzahl der monatlich aktiven Nutzerïnnen (MAU) – die eigentliche und nicht weniger schräge Währung – liegt ca bei 1 Milliarde. An sich auch eine völlig irre Zahl. Allerdings sagt die Anzahl der MAU nicht all zu viel darüber aus, wie viele Menschen die App wirklich nutzen. Um als MAU gezählt zu werden, reicht es in der Regel, die App einmal im Monat zu öffnen.
    • Anyway: Die Zahl „3 Milliarden“ ist ein extrem fettes Ausrufezeichen und zeigt, welche Konkurrenz Facebook da erwächst. Wenn es noch einen Beweis brauchte, hier ist er: TikTok ist gekommen, um zu bleiben.


Schon einmal im Briefing davon gehört

  • Facebook versucht nicht weiter, deine Gedanken zu lesen: Im Juli 2019 berichteten wir, dass Facebook an einem Projekt arbeitet, mit dem sich Gedanken quasi verschriftlichen lassen sollten. Nun erklärt das Unternehmen das Projekt vorerst für beendet (Technology Review) – zu gering seien die Fortschritte gewesen.
  • Netflix setzt auf Gaming: Filme und Serien sind Netflix anscheinend nicht genug. Das Unternehmen baut derzeit – unter der Führung eines ehemaligen Facebook-Managers – eine Gaming-Einheit (Protocol) auf. Das wäre für unser Briefing gar nicht so arg von Interesse, wenn wir nicht derzeit immer wieder beobachten würden, welche Rolle Gaming beim digitalen Miteinander einnimmt. Deine Kids wissen, was wir meinen.
  • Vermessung der deutschsprachigen Twittersphäre: Der geschätzte Internet-Kollege Luca Hammer hat sich in seiner Bachelor-Arbeit damit beschäftigt, wie groß die deutsche Twittersphäre ist. Da Twitter selbst dazu nur bedingt Angaben macht, sind die Zahlen von Luca wirklich spannend. Seine Ergebnisse kann man hier in aller Ausführlichkeit nachlesen: lucahammer.com/ba2020. Bei Sebastian Meineck gibt es ein Interview mit Luca zum Thema. Gern gehen wir demnächst auch noch einmal ausführlich auf das Thema ein. Heute nur so viel:

Jeden Tag gibt es 1 bis 1,5 Millionen neue Tweets auf Deutsch. Sie kommen von 0,76 bis 2,2 Millionen verschiedenen Accounts. Im Median ist ein Account seit vier Jahren auf Twitter, hat 204 Follower und folgt selbst 290 Accounts.


Neue Features bei den Plattformen

Facebook

  • Soundmojis: Emojis können im Facebook Messenger jetzt Geräusche machen (Facebook Newsroom). Kreisch.
  • Group Experts: Gruppen-Admins können jetzt einzelne Personen als Gruppen-Experten benennen (Facebook Newsroom), um sicherzustellen, dass sie zu einem bestimmten Thema gehört werden.

Instagram

  • Full-Screen-Videos: Wie von Insta-Boss Mosseri angekündigt, arbeitet Instagram hinter den Kulissen fleißig daran, Videos künftig auch im Feed in voller Pracht darstellen zu können. Wer bereits einmal schauen möchte, wie das dann aussehen könnte, hier ein erster Eindruck davon (@ alex193a).
  • Sharing is caring: Instagram testet eine Option, mit der Nutzerïnnen in Stories mehr von dem teilen sollen, was sie sich jüngst angeschaut haben. Ermöglicht wird dies über einen neuen „Reshare“-Sticker (Techcrunch). Nun denn.

Twitter

  • Twitter killt Fleets: Nach gerade einmal sieben Monaten begräbt Twitter seine Stories-Funktion wieder. In einem Blogpost heißt es zur Begründung schlicht, dass einfach zu wenig Leute Fleets genutzt hätten. Einige Features sollen in den regulären Tweet-Composer integriert werden – etwa Sticker, Full-Screen-Camera und Textformatierungs-Optionen. Statt Fleets werden künftig dann dann Spaces ganz oben zu sehen sein.
  • Wer auf einen Tweet antworten kann und wer nicht, lässt sich nun auch noch einstellen, nachdem ein Tweet veröffentlicht wurde (@TwitterSafety).

Clubhouse

  • Backchannel: Clubhouse hat jetzt auch eine Messaging-Funktion. Backchannel ermöglicht sowohl 1:1-Kommunikation als auch Gruppen-Chats. Was ihr damit anstellt, ist euch überlassen.
  • Exklusive TED-Talks sind jetzt das neue Ding auf Clubhouse (The Verge).

One more thing


Header-Foto von Brian Kyed bei Unsplash