KI und Journalismus: Die Grenzen der Automatisierung

Verlage haben das Internet unterschätzt und Social Media lange Zeit nicht verstanden. Jetzt rollt die dritte Digitalisierungswelle. Schaffen es Medien, sich für KI zu öffnen, ohne journalistische Grundsätze aufzugeben und ihr Geschäftsmodell zu gefährden?
Danke fürs Teilen

Ausgabe #896 | 15.8.2023

Was ist

Es war eine kleine Änderung mit großer Symbolwirkung, und es brauchte eine Weile, bis sie jemandem auffiel. Anfang August aktualisierte die New York Times ihre Nutzungsbedingungen (NYT), erst eine Woche später schrieb Adweek:

The New York Times updated its terms of services Aug. 3 to forbid the scraping of its content to train a machine learning or AI system. (…) The updated TOS also prohibits website crawlers, which let pages get indexed for search results, from using content to train LLMs or AI systems.

Anders ausgedrückt: Die Times sperrt KI-Unternehmen aus, die Texte der Times nutzen wollen, um Sprachmodelle damit zu trainieren, die irgendwann Texte ausspucken sollen, die denen der Times ähnlich sind. Das klingt, aus Sicht der Times, nach einer nachvollziehbaren Entscheidung: Warum sollte man Tech-Konzernen und Start-ups helfen, die das eigene Geschäftsmodell gefährden?

Es steckt aber noch ein wenig mehr dahinter. Der Fall zeigt, welche Verlage vom KI-Boom profitieren könnten, und wer womöglich noch weiter abgehängt wird. Wir machen uns also ein paar Gedanken über Journalismus im Zeitalter der künstlichen Intelligenz, stecken davor aber nochmal kurz den Rahmen ab.

Was KI kann – und was nicht

  • Sprachmodelle wie ChatGPT sind faszinierend, aber dumm. Sie können hilfreich sein, oft sind die Antworten aber komplett unbrauchbar.
  • An jeder Ecke im Netz will dir ein Produktivitätsguru weismachen, dass KI eine Art Cheatcode für nahezu alles im Leben ist: Arbeit, Freizeit, Selbstoptimierung.
  • Wir halten das für Quatsch. Chatbots können für manche Aufgaben hilfreich sein, Stand jetzt liegt das größte Potenzial aber in der Automatisierung eher banaler Arbeitsschritte.
  • Mit Blick auf den Journalismus bedeutet das: KI ist kein Ersatz für Menschen, die professionell recherchieren, schreiben und produzieren.

Warum KI trotzdem Jobs im Journalismus kosten wird

  • "Journalismus wird durch generative künstliche Intelligenz entweder besser oder zerstört", sagte Springer-Chef Mathias Döpfner auf einer Veranstaltung seines Verlags im Mai (Axel Springer).
  • Einen Monat später schrieb er in einer internen E-Mail, dass man "sich leider von Kollegen trennen müsse", deren Aufgaben durch KI und andere digitale Prozesse ersetzt würden (Twitter / Anton Rainer).
  • Danach hörte sich Andrian Kreye bei Springer um und erfuhr (SZ):

Redet man dann nicht nur mit dem Verlag, sondern auch mit der Technikabteilung bei Springer, relativiert sich die Geschichte vom Jobkiller KI recht rasch in der technischen Wirklichkeit. Layout? Kann KI noch nicht so gut, dass man das einsetzen könnte. Das macht noch mehr Arbeit, als es einspart.

  • Dieses Beispiel zeigt deutlich, wer hier Jobs vernichtet: Es sind nicht die vermeintlich gleichwertigen Maschinen, sondern Manager, die ohnehin eingeplanten Stellenabbau zur "KI-Offensive" erklären.
  • Personalkosten sparen? Check? Sich selbst als fortschrittlich und technologieoffen verkaufen? Double check. Win-win also – na ja fast, bis auf die Menschen, die jetzt ohne Job dastehen.
  • So machen es IBM, die British Telecom und Axel Springer, und es ist nur eine Frage der Zeit, bis weitere Verlage diesem fragwürdigen Vorbild folgen.

Wie Medien KI nicht einsetzen sollten

  • Die gute Nachricht: Wer mit KI im redaktionellen Kontext experimentieren möchte, findet wahrlich genug abschreckende Beispiele. Es wäre also ziemlich einfach zu erkennen, wie man es nicht machen sollte.
  • Die schlechte Nachricht: Kostendruck und Schamlosigkeit führen in unschöner Regelmäßigkeit zu Auswüchsen, die jegliche journalistische Integrität vermissen lassen (Vox).
  • Anfang des Jahres ging es los mit CNET, das Dutzende Ratgeber zu Finanzthemen veröffentlichte, die von einer KI verfasst wurden – komplett ohne Kennzeichnung (Futurism). Die Texte waren so, wie man das erwarten kann, wenn man einem Sprachmodell die Tastatur überlässt: übersät mit Fehlern und Plagiaten.
  • Man muss nicht über den Atlantik schauen, um in journalistische Abgründe zu blicken. Autor und Fotograf des Burda-Extrahefts "99 Pasta-Rezepte" waren ChatGPT und Midjourney, der Verlag hielt es nicht für nötig, Leserïnnen zu informieren.
  • "Burdas Experiment mit der journalistischen Glaubwürdigkeit ist fahrlässig", sagt der BJV-Vorsitzende Michael Busch (SZ). "Wer seine Leserinnen und Leser über den Einsatz von KI-Tools täuscht, unterhöhlt das Vertrauen, das diese in eine Publikation setzen."
  • Im Intranet rechtfertigte sich der Burda-Vorstandsvorsitzende Martin Weiss: "Niemand auf der Welt zahlt dafür, dass wir gute Journalisten haben, sondern weil sie gute Rezepte oder Unterhaltung suchen." (SZ)
  • Das ist immerhin ehrlich: KI produziert keinen Journalismus, sondern leicht verdauliche Inhalte.

Wie Medien KI seit Jahren einsetzen

  • Für viele Menschen war die Veröffentlichung von ChatGPT Ende 2022 ein Erweckungserlebnis: Das ist also KI, das ist ja tatsächlich spannend, vielleicht verändert das auch mein Leben. Am eigenen Laptop konnten alle ausprobieren, welch große Fortschritte Sprachmodelle in den vergangenen Jahren gemacht haben.
  • KI ist aber gar keine neue Technologie, die Entwicklung läuft seit Jahrzehnten. Die technische Grundlage für ChatGPT legte Google vor sechs Jahren (Google AI Blog). 2020 gelang DeepMind ein Durchbruch bei der Proteinfaltung (Spektrum), der genauso bedeutend sein könnte wie Chatbots.
  • Ein Sprachmodell, das in Sekundenschnelle Apps programmiert, Gedichte schreibt und alle möglichen standardisierten Tests besteht, ist aber auf den ersten Blick beeindruckender als biochemische Probleme oder neue Architekturen für neuronale Netzwerke.
  • So ähnlich ist es auch im Journalismus: Redaktionen setzen KI seit vielen Jahren ein, aber plötzlich sprechen alle darüber, weil Sprachmodelle Inhalte ausspucken, die man beim oberflächlichen Lesen mit Journalismus verwechseln könnte.
  • KI hilft etwa, Interviews zu transkribieren, Hasskommentare zu filtern und riesige Datenmengen zu durchsuchen. Investigative Recherchen wie die Panama Papers, die auf gewaltigen Leaks beruhen, wären ohne KI viel mühsamer. Menschen müssten vermutlich jahrelang suchen, bis sie Geschichten in den Bergen von Dokumenten entdecken.
  • Auch KI als Autor ist kein neues Phänomen. Standardisierte Meldungen wie Sportberichte auf Lokalebene werden längst von Maschinen verfasst, oft stammen auch personalisierte Texte in aufwendigen Datenrecherchen von KI, etwa bei Auswertungen auf Orts- oder Landkreisebene.

Wie Medien KI in Zukunft einsetzen

  • Es gibt kein großes Medienhaus, das nicht darüber nachdenkt, ob, wie und wofür KI bei der redaktionellen Arbeit nützlich sein kann.
  • Die Hoffnung ist, dass KI Menschen repetitive Arbeit abnehmen kann und damit Ressourcen für Recherchen und Reportagen schafft – Dinge, die Maschinen wohl kaum übernehmen können.
  • Die Frage lautet: Wo werden Verlage die Grenzen ziehen? Werden sie trotz Medienkrise und ökonomisch schwierigen Zeiten der Versuchung widerstehen, teure Redakteurïnnen zumindest teilweise durch Maschinen zu ersetzen, die zwar schlechtere Ergebnisse liefern, aber nur einen Bruchteil kosten?
  • Knapp zwei Dutzend Medien haben bereits Richtlinien veröffentlicht, nach welchen Standards KI zum Einsatz kommen soll (Nieman Lab).
  • Das Spektrum ist breit. Ausgerechnet das Tech-Magazin Wired, dem wohl wirklich niemand Technologiefeindlichkeit vorwerfen kann, legt sich selbst restriktive Vorgaben auf (Wired):

We do not publish stories with text generated by AI, except when the fact that it’s AI-generated is the whole point of the story. This applies not just to whole stories but also to snippets—for example, ordering up a few sentences of boilerplate on how Crispr works or what quantum computing is.

  • So absolut schließt kaum jemand sonst den Einsatz von KI aus. Die meisten Richtlinien kann man so zusammenfassen: Wenn wir KI einsetzen, informieren wir unsere Leserïnnen. Wir veröffentlichen keinen Text, der von KI geschrieben wurde, ohne dass er von Menschen redaktionell bearbeitet wurde.

Was das alles mit der Times zu tun hat

  • Die Times ist das wohl erfolgreichste Medienhaus der Welt, das im Kerngeschäft echten Journalismus produziert (was Digitalunternehmen wie Axel Springer oder Murdochs Unterhaltungs- und Boulevardmaschine News Corp ausschließt). Die altehrwürdige Zeitung lebt vor, wie digitale Transformation gelingen kann, und ist zu Recht ein Vorbild für Verlage weltweit.
  • Deshalb ist es spannend zu sehen, wie sich die Times zu KI positioniert. Bislang scheint sie einen Weg zu gehen, der nur wenigen anderen Medien offensteht.
  • Erst schloss man im Februar einen Vertrag mit Google (NYT). Der Suchmaschinenbetreiber darf Inhalte der Times nutzen, die bekommt dafür rund 100 Millionen Dollar über drei Jahre (WSJ).
  • Dann folgte das eingangs beschriebene Aussperren der KI-Crawler, verbunden mit einem Ausstieg aus der AI Coalition (Semafor). Dieser Zusammenschluss mehrerer großer Medien wollte auf Augenhöhe mit Konzernen wie OpenAI verhandeln, um Inhalte zu lizenzieren und KI-Werkzeuge einzusetzen.
  • Offenbar glaubt die Times (nicht ganz zu Unrecht), dass sie ihre Marktmacht ausspielen und allein die besten Deals für sich herausschlagen kann (Nieman Lab):

And let’s just be honest: The archives of The New York Times (…) are vastly more valuable to a future ChatGPT than any collection of Gannett local papers can be. So the Times, smartly, has figured out that it’ll probably be better off cutting its own deals. But as you hear all that little-guy rhetoric in the coming years, remember that AI licensing isn’t likely to be an equal boon for everybody.

Wie Medien mit KI-Konzernen umgehen sollten

  • Als Facebook News 2021 in Deutschland startete, schrieben wir (#723):

Facebook und Google versuchen seit Jahren, Verlage für sich einzunehmen und gesetzlicher Regulierung oder Zwangszahlungen wie dem Leistungsschutzrecht zuvorzukommen. Beide Konzerne haben Hunderte Millionen Euro in journalistische Projekte investiert und wollen in den kommenden Jahren jeweils mehr als eine Milliarde ausschütten. Für die darbende Medienbranche ist das verdammt viel Geld, doch Verlage sollten ganz genau überlegen, wer von den "Kooperationen" am Ende wirklich profitiert. (Spoiler: Facebook und Google zählen zu den mächtigsten Unternehmen der Welt, weil sie gute Produkte anbieten – und weil sie selten schlechte Deals machen.)

  • Zwei Jahre später lässt sich das Gleiche über OpenAI, Microsoft, Google oder Meta sagen. Wenn Sam Altman das Zuckerberg-Playbook entdeckt und (sinnvolle) Journalismus-Initiativen fördert (Axios), ist das in erster Linie gutes Lobbying. Auch Google, das mit einem KI-Tool namens Genesis Medien umgarnt (NYT), wird den Journalismus nicht retten.
  • Tech-Konzerne sind größtenteils börsennotierte Unternehmen, die in erster Linie an ihrem eigenen Wohl interessiert sind. Das ist legitim, man sollte sich nur keine Illusionen machen.
  • Interessant ist aber, dass die Verhandlungsposition der Medien diesmal besser sein könnte als etwa bei Facebook. Social Media war mit Ausnahme von Twitter nie auf journalistische Inhalte angewiesen, doch für KI braucht es Trainingsdaten – und Medien liefern massenhaft relativ hochwertiges Anschauungsmaterial.
  • Das zeigt etwa der Vertrag, den kürzlich AP mit OpenAI schloss (Axios). OpenAI darf das Archiv der Nachrichtenagentur nutzen, dafür erhält AP Zugriff auf Technologie von OpenAI.
  • Völlig ungeklärt sind noch alle Fragen rund ums Urheberrecht. Dürfen Tech-Konzerne ihre Systeme mit Inhalten von Medien, Autorinnen, Drehbuchschreibern und Künstlerinnen trainieren? Verletzt generative KI die Rechte der Urheberïnnen?
  • Aktuell formen sich Allianzen (European Publishers Council), Klagen werden eingebracht, die in den kommenden Monaten und Jahren Gerichte beschäftigen werden (NYT).

Be smart

Und was, wenn alles doch mehr Hype als Substanz ist (Gary Marcus)?

AI is not a magical economic engine; it works brilliantly in some use cases (such as selling ads, helping coders write code faster, playing classic board games) but in many others it simply isn’t reliable enough (e.g., truly autonomous driverless cars, medical diagnosis, ChatGPT-style search).

The astronomical valuations for Generative AI companies might be justified, but might well not be. Thus far, the valuations seem to be predicated on hopes and dreams, without really factoring in the serious engineering risks.

Trotz aller Anstrengungen und Versprechungen sind OpenAI und Bard nach wie vor Desinformations-Schleudern (NewsGuard). Wenn Medien KI auch für die Produktion von Inhalten einsetzen wollen, müsste die Technologie zumindest etwas zuverlässiger werden – doch manche Expertïnnen haben Zweifel (Fortune):

Anthropic, ChatGPT-maker OpenAI and other major developers of AI systems known as large language models say they’re working to make them more truthful.

How long that will take — and whether they will ever be good enough to, say, safely dole out medical advice — remains to be seen.

“This isn’t fixable,” said Emily Bender, a linguistics professor and director of the University of Washington’s Computational Linguistics Laboratory. “It’s inherent in the mismatch between the technology and the proposed use cases.”


Follow the money

  • TikTok als Wachstumsmotor für ByteDance: The Information berichtet, dass das China-Geschäft von ByteDance nicht mehr so stark wächst wie in den vergangenen Jahren. Dadurch rücken die Apps, die außerhalb von China ausgerollt wurden, stärker in den Fokus. Das Hauptaugenmerk liegt dabei auf TikTok. Apps wie CapCut, Lemon8, Lark und Resso verbuchen zwar bereits bemerkenswerte Nutzerzahlen, TikTok hat aber gerade durch den Fokus auf neue Shopping-Funktionen das größte Potential, zur echten Cashcow zu werden. Gehen wir also mal davon aus, dass sich die Kurzvideo-App in den kommenden Jahren noch stärker in Richtung E-Commerce entwickeln wird.

Next (AR, VR, KI, Metaverse)

  • Zoom: Nutzung von Inhalten für KI-Training nur bei Zustimmung: Hach, was war das für ein Hin und Her. Erst ein Update der Terms of Services, aus dem hervorging, dass Zoom künftig Inhalte aus Konferenzen zum Training der hauseigenen KI nutzt. Dann ein Zurückrudern via Blogpost, jetzt also noch einmal eine neue Fassung der ToS, um klarzumachen: Nope, Zoom nutzt keine Inhalte ohne ausdrückliche Zustimmung der User. Nun ja. Wir sind mal gespannt, wie das weitergeht. Ein Geschmäckle bleibt. (The Verge)

Neue Features bei den Plattformen

Instagram

TikTok

  • TikTok arbeitet an einer Option, Lemon8-Beiträge bei TikTok crosszuposten. (TechCrunch)

YouTube

  • Ab dem 31.8. wird es nicht mehr möglich sein, Links bei YouTube Shorts zu posten (Google). Schade für alle, die auf Affiliate-Links angewiesen sind. Nicht so schade für die ganzen Scammer da draußen.

Snapchat

  • Snapchat hat eine neue Variante von BeReal gelauncht: Das Feature „After Dark“ ermöglicht Usern das Teilen von Inhalten nach 20:00 Uhr. Der Clou: Nur wer ebenfalls in seine Story postet, kann die Inhalte der Freunde sehen. (Social Media Today)

Telegram

  • Telegram wird zehn und rollt zum Geburtstag das Stories-Feature für alle Nutzerïnnen aus. (TechCrunch)

Substack

  • Bei Substack kann man anderen jetzt folgen. Bislang ging das nur, indem man sich für den Empfang des Newsletters einträgt. Die neue Follow-Option soll quasi eine Art Erstkontakt sein, um zu schauen, ob man nicht später regulärer Subscriber wird. (Substack)
Nach oben scrollen
WordPress Cookie Plugin von Real Cookie Banner