Was ist

Mal wieder einiges los bei OpenAI: Das Unternehmen arbeitet offenbar an einer Erweiterung für ChatGPT, die Google Konkurrenz machen soll (Bloomberg). Zudem entwickelt man ein Programm namens Media Manager, mit dem Urheberïnnen ihre Inhalte von der Nutzung durch Sprachmodelle ausschließen können (TechCrunch).

Beides ist spannend, wir beschäftigen uns heute aber mit einer anderen Ankündigung: OpenAI tritt der Coalition for Content Provenance and Authenticity (C2PA) bei und stellt Forschenden ein Tool zur Verfügung, das helfen soll, synthetische Inhalte zu erkennen (OpenAI). In der C2PA haben sich Unternehmen wie Google, Microsoft und Adobe zusammengeschlossen und entwickeln gemeinsame Standards, um Quelle und Bearbeitungsverfall von Multimedia-Inhalte fest in deren Metadaten zu verankern.

Das klingt eher komplex, doch die technischen Details sind gar nicht so entscheidend. Im Zentrum steht eine Frage: Wie können KI-generierte Inhalte zuverlässig erkannt und gekennzeichnet werden?

Warum das wichtig ist

In den kommenden Monaten stehen Dutzende Wahlen an, darunter in der EU, den USA und drei ostdeutschen Bundesländern. Fast alle großen Plattformen haben Zehntausende Stellen gestrichen und ihre Abteilungen für Trust and Safety drastisch verkleinert. Das allein wäre schon besorgniserregend, doch auf die verbliebenen Teams wartet eine große Herausforderung: eine nie dagewesene Flut an KI-generierten Inhalten.

Die Grenzen zwischen Synthetic Media und Social Media verschwimmen. Balenciaga-Papst (BuzzFeed News), sexualisierte Swift-Fakes (SMWB) und Shrimp Jesus (404 Media, Zeit Online) geben bereits einen Vorgeschmack.

Bislang dominieren Memes, Scam, Clickbait und frauenfeindliche Deepfakes, es ist nur eine Frage der Zeit, bis synthetische Inhalte größeren Stellenwert für politische Kommunikation und Kampagnen bekommen. In den USA machten bereits Deepfakes von Joe Biden (Bloomberg) und gefälschte Fotos von Donald Trump (NYT) die Runde. Gerade im Globalen Süden, wo Plattformen nachweislich nur einen Bruchteil der Ressourcen investieren, um Manipulationsversuche zu verhindern, drohen Wahlkämpfe, in denen man seinen Augen nicht mehr trauen darf.

Wie Plattformen reagieren

In den vergangenen Monaten haben alle relevanten Plattformen ihre Richtlinien verändert oder neue Labels eingeführt:

  • YouTube-Creator müssen Inhalte kennzeichnen, die „mit veränderten oder künstlichen Medien, einschließlich generativer KI, erstellt wurden“ und „leicht mit einer realen Person, einem realen Ort, einer realen Szene oder einem realen Ereignis verwechseln könnten“ (YouTube). Beauty-Filter, Spezialeffekte, Beleuchtungsfilter und eindeutig unrealistische Inhalte („wenn jemand auf einem Einhorn durch eine Traumwelt reitet“) sind davon ausgenommen.
  • TikTok macht ähnliche Vorgaben: „Außerdem verlangen wir von Creatorïnnen, alle KI-generierten Inhalte als solche zu kennzeichnen, die realistische Bilder, realistisches Audio und realistische Videos enthalten“ (TikTok). Zudem „ermuntert“ man Nutzerïnnen, unabhängig davon alle vollständig KI-generierten Inhalte zu kennzeichnen.
  • Meta folgte Anfang April einer Empfehlung des Oversight Board. Demnach will man synthetische Inhalte seltener löschen, dafür aber häufiger automatisch kennzeichnen (Meta):
Our "Made with AI" labels on AI-generated video, audio and images will be based on our detection of industry-shared signals of AI images or people self-disclosing that they’re uploading AI-generated content. We already add "Imagined with AI" to photorealistic images created using our Meta AI feature.

Diese Ansätze haben viele Gemeinsamkeiten. Die Konzerne hoffen, dass Creator freiwillig offenlegen, wenn sie KI verwenden. Parallel setzen sie auf automatisierte Erkennungsmethoden, um Inhalte nachträglich zu labeln.

Die zwei Probleme sind offensichtlich:

  1. Wer bewusst täuschen will, wird KI-Content nicht von sich aus kenntlich machen.
  2. KI ist bislang erstaunlich schlecht darin, KI-Inhalte zu erkennen. Selbst OpenAI gibt in seinem Hilfebereich zu, dass Textdetektoren weitgehend nutzlos sind:
Do AI detectors work? In short, no, not in our experience.  Our research into detectors didn't show them to be reliable enough given that educators could be making judgments about students with potentially lasting consequences. While other developers have released detection tools, we cannot comment on their utility.

Warum Konzerne kooperieren müssen

  • Alle beteiligten Unternehmen sollten daran interessiert sein, KI-Content zu kennzeichnen. OpenAI und Midjourney müssen verhindern, dass generative KI eingesetzt wird, um Menschen in die Irre zu führen. Meta, TikTok und YouTube müssen verhindern, dass sich KI-Fakes auf ihren Plattformen verbreiten.
  • In einer idealen Welt entwickeln alle Konzerne gemeinsam einen möglichst zuverlässigen Detektor und einigen sich auf Wasserzeichen und Metadaten, die plattformübergreifend gültig sind.
  • Konkret bedeutet das: Wenn man ein Video mit Sora von OpenAI generiert und auf TikTok hochlädt, liest die Plattform automatisch die eingebetteten Informationen aus und kennzeichnen den Inhalt als KI-Erzeugnis - mit einem klar erkennbaren Label, das auf allen Plattformen ähnlich aussieht.
  • Zumindest Ansätze gibt es bereits. Auf der Münchner Sicherheitskonferenz im Februar unterzeichneten knapp zwei Dutzend Tech-Konzerne eine freiwillige Vereinbarung, um Manipulationsversuche mit KI zu verhindern (SZ).
  • Solche Kooperationen sind dringend nötig. Bislang funktionieren die Detektoren nur dann halbwegs zuverlässig, wenn es um Inhalte geht, die mit hauseigenen Werkzeugen erstellt wurden. Das neue Tool von OpenAI erkennt etwa rund 98 Prozent der Bilder, die DALL-E 3 generiert. Wer Midjourney verwendet oder den Inhalt bearbeitet, hat deutlich bessere Chancen, die KI auszutricksen.

Dieser Artikel ist nur für zahlende Mitglieder

Jetzt Mitglied werden und vollen Zugriff auf alle Artikel erhalten.

Jetzt Mitglied werden Hast du schon einen Account? Einloggen