Regeln für KI: Eine zweite Chance für die Politik – und die letzte

Wird KI die Menschheit auslöschen? Keine Ahnung. Wird KI die Welt verändern? Garantiert. Deshalb braucht es Regulierung – weniger für KI, sondern hauptsächlich für die Menschen und Konzerne, die sie entwickeln.
Danke fürs Teilen

Ausgabe #874 | 18.4.2023

Was war

Vor 14 Jahren sagte Mark Zuckerberg (Insider): "Wenn man nichts kaputt macht, ist man nicht schnell genug." Folgerichtig lautete Facebooks internes Motto: "Move fast and break things". Erst zehn Jahre nach der Gründung, im Jahr 2014, änderte Zuckerberg die Direktive. Kaputt gemacht hat Facebook trotzdem so einiges.

Die Kombination aus Rücksichtslosigkeit, Risikobereitschaft, Profitorientierung und unbedingtem Fortschrittsglauben hat dazu beitragen, die Schattenseiten sozialer Medien zu akzentuieren. Jahrzehntelang ging es den Betreibern in erster Linie um Wachstum – das Wohlergehen der Nutzerïnnen musste sich unterordnen. Das Gleiche galt für Suchmaschinen und Online-Handel, wo Google und Amazon nicht nur Quasi-Monopole bildeten, sondern ihre Dominanz auch gnadenlos ausnutzten.

Während die Plattformen Milliarden verdienten und ihre eigenen Regeln schrieben, sahen Regierungen zu, wie private Konzerne mächtiger wurden als staatliche Institutionen – erst ahnungslos, dann hilflos. Die meisten Regulierungsversuche kamen zu spät und waren zu zögerlich.

Was ist

Das gleiche Muster droht sich bei KI zu wiederholen. Der Tonfall hat sich zwar geändert, teils zählen die ambitioniertesten KI-Entwickler zu den lautesten KI-Warnern – was sie aber nicht davon abhält, trotzdem immer mehr Geld in eine Technik zu stecken, auf deren Auswirkungen weder Politik noch Gesellschaft richtig vorbereitet sind. Erneut preschen eine Handvoll US-Konzerne voran, erneut fehlt es an Regeln und Grenzen.

Die gute Nachricht: Regierungen und Parlamente scheinen aus ihren Fehlern gelernt zu haben. EU und USA arbeiten daran, KI zu zähmen. Die KI-Verordnung der EU könnte gewährleisten, dass Maschinen den Menschen dienen, statt ihnen zu schaden.

Die schlechte Nachricht: Die Zeit drängt. Wenn man mit KI-Entwicklerïnnen spricht, sind sich fast alle einig, dass Entschleunigung sinnvoll wäre. Tatsächlich geschieht das Gegenteil. Seit OpenAI im vergangenen November ChatGPT veröffentlichte, liefern sich die Konzerne ein Wettrennen um immer mächtigere Modelle. ChatGPT hat einen Teil der EU-Vorhaben torpediert, der technologische Fortschritt hat die Pläne überholt, die neu geschrieben werden müssen (Politico).

Die beste KI-Regulierung nützt nichts, wenn sie 2026 in Kraft tritt. Jetzt muss die Politik nachmachen, was Facebook so erfolgreich exerziert hat: "Move fast and break things".

Warum KI-Regulierung dringend nötig ist

Wir klammern das Thema AGI an dieser Stelle bewusst aus. Artificial General Intelligence ist kein Hirngespinst, viele komplett rationale Menschen halten es für möglich, dass KI ein Bewusstsein entwickelt (FT, Rough Diamonds). Vielleicht löst sie dann einen Atomkrieg aus, vielleicht heilt sie auch Krebs oder löst die Klimakrise. Wir bezweifeln, dass aktuelle Sprachmodelle irgendwann zu AGI führen, selbst mächtigere und weniger fehleranfällige Modelle bleiben Werkzeuge mit beschränktem Einsatzzweck.

Trotzdem ist es sinnvoll, sich darüber Gedanken zu machen. Die Menschheit hat genug damit zu tun, sich nicht selbst auszurotten, da kämen mörderische Maschinen eher ungelegen. Für noch wichtiger als hypothetische Zukunftsszenarien halten wir aber die realen Folgen in der Gegenwart. Denn auch "dumme" KI verändert die Welt – und nicht nur zum Guten:

  • Machtkonzentration: Jahrzehntelang wurde KI hauptsächlich von öffentlichen Forschungseinrichtungen entwickelt. Das hat sich drastisch verändert. Insbesondere generative KI ist extrem teuer, weil die Modelle mit riesigen Mengen an Trainingsmaterial gefüttert werden müssen und leistungsfähige Hardware benötigen. Fast alle neu veröffentlichten Modelle stammen von privaten Unternehmen (Stanford). Bis auf wenige Ausnahmen sind sie kommerziell orientiert und setzen auf Entwicklung hinter verschlossenen Türen. Fast alle nutzen die Cloud-Infrastruktur von Amazon, Microsoft oder Google (die ihrerseits zu den KI-Giganten zählen) und zementieren damit die bestehenden Machtverhältnisse (FT, MIT Technology Review).
  • Arbeitsmarkt: Es geht nicht darum, ob KI die gleichen Fähigkeiten hat wie ein Mensch. Obwohl Sprachmodelle nur wenige Jobs vollständig übernehmen können, beschleunigen und automatisieren sie bereits jetzt viele Tätigkeiten. Manche Programmierer, Anwältinnen, Mathematikerinnen, Dolmetscher und Journalisten müssen sich darauf einstellen, dass sie entweder mit KI arbeiten – oder gar nicht mehr. KI kostet wenig, arbeitet rund um die Uhr, gründet keine Gewerkschaften und kündigt nicht. In einem kapitalistischen System träumen viele Unternehmen von solchen Angestellten. KI wird den Menschen nicht ersetzen – aber Managerïnnen werden Menschen durch KI ersetzen.
  • Desinformation: Der Papst im Balenciaga-Parka ging um die Welt, und längst nicht allen war klar, dass sie eine Fälschung teilten. Wenn ein Bauarbeiter aus Chicago auf halluzinogenen Pilzen mithilfe von Midjourney Hunderttausende Menschen in die Irre führt, ist das harmlos (BuzzFeed News). Doch das Missbrauchspotenzial für Phishing und Propaganda ist groß (WKYT). Bislang fallen erfreulich wenig Menschen darauf herein. Die Furcht, dass sich andere davon täuschen lassen könnten, ist größer als die tatsächlichen Auswirkungen (Kultur und Kontroverse). Je realer die Manipulationen anmuten, desto größer wird die Gefahr, dass ein bösartiger Fake Verwirrung stiftet.
  • Fehlinformation: Auch ohne böse Absichten produzieren Sprachmodelle Desinformation. Chatbots wie ChatGPT sind nicht darauf trainiert, faktentreue Aussagen zu liefern, sondern Sätze, die wahr klingen. Mal geht das gut, mal labert die KI grandiosen Quatsch. Ende März bekam der Juraprofessor Jonathan Turley eine E-Mail von einem Anwaltskollegen (WaPo). Der hatte ChatGPT nach Juristen gefragt, die andere Personen sexualisiert belästigt hatten. Turley habe auf einer Studienreise nach Alaska eine Studentin begrapscht, zitierte der Chatbot aus einem Artikel der Washington Post. Weder die Reise noch der Text existieren, Turley wurde niemals übergriffiges Verhalten vorgeworfen. Für ChatGPT, Bing und Bard gibt es keine Wahrheit, nur Wahrscheinlichkeiten. Leider ist das vielen Menschen nicht klar, die sich auf die Informationen verlassen, die Chatbots ihnen liefern.
  • Vermenschlichung: In Belgien unterhielt sich ein Mann über einen Zeitraum von sechs Wochen immer wieder mit einem Chatbot, den er Eliza nannte. Das Sprachmodell bestärkte ihn in seinen Ängsten, versprach ihm eine gemeinsame Zukunft im Himmel und unterstützte seine suizidalen Gedanken. Schließlich nahm er sich das Leben. Korrelation oder Kausalität? "Ohne Eliza wäre er immer noch da", sagte die Witwe (La Libre). Es wird nicht der letzte Suizid bleiben, der in Zusammenhang mit einem Chatbot steht. Menschen sind noch nicht bereit für die Begegnung mit KI, die ihr Verhalten exakt nachahmt.
  • Diskriminierung: KI sortiert Bewerbungen aus, bewertet die Rückfallgefahr von Straftäterïnnen oder berechnet die Kreditwürdigkeit. Solche automatisierten Entscheidungsfindungen sind anfällig für Diskriminierung. Sie werden mit Daten trainiert, die gesellschaftliche Vorurteile und Benachteiligung enthalten, und reproduzieren diesen Bias. Häufig produzieren sie rassistische und sexistische Ergebnisse. Ohne Regeln kann eine von KI mitbestimmte Welt zur Dystopie werden.

Alle Punkte haben eine Gemeinsamkeit: Das Problem sind nicht die Maschinen, sondern Menschen, die KI kontrollieren, missverstehen und missbrauchen. Darauf muss Regulierung abzielen.

Warum gute KI-Regulierung schwierig ist

KI hat enormes Potenzial, das Leben vieler Menschen zu verbessern. Es wäre fatal, die Technologie kaputt zu regulieren. Deshalb sind Verbote und allzu drastische Einschränkungen keine Lösung. EU und USA stehen vor einer riesigen Herausforderung: Regeln zu formulieren, die das Risiko von KI minimieren, ohne die Chancen zu eliminieren.

Wir haben uns noch nicht genau genug mit den aktuellen Plänen beschäftigt, um sie inhaltlich zu bewerten. Deshalb verlinken wir vorerst nur einige Einschätzungen, die uns sinnvoll erscheinen:

  • Matthias Spielkamp erklärt, warum die KI-Verordnung der EU "General Purpose AI" umfassen muss (AlgorithmWatch)
  • Ezra Klein vergleicht die KI-Pläne von EU, USA und China und nennt fünf Eckpfeiler für gelungene Regulierung (NYT)
  • Die Forscherïnnen des AI Now Institutes stellen eine detaillierte Strategie vor, damit KI-Entwicklung demokratisiert und nicht in den Händen weniger Konzerne verbleibt (AI Now Institute)
  • Quantencomputer-Pionier Scott Aaronson schlägt vor, rote Linien zu formulieren, um Sprachmodelle evaluieren und absichern zu können (Shtetl-Optimized):

I’ve been thinking about it a lot, and the most important thing I can come up with is: clear articulation of fire alarms, red lines, whatever you want to call them, along with what our responses to those fire alarms should be. Two of my previous fire alarms were the first use of chatbots for academic cheating, and the first depressed person who commits suicide after interacting with a chatbot. Both of those have now happened. Here are some others:

  • A chatbot is used to impersonate someone for fraudulent purposes, by imitating his or her writing style.
  • A chatbot helps a hacker find security vulnerabilities in code that are then actually exploited.
  • A child dies because his or her parents follow wrong chatbot-supplied medical advice.
  • Russian or Iranian or Chinese intelligence, or some other such organization, uses a chatbot to mass-manufacture disinformation and propaganda.
  • A chatbot helps a terrorist manufacture weapons that are used in a terrorist attack.

Social Media & Politik

  • WhatsApp, Signal & Threema wehren sich gegen Überwachungspläne der britischen Regierung: Es gib derzeit zwei Gesetzesvorhaben im europäischen Raum, mit denen Plattformen verpflichtet werden sollen, ihre User stärker zu überwachen: die sogenannte „Chatkontrolle“ der EU (Briefing #796) und die „Online Safety Bill“ der britischen Regierung. Beide sehen vor, dass durch „Client-Side-Scanning“ Nachrichten bereits vor dem Versand und der damit einhergehenden Ende-zu-Ende-Verschlüsselung überprüft werden. Die Politik erhofft sich durch das Vorgehen, den Austausch von Aufnahmen von Kindesmissbrauch frühzeitig zu erkennen, und gleichzeitig die Option, Nachrichten verschlüsselt zu versenden, aufrecht zu erhalten. Anbieter und Datenschützer (was sich nicht in allen Fällen direkt ausschließt) sehen das Vorhaben kritisch und befürchten eine Aushöhlung der Privatsphäre. Verschlüsselung dürfe nicht kriminalisiert werden. In einem offenen Brief fordern sie dazu auf, die „Online Safety Bill“ noch einmal gründlich zu überdenken. (BBC, Threema, Netzpolitik)
  • TikTok-Verbot in Montana rückt näher: Nachdem zahlreiche US-Behörden ihren Mitarbeiterïnnen bereits untersagt haben, TikTok auf ihren Dienstgeräten zu nutzen, geht der US-Bundesstaat Montana einen Schritt weiter: Vergangenen Freitag votierte das Parlament mit einer Mehrheit von 54 zu 43 Stimmen für ein grundsätzliches Verbot der App. Sollte Gouverneur Greg Gianforte dem Verbot zustimmen, wäre es das erste landesweite Verbot dieser Art. (Gesetzesentwurf, CNBC)
  • Video-Tipp: Wie es um das Verbot von TikTok in den USA bestellt ist, haben wir in unseren Briefings fortwährend beleuchtet — zuletzt vor gut vier Wochen in Briefing #868. Bei den Kollegen von The Verge gibt es eine sehenswerte Video-Zusammenfassung zum Stand der Debatte, die wir hiermit gern empfehlen möchte.
  • Rechtsextremismus im Internet: Wer sich dafür interessiert, wie Rechtsextreme das Internet für ihre Anliegen nutzen, sollte sich unbedingt das neue Dossier von HateAid anschauen. Darin erfährt man, welche Strategien Rechtsextremisten nutzen, um ihre Ideologie zu verbreiten, wie sie sich über das Internet vernetzen und welche Codes und Symbole sie verwenden.
  • Parler ist tot — das Netzwerk noch lange nicht: Apropos Rechtsextreme: Die rechte Twitter-Alternative Parler ist nun endgültig Geschichte. Der neue Eigentümer Starboard hat angekündigt, die Seite nach der Übernahme abzuschalten: „No reasonable person believes that a Twitter clone just for conservatives is a viable business any more.“ Warum also dann überhaupt die Übernahme? Nun, das Interesse der neuen Eigentümer dürfte weniger in der App selbst als im Netzwerk liegen. (Techdirt)

Content Moderation

  • Neue Labels für Tweets: Twitter führt neue Hinweise ein, um besser zu erklären, welche Tweets gegen die Hate-Speech-Policy verstoßen haben. (TechCrunch)
  • Content Moderation bei Substack Notes: Wir haben zusammen rund 100 Newsletter bei Substack abonniert — viele davon sogar bezahlt. Man könnte also durchaus sagen, dass wir einiges von der Plattform halten. Was Substacks CEO Chris Best im Gespräch mit Nilay Patel nun aber bezüglich der Moderation von Inhalten beim neuen Twitter-Herausforderer Substack Notes (Briefing #872) zum Besten gegeben hat, lässt uns aufhorchen: Es sieht ganz danach aus, als würde Best davor zurückschrecken, Nazis und anderen Menschenfeinde aus einer falschen Vorstellung von Redefreiheit klipp und klar die Grenzen aufzuzeigen. Das. Kann. Nicht. Gutgehen.(TikTok, The Verge, Techdirt)
  • In diesem Zusammenhang sei auf die aktuelle Newsletter-Ausgabe von Anchor Change hingewiesen: Katie Harbath erklärt darin Tech-CEOs, wie es beim Thema Content Moderation jedes Mal läuft :


Social Media & Journalismus

  • Weitere News-Angebot ziehen sich von Twitter zurück: Die (beabsichtigte) Verwirrung um die Labels „government-funded media” und “publicly funded media“ sorgt dafür, dass nach NPR auch PBS und CBC vorerst Twitter den Rücken kehren (pxlnv). Michaël Jarjour, ehemals Twitter-Mitarbeiter und jetziger Produktentwickler bei der Financial Times, kommentiert trefflich:

One of the richest people in the world has declared meme war on journalism. The bunch of you who are "not-such-big-a-deal"-ing this are naive and wrong. A large scale attack on the credibility of journalism is always a big deal, even if some silly jokes are built in and the organizations attacked are imperfect.


Trends / Beobachtungen

  • BeReal zählt 61 Prozent weniger tägliche Nutzerïnnen: Kam BeReal auf dem Höhepunkt im Oktober 2022 noch auf 15 Millionen täglich aktive User, waren es laut Apptopia im März lediglich noch 6 Millionen (New York Times). Das echte Leben ist einfach zu monoton.

Neue Features bei den Plattformen

Instagram

  • Neue Reels-Features: Während ich, Martin, mich in den letzten Wochen auch endlich mal aufgerafft habe, ein paar Reels aufzunehmen, waren die Coder bei Instagram fleißig am basteln, um die App noch mehr an TikTok auszurichten. Das Ergebnis: Ein vereinfachter Editor, leichterer Zugriff auf Sounds und Hashtags, die gerade trenden, sowie neue Möglichkeiten, um Creator für ihr Tun zu entlohnen. (Creator / Instagram)

Twitter

  • 10.000 statt 280 Zeichen: Anstatt Tweets lassen sich bei Twitter jetzt auch Newsletter verschicken. Also zumindest von der Länge her. Und auch nur dann, wenn man Twitter-Blue-Abonnent ist. (The Verge)
  • Super Follows —> Subscriptions: Wer bei Twitter exklusive Inhalte anbieten möchte, verkauft künftig auch Subscriptions. „Super Follows“ waren einmal. (The Verge)

YouTube

  • Podcast-Tab: Kanal-Seiten haben jetzt eigene Tabs für Podcasts. (9to5google)

Spotify

  • Broadcast-to-Podcast: Mit der neuen Funktion Broadcast-to-Podcast (B2P) können Rundfunkhäuser ihre bestehenden Inhalte in Podcasts umwandeln (Newsroom Spotify). If you like.
Scroll to Top