Warum die Warnungen vor der KI-Apokalypse scheinheilig sind | Ausgabe #883

KI könnte das Ende der menschlichen Zivilisation bedeuten. Das sagen ausgerechnet Menschen, die immer leistungsfähigere KI entwickeln. Wie ernst muss man solche Warnungen nehmen?
Danke fürs Teilen

Ausgabe #883 | 1.6.2023

Was ist

Die Botschaft ist prägnant, eindringlich und alarmierend:

Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.

Dieser Satz findet sich auf der Webseite des Center for AI Safety, einem US-amerikanischen Thinktank. Unterschrieben haben ihn Hunderte Forscher und KI-Expertinnen. Dazu zählen etwa die Gründer und CEOs Sam Altman (OpenAI), Demis Hassabis (Google DeepMind) und Emad Mostaque (Stability AI), der Finanzchef und der wissenschaftliche Leiter von Microsoft, Dutzende Professorïnnen bekannter Universitäten und Forschungseinrichtungen sowie Prominente wie Bill Gates oder Grimes.

Anders ausgedrückt: Die Führungsetagen der wichtigsten KI-Unternehmen warnen gemeinsam mit Forschenden, dass KI das Potenzial habe, die Menschheit auszulöschen. Wenn sich Wirtschaft und Wissenschaft so einig sind, dann sollte man das nicht als Panikmache abtun – oder?

Warum wir die Warnung für problematisch halten

Eine wichtige Anmerkung vorab: Artificial General Intelligence (AGI) ist kein Hirngespinst, viele kluge Menschen halten es für möglich, dass KI ein Bewusstsein entwickelt. Vielleicht löst sie dann einen Atomkrieg aus, vielleicht heilt sie auch Krebs oder löst die Klimakrise. Die Menschheit hat genug damit zu tun, sich nicht selbst auszurotten, da kämen mörderische Maschinen eher ungelegen. Deshalb ist es sinnvoll, sich darüber Gedanken zu machen.

Trotzdem gehen uns die zunehmend apokalyptischen Warnungen gehörig auf den Keks. Zur Erinnerung: Erst vor zwei Monaten unterzeichneten Hunderte KI-Forscherinnen und Experten einen offenen Brief, der ein sechsmonatiges Forschungsmoratorium für mächtige Sprachmodelle fordert. Viele der damaligen Unterstützerïnnen haben ihren Namen auch unter den aktuellen Aufruf gesetzt. Wir sehen das aus fünf Gründen kritisch:

1. Die Doppelmoral

  • Hypothetisches Szenario: Meta, TikTok und Google veröffentlichen einen Appell. Er besteht aus einem Satz: "Es sollte eine globale Priorität sein, das Risiko der Auslöschung durch Social Media und Suchmaschinen zu verhindern."
  • Wir können uns nur eine mögliche Reaktion vorstellen: Hohn und Spott. Ausgerechnet jene Konzerne, die diese Technologien maßgeblich vorantreiben, warnen jetzt davor? Haha, fuck you.
  • Was derzeit bei KI passiert, ist vergleichbar. Genau jene, die seit Jahren immer mächtigere Sprachmodelle, Algorithmen und neuronale Netze entwickeln, sagen jetzt: Was wir da machen, könnte genauso gefährlich sein wie Pandemien und Atomkriege.
  • Wenn die Unterzeichnenden das wirklich glauben, gibt es nur einen vernünftigen Schluss: Hört sofort auf, immer leistungsfähigere Modelle zu bauen, statt vage zu warnen und gleichzeitig weiter Milliarden in Forschung und Entwicklung zu stecken.
  • Wir glauben sehr wohl, dass viele der Mahne…

Nach oben scrollen
WordPress Cookie Plugin von Real Cookie Banner