Sechs Gedanken und Thesen zu KI

Alle reden über KI. Wir haben ein paar Wochen zugehört, jetzt wollen wir mitreden.
Danke fürs Teilen

Ausgabe #869 | 22.3.2023

Was ist

Wenn du deine Oma anrufst, um ihr zum Geburtstag zu gratulieren, und sie mit dir über KI sprechen möchte, dann sollte klar sein: Was gerade passiert, ist kein Blockchain-, sondern ein iPhone-Moment. Mindestens. KI wird die Welt nicht erobern, aber verändern – und zwar nicht in ferner Zukunft, sondern schon heute.

Nehmen wir allein die Produktankündigungen der vergangenen Woche:

  • Google integriert generative KI-Werkzeuge in Produkte wie Gmail, Docs und Meet (Google-Blog)
  • Google öffnet seinen Chatbot Bard für die Öffentlichkeit, bislang gilt das allerdings nur für Menschen aus den USA und Großbritannien (Twitter / Google)
  • Microsoft bringt mit Copilot generative KI zu Word, Excel, Powerpoint und Outlook (Microsoft-Blog)
  • Microsoft baut DALL-E in das neue Bing ein, das damit nicht nur Texte, sondern auch Bilder erzeugen kann (Microsoft-Blog)
  • OpenAI stellt mit dem multimodalen Modell GPT-4 den Nachfolger des Sprachmodells GPT-3.5 vor, das bislang die Grundlage für ChatGPT bildete (OpenAI)
  • Anthropic lanciert mit Claude einen ChatGPT-Konkurrenten, den Unternehmen wie Quora und DuckDuckGo bereits einsetzen (Anthropic)
  • Midjourney veröffentlicht die stark verbesserte Version 5 des KI-Modells, das aus Textanweisungen Bilder generiert (Twitter / Midjourney)
  • Adobe präsentiert die generative KI Firefly, die im Gegensatz zu vielen anderen Modellen ausschließlich mit gemeinfreiem Material trainiert wurde und deshalb keine Probleme mit dem Urheberrecht bekommen soll (Adobe)
  • Roblox möchte es mit Code Assist ermöglichen, mithilfe von KI Videospiele zu entwickeln, ohne Code zu schreiben (Roblox Developer)

Jedes einzelne dieser Ereignisse hätte Stoff für ein ganzes Briefing hergegeben. Wird Bard die Suche im Netz verändern (Platformer)? Kann mit Roblox Code Assist jeder sein eigenes Videospiel schreiben (Ars Technica)? Wie crazy ist es bitte, dass GPT-4 eine komplette Webseite coden kann, wenn man dem Modell eine handgemalte Skizze auf einer Serviette vorlegt (NYT)?

Wir beschäftigen uns an dieser Stelle aber nicht mit einzelnen Entwicklungen und Details, sondern lösen den Blick von der Tagesaktualität. Dafür wählen wir ein ungewöhnliches Format und teilen sechs Gedanken, Beobachtungen und Thesen, die wir in den vergangenen Wochen gesammelt haben.

1. KI hat (noch) nichts mit Intelligenz zu tun

  • Ende Februar veröffentliche OpenAI-Gründer Sam Altman einen Blogeintrag mit dem Titel "Planning for AGI and beyond". AGI steht für Artificial General Intelligence und beschreibt eine Software, die Menschen nicht nur in einer spezifischen Aufgabe überlegen ist, sondern mit jeder intellektuellen Herausforderung umgehen kann. Eine solche Maschine müsste in der Lage sein, selbstständig zu lernen und ihre Fähigkeiten zu erweitern.
  • Altman selbst scheint überzeugt zu sein, dass es nur eine Frage der Zeit ist, bis AGI existiert. Unter Forscherïnnen gibt es dazu keine Einigkeit, viel hängt von dem Wortlaut der Frage und der Definition von AGI ab. Die meisten Forscherïnnen zweifeln an Maschinen mit Bewusstsein (AI Multiple), glauben aber, dass KI in den kommenden Jahrzehnten ein menschliches Intelligenzniveau erreichen könnte (Our World in Data).
  • Aktuelle Large Language Models (LLMs) wie GPT-4 haben jedenfalls nichts mit AGI zu tun. Sie beherrschen bestimmte Aufgaben, haben aber keine Persönlichkeit und entwickeln sich nicht von selbst weiter. Das Gleiche gilt für alle anderen Entwicklungen, die wir als künstliche Intelligenz bezeichnen, seien es Schachcomputer, Navigationssysteme oder Empfehlungsalgorithmen.
  • Der Ausdruck führt also in die Irre. In einem bissigen Essay (Golem) schreibt Jürgen Geuter deshalb: "KI ist nicht so sehr ein technisches Thema als ein Narrativ, daher setze ich KI sonst immer in Anführungszeichen. Zur einfacheren Lesbarkeit des Textes wird darauf im Folgenden verzichtet."
  • Auch wir denken uns die Anführungszeichen nur. Die Bezeichnung ist längst in den allgemeinen Sprachgebrauch übergegangen. Im Gegensatz zu "Fake News" lohnt sich der Widerstand bei AI/KI nicht.
  • Trotzdem ist uns die Differenzierung zwischen KI und Intelligenz wichtig. Noam Chomsky drückt es so aus (NYT):

The human mind is not, like ChatGPT and its ilk, a lumbering statistical engine for pattern matching, gorging on hundreds of terabytes of data and extrapolating the most likely conversational response or most probable answer to a scientific question. On the contrary, the human mind is a surprisingly efficient and even elegant system that operates with small amounts of information; it seeks not to infer brute correlations among data points but to create explanations.

2. KI benötigt kein Bewusstsein für eine Revolution

  • Die Debatte über AGI und alle möglichen Science-Fiction-Szenarien mag wichtig sein, sie ist aber theoretisch und – zumindest für den Moment – hypothetisch. Vor allem lenkt sie ab von den Herausforderungen, die "dumme" KI bereits jetzt mit sich bringt.
  • Maschinen brauchen keine Gefühle, kein Bewusstsein, keine Wünsche, um einschneidende Entwicklungen auszulösen. Uns persönlich ist es ziemlich egal, ob die KI, die bessere Newsletter schreibt als wir, gleichzeitig auch noch Atomphysik beherrscht und sich nach dem Frühling sehnt.
  • Jede Maschine, die eine spezifische Aufgabe besser beherrscht als ein Mensch, ist ein potenzieller Jobkiller, mindestens aber ein Jobveränderer.
  • Manche Diskussionen fokussieren sich auf die Unzulänglichkeiten von KI. In diesem und jenen Examen versagt ChatGPT (AI Snake Oil), außerdem komponieren Menschen immer …

Scroll to Top