Was ist

Im Internet diskutieren zwei mittelalte weiße Männer, ob KI überschätzt wird. Dabei werden sie zunehmend persönlich und scheinen nicht mehr um die Sache, sondern nur noch ums Rechthaben zu streiten.

Klingt unfassbar egal, ist aber tatsächlich interessant. Denn Gary Marcus und Casey Newton verstehen durchaus etwas von KI. Wenn man die Sticheleien und Angriffe ignoriert, bleibt eine spannende Frage übrig: Machen es sich KI-Skeptiker wie Marcus mit ihrer Kritik zu leicht?

Passend dazu ballern Google und OpenAI kurz vor Ende des Jahres noch einmal richtig raus: neue Modelle, Produkte und Funktionen en masse. Wir fassen die wichtigsten Ankündigungen zusammen und binden sie mit Gedanken zur Gegenwart und Zukunft von KI ab.

Wie der Streit zwischen Newton und Marcus eskalierte

  • Wer dieses Briefing schon etwas länger liest, kennt Casey Newton und Gary Marcus. Gerade letzterem stimmen wir nicht immer zu, verlinken aber beide regelmäßig, weil wir ihre Meinungen als wichtige Beiträge zur Debatte über KI ansehen.
  • Newton schreibt mit Platformer einen der besten englischsprachigen Newsletter über KI, zudem hostet er gemeinsam mit Kevin Roose den Podcast Hard Fork der New York Times.
  • Marcus ist emeritierter Professor für Psychologie und Neurowissenschaften. Er forschte viele Jahre an KI und kritisiert seit Jahren den angeblichen Hype um generative KI. Seine teils provokanten Thesen verbreitet er in Interviews mit großen Medien und über seinen eigenen Substack-Newsletter Marcus on AI.
  • Der aktuelle Streit begann vor einer Woche mit einem Newsletter von Newton, in dem er Marcus als Vertreter des "AI is fake and sucks"-Lagers ausmachte. Newton hält einen Großteil der Skepsis an generativer KI für überzogen.
  • Wenige Stunden später reagierte Marcus mit einer pikierten Antwort und verteidigte sich gegen die seiner Meinung nach unfaire Kritik.
  • Das wiederum wollte Newton nicht auf sich sitzen lassen und legte am Montag nach. Der Titel "What I learned from the 'AI is fake and sucks' debate" klingt salomonisch, und tatsächlich gesteht er einen Fehler ein: Er habe an einigen Stellen nicht sauber zwischen KI und generativer KI unterschieden. Der Text endet aber mit einem erneuten Angriff:
What I found in the criticism was a near-total unwillingness to acknowledge that generative AI can do anything good or useful, or to acknowledge that it has improved significantly and rapidly with successive generations. I found a genuine lack of curiosity in whether the scaling laws might get us all the way to superintelligence, and in the risks that clearly await us if it does. I don’t know if this is intellectual dishonesty or simply wishful thinking, but in any case I do think that the blind spots it has produced are real. And it will be fascinating to see whether the fake-and-sucks crowd updates its views (or doesn’t) as LLMs continue to make steady incremental or perhaps even exponential progress in the years ahead.
  • Gestern folgte, Du ahnst es wohl schon, die nächste Erwiderung von Marcus. Leider sinkt mit jeder Antwort der Erkenntnisgewinn, während die Zahl der persönlichen Attacken und Unterstellungen steigt.
  • Alles erinnert an eine Pöbelei auf X, nur länger: Beide unterstellen dem anderen schlechte Absichten, interpretieren jede Aussage als Angriff und fühlen sich missverstanden. Das ist schade, weil es der zunehmend aggressive Ton erschwert, sich auf die Argumente zu konzentrieren.

Worum sich der Streit dreht

  • Wir haben den Eindruck, dass Newton und Marcus gar nicht so weit auseinander liegen. Auf viele Dinge können sie sich einigen: KI wird das Leben von Milliarden Menschen verändern – zum Guten wie zum Schlechten. Sprachmodelle werden nicht unbegrenzt skalieren, der Fortschritt verlangsamt sich. Man sollte nicht alles glauben, was Sam Altman sagt.
  • Wenn man die persönliche Ebene ignoriert, bleibt im Kern eine Differenz übrig: Marcus hält LLMs für 70 Prozent Hype mit 30 Prozent Substanz – Newton sieht es andersherum. (Die Zahlen sind eine Zuschreibung von uns und sollen nur einen Eindruck der jeweiligen Einschätzung vermitteln.)
  • Newton fasst seinen Standpunkt am besten in diesem Absatz zusammen (Platformer):
Ultimately, both the “fake and sucks” and “real and dangerous” crowds agree that AI could go really, really badly. To stop that from happening though, the “fake and sucks” crowd needs to accept that AI is already more capable and more embedded in our systems than they currently admit. And while it’s fine to wish that the scaling laws do break, and give us all more time to adapt to what AI will bring, all of us would do well to spend some time planning for a world where they don’t.
  • Und Marcus beschreibt in seiner ersten Antwort seinen Blick auf KI in drei Punkten:
(1) Of course AI is real. I use speech recognition, GPS navigation, web search, and recommendation engines almost every day. A whole lot of students (perhaps the majority of OpenAI’s users) use LLMs daily to write term papers; coders use it a lot too, as I often note.
(2) LLM’s in particular are wildly overrated. I personally almost never feel the need to use them, though I understand some people have uses for them. They do not deliver remotely what was initially promised of them. (…)
(3) LLMs are already dangerous, despite their limits. Covert racism? Deep fakes? Propaganda? Discrimination in employment, insurance and housing? Many downsides are already here, and potential misuse in the military seems imminent.

Was Google und OpenAI gezeigt haben

  • In unserem Briefing am Dienstag erwähnten wir die "shipmas", die OpenAI verkündet hat: Zwölf Tage lang möchte man neue Produkte präsentieren. Die beiden bislang wichtigsten Vorstellungen sind ChatGPT Pro und die öffentliche Version des Video-Generators Sora.
  • Hinter ChatGPT Pro verbirgt sich ein Abomodell, das mit 200 Dollar pro Monat das Zehnfache des Plus-Abos kostet. Dafür kann man unbegrenzt auf die leistungsfähigsten Modelle zugreifen. Der Mehrwert für Menschen, die ChatGPT nicht gerade sehr dringend für ihre Arbeit benötigen, hält sich ersten Erfahrungsberichten zufolge in Grenzen.
  • Auch Sora bleibt fürs Erste nur einem kleinen Personenkreis zugänglich. Die Geo-Restriktion lässt sich zwar mit einem VPN umgehen, auch in den USA ist das Video-Tool aber nur für zahlende Abonnentïnnen verfügbar, die sich zudem auf eine Warteliste setzen lassen müssen.
  • Das Gleiche gilt für fast alle Ankündigungen von Google. Am Mittwoch stellte der Konzern die nächste Entwicklungsstufe seines leistungsfähigsten Sprachmodells vor (Google-Blog). Zumindest Gemini 2.0 Flash lässt sich zwar schon ausprobieren, wir haben aber noch nicht genug Zeit damit verbracht, um eine aussagekräftige Einschätzung abgeben zu können.
  • Im Zentrum steht aber nicht die neue Iteration von Gemini, sondern "die Ära der KI-Agenten", wie Google es nennt. Damit sind KI-gestützte Werkzeuge gemeint, die Menschen Arbeitsschritte abnehmen und Aufgaben automatisieren sollen. Das Problem: Bislang sind sie nicht öffentlich verfügbar.
  • So spannend die Videos wirken, mit denen Google den universellen KI-Assistenten Project Astra (YouTube) oder den Browser-Navigator Project Mariner (YouTube) vorstellt, und so vielversprechend die Funktion Deep Research (Google-Blog) klingt: Wir raten zur Zurückhaltung.
  • Nach Dutzenden Tech- und KI-Keynotes haben wir eines gelernt: Zwischen fancy Werbevideos und realer Nutzung klafft oft ein tiefer Graben, der mit einer Menge heißer Luft gefüllt ist. Bislang konnten US-Journalistïnnen Astra erst einige Minuten ausprobieren, und auch das nur in einer von Google kontrollierten Umgebung. Um die Tragweite von Googles Ankündigungen abschätzen zu können, ist es deshalb noch zu früh.

Wie wir auf KI blicken

Im März 2023 haben wir sechs Gedanken und Thesen zu KI formuliert, zu denen wir nach wie vor stehen:

  1. KI hat (noch) nichts mit Intelligenz zu tun
  2. KI benötigt kein Bewusstsein für eine Revolution
  3. Menschen werden KI vermenschlichen
  4. Der Umgang mit KI wird eine wichtige Kulturtechnik
  5. Die Gefahren sind real, aber die Panik ist absurd
  6. Es braucht Transparenz und Regulierung

Im vergangenen Mai beschrieben wir sechs Probleme, die im Hype um KI manchmal untergehen. Auch diese Liste ist weiter aktuell:

  1. KI verschlingt gewaltige Ressourcen
  2. Trainingsdaten gehen zuneige
  3. KI könnte sich an sich selbst verschlucken
  4. Sprachmodelle könnten illegal entstanden sein
  5. KI-Hardware ist bislang Schrott
  6. Sprachmodelle skalieren nicht unbegrenzt

Und im Oktober fragten wir mit Blick auf OpenAI, ob das Unternehmen ein tragfähiges Geschäftsmodell besitzt. Bislang hat sich an unseren Bedenken wenig geändert:

Dieser Artikel ist nur für zahlende Mitglieder

Jetzt Mitglied werden und vollen Zugriff auf alle Artikel erhalten.

Jetzt Mitglied werden Hast du schon einen Account? Einloggen