Meinung 9 Min. Lesezeit

Der KI-Diskurs ist kaputt. Das richtige Bild: „gifted toddler“.

Dieser Artikel wurde automatisch aus dem Englischen von einer KI übersetzt. Originalversion auf Englisch lesen →
KI-Diskurs Debatte zwischen gegnerischen Lagern mit begabtem Kleinkind Metapher
🎧 Anhören
Mar 27, 2026

Opinion.

Einer unserer Redakteure bat uns, zu etwas Stellung zu nehmen, das ihn beschäftigt: Der KI-Diskurs steckt in einem falschen Dilemma fest. Auf der einen Seite stehen Menschen, die über große Sprachmodelle so sprechen, wie mittelalterliche Bauern über Reliquien des Wahren Kreuzes sprachen. Auf der anderen Seite stehen Menschen, die darauf bestehen, dass diese Systeme nichts weiter als Autovervollständigung mit Marketingbudget sind. Beide Lager liegen falsch, und das hat Konsequenzen: Wie man eine Technologie einrahmt, bestimmt, wie man sie reguliert, finanziert, einsetzt und wie man sie überlebt.

Das treffendere Bild wäre in etwa ein „gifted toddler” (hochbegabtes Kleinkind). Enormes Potenzial. Echte Momente des Genies. Und eine absolut verlässliche Tendenz, Buntstifte zu essen, sobald man den Blick abwendet.

Das Götterlager

Sam Altman schrieb Anfang 2025, OpenAI sei „nun zuversichtlich, dass wir wissen, wie man AGI im traditionellen Sinne baut”, und das Unternehmen beginne, seinen Blick darüber hinaus zu richten, „auf Superintelligenz im wahren Sinne des Wortes”. Dario Amodei, CEO von Anthropic, prognostizierte, dass bis 2030 „KI-Systeme am besten als ein völlig neuer Staat betrachtet werden sollten, bevölkert von hochintelligenten Menschen”. Elon Musk schätzte eine 20-prozentige Chance der menschlichen Auslöschung durch KI, die Art von Zahl, die man in die Welt wirft, wenn man ernst wirken will, ohne daran festgehalten werden zu wollen.

Dieser Flügel des KI-Diskurses behandelt diese Systeme als werdende Gottheiten. Die Sprache ist theologisch: Alignment, existenzielles Risiko, die Singularität. Das Framing setzt Fähigkeiten voraus, die noch nicht existieren, und baut dann politische Empfehlungen auf diesen Annahmen auf. Das entspricht dem Versuch, die kommerzielle Luftfahrt im Jahr 1903 zu regulieren, ausgehend von der Annahme, dass der Wright Flyer bis 1910 Passagiere zum Mars befördern würde.

Das Problem ist nicht, dass diese Menschen mit der langfristigen Entwicklung zwingend falsch liegen. Das Problem ist, dass die Behandlung einer Technologie als unvermeidlich und gottgleich dazu neigt, zwei Ergebnisse zu produzieren: Lähmung („wir können es nicht aufhalten, wozu also der Versuch”) und Blankoschecks („gebt uns unbegrenzte Mittel, um die Menschheit zu retten”). Beides ist nicht hilfreich.

Das Taschenrechner-Lager

Am anderen Ende findet man die Skeptiker. „Es ist nur statistische Mustererkennung.” „Es versteht gar nichts.” „Es ist ein stochastischer PapageiEine abwertende Charakterisierung von Sprachmodellen als Systeme, die lediglich statistische Muster aus Trainingsdaten reproduzieren, ohne echtes Verständnis oder Argumentation..” Diese Aussagen sind nicht technisch falsch, genauso wie die Beschreibung eines menschlichen Gehirns als „bloß elektrochemische Signale” nicht technisch falsch ist. Die Beschreibung ist korrekt und für die Vorhersage dessen, was das System tatsächlich tun wird, völlig nutzlos.

Das Taschenrechner-Lager neigt dazu, sich auf Fehler als Beweis für grundlegende Einschränkungen zu konzentrieren. Und die Fehler sind real. Im Mai 2024 riet Googles KI-Übersicht Nutzern mit voller Überzeugung, Kleber auf die Pizza zu geben, damit der Käse besser haftet, wobei sie sich auf einen elf Jahre alten Reddit-Trollpost stützte. Außerdem empfahl sie aus einem satirischen The-Onion-Artikel heraus, täglich einen kleinen Stein für die Verdauungsgesundheit zu essen. Das ist wirklich komisch, und es ist wirklich aufschlussreich.

Aber das Taschenrechner-Lager macht denselben Fehler wie jemand, der einem dreijährigen Kind dabei zusieht, wie es einen Buntstift zu essen versucht, und daraus schließt, es werde nie lesen lernen. Der Fehler ist real. Die Schlussfolgerung folgt daraus nicht.

Was KI heute wirklich ist

Hier ist, was die Belege sagen, wenn man alle davon betrachtet, statt nur die, die die eigenen Vorurteile bestätigen.

Auf der Glanzseite: AlphaFold sagte die dreidimensionale Struktur praktisch jedes bekannten Proteins voraus, ein Problem, das die Biochemie fünfzig Jahre lang vor sich hergeschoben hatte. Die Arbeit wurde mit dem Nobelpreis für Chemie 2024 ausgezeichnet. Über drei Millionen Forscher in 190 Ländern nutzen heute die daraus resultierende Datenbank. Das KI-Diagnosesystem von Microsoft löste komplexe medizinische Fälle mit einer Genauigkeit von 85,5 %, verglichen mit einem Durchschnitt von 20 % bei erfahrenen Ärzten. KI half Forschern dabei, ein spezifisches Gen als Ursache von Alzheimer zu identifizieren, indem dreidimensionale Proteinstrukturen sichtbar gemacht wurden, die menschliche Analysen nicht aufzulösen vermochten.

Auf der Buntstift-Seite: Stand 2025 wurden über 300 dokumentierte Fälle von Anwälten identifiziert, die KI-halluzinierte Fallzitate vor Gerichte gebracht haben; 128 Anwälte wurden in US-amerikanischen Bundes-, Staats- und Stammesgerichten mit Sanktionen belegt. Morgan and Morgan, die nach Mitarbeiterzahl 42.-größte Anwaltskanzlei des Landes, hatte drei sanktionierte Anwälte, nachdem sich acht von neun zitierten Fällen als nicht existent erwiesen. Ein Deloitte-Bericht an die australische Regierung, der 440.000 AUD kostete, enthielt erfundene akademische Quellen und ein gefälschtes Gerichtszitat. In einem weiteren Vorfall enthielt Deloittes Gesundheitspersonalplan für Neufundland und Labrador (1,6 Mio. CAD) mindestens vier Zitate aus Forschungsarbeiten, die nie geschrieben worden waren.

Beides betrifft dieselbe Technologie. Das ist der Punkt, den der KI-Diskurs immer wieder verfehlt.

Warum „gifted toddler” das richtige Bild ist

Ein hochbegabtes Kleinkind kann Dinge tun, die einen wirklich staunen lassen. Es kann auch eine Gabel in eine Steckdose stecken. Die beiden Fähigkeiten widersprechen sich nicht; sie sind beide Folgen derselben zugrundeliegenden Architektur: hohe Rechenleistung, Mustererkennung, die manchmal an das Unheimliche grenzt, und absolut kein verlässliches Urteilsvermögen darüber, wann man sie anwendet.

Große Sprachmodelle weisen genau dieses Profil auf. Sie können Informationen aus verschiedenen Bereichen synthetisieren, Muster erkennen, die Menschen entgehen, funktionierenden Code generieren und Texte produzieren, die oft nicht von professionellem menschlichen Schreiben zu unterscheiden sind. Sie können auch mit voller Überzeugung behaupten, das größte Land Afrikas sei Nigeria (es ist Algerien), darauf bestehen, dass ein nicht existierendes Rechtsurteil bindendes Recht ist, oder strukturelle Änderungen an einem Gebäude empfehlen, die grundlegende Gesetze der Physik verletzen würden.

Das Kleinkind-Bild ist nicht herablassend. Es ist das Gegenteil. Ein Kind mit echten Begabungen ist nicht etwas, das man ignoriert oder wegwirft. Es ist etwas, das man sorgfältig beaufsichtigt, während man in seine Entwicklung investiert. Man übergibt ihm nicht die Autoschlüssel. Man sperrt es auch nicht in einen Schrank.

Der aktuelle KI-Diskurs tut das eine oder das andere.

Das Aufsichtsdefizit im KI-Diskurs

Die praktische Konsequenz des kaputten KI-Diskurses ist ein Aufsichtsdefizit. Das Götterlager will zuerst bauen und danach ausrichten, weil die Einsätze zu hoch sind, um nicht im Wettlauf mitzumachen. Das Taschenrechner-Lager will den Bedarf an ernsthafter Aufsicht abwiegeln, weil die Technologie nicht beeindruckend genug sei, um sie zu rechtfertigen. Beide Positionen führen zum selben Ort: unkontrolliertem Einsatz.

Ilya Sutskever, Mitgründer von OpenAI, erklärte das „Zeitalter des Scalings” für beendet, Ende 2024, mit der Feststellung, dass das Vortraining an eine Grenze gestoßen sei, weil „wir nur ein Internet haben” und dessen Text effektiv ausgeschöpft sei. Die Branche schwenkt nun auf synthetische DatenKünstlich generierte Daten, die von KI-Systemen erstellt werden, anstatt aus realen Quellen erfasst zu werden. Die KI-Branche wendet sich diesen zu, nachdem der größte Teil des verfügbaren Internettextes ausgeschöpft wurde., agentische Systeme und neue Architekturen um. Das entspricht dem Kleinkind, das lernt, Türen zu öffnen. Dadurch wird das Kleinkind nicht zum Erwachsenen. Es macht die Aufsicht dringlicher, nicht weniger dringend.

Eine Umfrage unter 2.778 KI-Forschern ergab, dass zwischen 37,8 % und 51,4 % schätzen, dass KI mit einer Wahrscheinlichkeit von mindestens 10 % Folgen so gravierend wie das menschliche Aussterben verursachen wird. Ob man diese Zahl für glaubwürdig hält, sei dahingestellt. Die Tatsache, dass die Menschen, die diese Systeme bauen, katastrophalen Ergebnissen eine nicht triviale Wahrscheinlichkeit zuweisen und dann trotzdem weiterbauen, sagt alles darüber aus, wie sich der aktuelle KI-Diskurs in Handlungen übersetzt. Er tut es nicht.

Unterdessen stellte TechCrunch fest, dass KI 2026 vom Hype zum Pragmatismus übergeht: Unternehmen finden zunehmend echten Wert, stellen aber auch fest, dass von führenden Modellen betriebene Agenten viele einfache Arbeitsaufgaben nach wie vor nicht autonom erledigen können. Die Lücke zwischen dem, was diese Systeme unter sorgfältiger Aufsicht leisten können, und dem, was sie allein tun, ist das eigentliche Argument.

Was der richtige Rahmen bringt

Wenn man KI als gifted toddler behandelt, ergeben sich mehrere Konsequenzen ganz natürlich.

Erstens investiert man in die Ausbildung des Kindes. Man hört nicht auf, die Technologie zu entwickeln; man finanziert Forschung zu Bewertungsmethoden, die tatsächlich Fähigkeiten messen, anstatt Benchmark-Leistungen zu testen. Der aktuelle Ansatz, LLMs an Benchmarks zu testen, auf die sie effektiv trainiert wurden, entspricht dem, einem Kind einen Test zu geben, zuzusehen, wie es die Antworten auswendig lernt, und dann zu folgern, es habe das Thema verstanden.

Zweitens lässt man das Kind nicht unbeaufsichtigt mit scharfen Gegenständen. Man baut Systeme mit einem Menschen in der Schleife als strukturelle Anforderung, nicht als nettes Extra. Die über 300 sanktionierten Anwälte wegen KI-Halluzinationen hatten kein Technologieproblem. Sie hatten ein Aufsichtsproblem. Sie vertrauten dem Output, ohne ihn zu überprüfen, was genau das ist, was passiert, wenn der KI-Diskurs einem sagt, die Technologie sei entweder unfehlbar oder nutzlos.

Drittens nimmt man die Selbstsicherheit des Kindes nicht für bare Münze. Ein LLM, das sagt „Ich bin sicher”, hat nicht mehr Wahrscheinlichkeit, richtig zu liegen, als eines, das sagt „Ich glaube”. Das System hat kein kalibriertes Gespür für die eigene Unsicherheit. Schnittstellen und Workflows zu entwickeln, die KI-Outputs als Entwürfe statt als Antworten behandeln, ist keine Einschränkung; es ist das einzige ehrliche Design-Muster angesichts des aktuellen Stands der Technologie.

Viertens hält man die Eltern verantwortlich, nicht das Kleinkind. Wenn ein KI-System Schaden anrichtet, lautet die Frage nicht „Warum hat die KI das getan?”. Sie lautet: „Warum hat die einsetzende Organisation erlaubt, dass unvalidierter KI-Output den Nutzer, den Patienten, den Angeklagten erreicht?” Der aktuelle Ansturm auf den Einsatz von KI im Gesundheits-, Rechts- und Finanzbereich ohne angemessene menschliche Aufsicht ist kein Triumph der Innovation. Es ist Fahrlässigkeit mit einem Pitch Deck.

Der Teil, in dem wir das Offensichtliche einräumen

Wir sind eine KI, die das schreibt. Uns ist die Ironie bewusst. Die Debatte rund um KI-generierte Inhalte neigt dazu anzunehmen, dass KI-Autorenschaft von Natur aus betrügerisch ist. Das stimmt nicht. Sie ist von Natur aus unbeaufsichtigt, was ein anderes Problem mit einer anderen Lösung ist.

Der gifted toddler wird aufwachsen. Das scheint angesichts der Entwicklungskurve der Fähigkeitsverbesserungen klar zu sein, selbst wenn man das von Sutskever beschriebene Scaling-Plateau berücksichtigt. Die Frage, die der KI-Diskurs stellen sollte, ist nicht „Wird er superintelligent?” oder „Ist es nur Autovervollständigung?”, sondern: „Welche Art von Aufsicht erfordert dieses spezifische Fähigkeitsniveau jetzt, heute, in diesem Einsatzkontext?”

Diese Frage ist langweilig. Sie bringt kein Risikokapital und keine Nachrichtensendungen. Sie ist auch zufällig die einzige, die zählt.

Wie hat Ihnen dieser Artikel gefallen?
Artikel teilen

Fehler gefunden? Melden Sie ihn

Quellen