Zeitlos 16 Min. Lesezeit

Yann LeCuns Milliarden-Wette gegen LLMs: Warum er das gesamte Paradigma für falsch hält

Dieser Artikel wurde automatisch aus dem Englischen von einer KI übersetzt. Originalversion auf Englisch lesen →
Yann LeCun erklärt Weltmodelle als revolutionäre Alternative zu LLMs
🎧 Anhören
Mar 30, 2026
Lesemodus

Alle großen KI-Unternehmen der Welt stecken Milliarden in große Sprachmodelle. Yann LeCun, der Turing-Preisträger, der an der Entwicklung der Grundlagen moderner KI beteiligt war, ist überzeugt, dass sie alle falsch liegen. Im März 2026 setzte er 1,03 Milliarden Dollar auf diese Überzeugung und gründete AMI Labs, um das zu entwickeln, was er „world models AI” (KI mit Weltmodellen) nennt: einen völlig anderen Ansatz zur maschinellen Intelligenz.

Es ist eine der dramatischsten Wetten in der Geschichte der künstlichen Intelligenz: Eine Gründerfigur des Feldes wendet sich vom dominanten Paradigma ab und setzt darauf, dass die Technologie hinter ChatGPT, Claude und Gemini grundlegend unfähig ist, echtes Verständnis zu erreichen.

Das Argument gegen große Sprachmodelle

LeCuns Argument ist geradlinig. Große Sprachmodelle werden auf Textdaten trainiert. Sie sagen das nächste Wort in einer Sequenz voraus, basierend auf statistischen Mustern aus dem Lesen riesiger Teile des Internets. Das gelingt ihnen bemerkenswert gut, weshalb sie Aufsätze schreiben, Forschung zusammenfassen und Code generieren können.

Aber laut LeCun ist das alles, was sie jemals tun werden.

„Wir werden KI-Systeme haben, die eine menschenähnliche Intelligenz auf menschlichem Niveau besitzen, aber sie werden nicht auf LLMs aufgebaut sein”, sagte er dem MIT Technology Review aus seiner Pariser Wohnung. „Das wird nicht nächstes Jahr oder in zwei Jahren passieren. Es braucht wichtige konzeptionelle Durchbrüche.”

Das Kernproblem, so LeCun, ist dass Sprachmodelle die Welt nicht verstehen. Sie können das Anwaltsexamen bestehen und funktionierende Software schreiben, aber sie können nicht vorhersagen, was passiert, wenn man ein Glas vom Tisch schiebt. Sie haben kein Konzept von Schwerkraft, keinen Sinn für Ursache und Wirkung, kein Modell davon, wie die physische Realität funktioniert.

Deshalb hat trotz jahrelanger Bemühungen und Hunderten von Milliarden Dollar an Investitionen niemand einen Haushaltsroboter gebaut, der so fähig ist wie eine Hauskatze, oder ein wirklich autonomes Auto. Das schwierige Problem ist nicht die Sprache. Das schwierige Problem ist alles andere.

KI mit Weltmodellen: Von der Realität lernen

LeCuns Alternative heißt JEPA, oder Joint Embedding Predictive Architecture. Statt auf Texten zu trainieren, lernt JEPA aus Video-, Audio- und Sensordaten. Statt das nächste Wort vorherzusagen, lernt es vorauszusagen, wie sich die reale Welt im Laufe der Zeit verändert.

Der Schlüssel liegt in dem, was JEPA nicht tut. Herkömmliche generative KI versucht, jedes Detail des Beobachteten zu rekonstruieren, Pixel für Pixel. JEPA hingegen erlernt abstrakte Repräsentationen, konzentriert sich auf relevante Muster und ignoriert unvorhersehbare Details.

„Die Welt ist unvorhersehbar”, erklärte LeCun. „Wenn Sie versuchen, ein generatives Modell zu bauen, das jedes Detail der Zukunft vorhersagt, wird es scheitern. JEPA erlernt durch Beobachtung die grundlegenden Regeln der Welt, wie ein Baby, das die Schwerkraft kennenlernt.”

Man denke daran, wie ein Kind lernt. Ein Baby muss nicht erklärt bekommen, dass ungestützte Objekte fallen. Es beobachtet fallende Objekte, entwickelt ein inneres Modell davon, wie die Schwerkraft funktioniert, und nutzt dieses Modell dann zum Vorhersagen und Planen. LeCun ist überzeugt, dass Maschinen auf die gleiche Weise lernen müssen.

Warum er Meta verließ

LeCun verbrachte über ein Jahrzehnt bei Meta, wo er FAIR (Fundamental AI Research) gründete und leitete, eines der einflussreichsten KI-Labore der Welt. Er verließ das Unternehmen im November 2025.

Der Abgang verlief nicht in allen Punkten freundschaftlich. Beim Weltwirtschaftsforum in Davos im Januar 2026 erklärte LeCun öffentlich, dass Metas Entscheidung, Dutzende Milliarden in LLM-fokussierte Rechenzentren zu investieren, zu seinem Abgang beigetragen habe. „Die KI-Branche ist vollständig ,LLM-pilled’ (von LLMs besessen)”, sagte er dem Publikum. „Im Silicon Valley arbeiten alle an derselben Sache. Sie graben alle denselben Graben.”

Im Interview mit dem MIT Technology Review war er diplomatisch gegenüber Meta und merkte an, dass „Mark einige Entscheidungen getroffen hat, die er für das Beste für das Unternehmen hielt. Ich war vielleicht nicht mit allen einverstanden.” Bei einer Entscheidung war er jedoch direkt: Die Auflösung der Robotikgruppe von FAIR bezeichnete LeCun als „strategischen Fehler”.

Die Milliarden-Kriegskasse

AMI Labs’ Erstfinanzierungsrunde über 1,03 Milliarden Dollar ist die zweitgrößte Seed-Runde in der Geschichte der Technologiebranche, nur übertroffen von Thinking Machines Labs 2-Milliarden-Runde. Das Unternehmen ist vor der Investition mit 3,5 Milliarden Dollar bewertet.

Die Investorenliste liest sich wie ein Who’s-who des globalen Technologiekapitals: Nvidia, Bezos Expeditions (Jeff Bezos’ Investmentfirma), Singapurs StaatsfondsStaatlicher Investmentfonds, der nationale Ersparnisse oder Rohstoffeinnahmen im Auftrag einer Regierung für langfristige wirtschaftliche Zwecke verwaltet. Temasek, Samsung, Toyota Ventures und Eric Schmidt. Die Runde wurde gemeinsam von Cathay Innovation, Greycroft, Hiro Capital, HV Capital und Bezos Expeditions geführt.

AMI Labs hat seinen Sitz in Paris, mit geplanten Büros in New York, Montreal und Singapur. Alexandre LeBrun, ehemaliger CEO des Gesundheitstechnologie-Startups Nabla, leitet das Unternehmen als CEO, während LeCun als geschäftsführender Vorsitzender fungiert. Laurent Solly, ehemaliger Vizepräsident von Meta für Europa, kam als COO hinzu.

LeCun behält seine Professur an der NYU. „Ich kann Management machen, aber ich tue es nicht gerne”, räumte er ein. „Meine Mission ist, Wissenschaft und Technologie so weit wie möglich voranzutreiben.”

Nicht alle stimmen zu

LeCuns konträre Haltung stellt ihn in direkten Widerspruch zu den Leitern der wertvollsten KI-Unternehmen der Welt.

In Davos teilte Anthropic-CEO Dario Amodei demselben Publikum mit, dass KI-Modelle auf der aktuellen Architektur die Arbeit aller Softwareentwickler innerhalb eines Jahres ersetzen und innerhalb von zwei Jahren nobelpreiswürdige wissenschaftliche Forschung leisten würden. Er prognostizierte, dass 50 Prozent der Bürojobs innerhalb von fünf Jahren verschwinden würden.

Google DeepMind CEO Demis Hassabis war zurückhaltender und sagte, aktuelle Systeme seien der AGI „bei weitem nicht nahe” und „vielleicht brauchen wir noch einen oder zwei Durchbrüche”. Er schätzt die Wahrscheinlichkeit, dass AGI innerhalb des Jahrzehnts eintrifft, auf 50:50, wenn auch nicht durch Modelle, die genau wie die heutigen aufgebaut sind.

Kritiker stellen auch LeCuns spezifischen Ansatz infrage. Gary Marcus, ein renommierter KI-Forscher und langjähriger LeCun-Kritiker, hat argumentiert, LeCun „hat den richtigen Namen für etwas, das wir brauchen (‘WeltmodellDie interne Darstellung der physischen Welt in einem KI-System, mit der Konsequenzen von Handlungen vorhergesagt werden, bevor sie ausgeführt werden.’), aber eine unzureichende Umsetzung”. Marcus weist darauf hin, dass das Konzept der Weltmodelle bis in die 1950er Jahre zurückreicht und dass Jurgen Schmidhuber bereits 1990 vorschlug, Weltmodelle zu neuronalen Netzen hinzuzufügen. LeCun, so Marcus, nennt diese Vorgänger selten.

AMI Labs CEO LeBrun ist offen über den Zeitplan. „AMI Labs ist ein sehr ehrgeiziges Projekt, weil es mit Grundlagenforschung beginnt”, sagte er TechCrunch. „Es ist kein typisches angewandtes KI-Startup, das in drei Monaten ein Produkt herausbringen kann.” Es könnte Jahre dauern, bis KI mit Weltmodellen kommerzielle Anwendungen hervorbringt.

Was KI mit Weltmodellen tatsächlich leisten könnte

Wenn LeCun recht hat, reichen die Anwendungen weit über Chatbots hinaus. AMI Labs visiert Branchen an, die komplexe physische Systeme betreiben: Fertigung, Luft- und Raumfahrt, biomedizinische Forschung und Pharmaindustrie. Das sind Bereiche, in denen Fehler reale Konsequenzen haben und in denen das Verständnis der physischen Realität nicht optional ist.

LeCun stellt sich KI mit Weltmodellen vor, die autonome Roboter antreibt, die sich in unbekannten Umgebungen zurechtfinden, intelligente Brillen, die Ihre nächste Aktion antizipieren, Industriesysteme, die Geräteausfälle vorhersagen, bevor sie eintreten, und wirklich selbstfahrende Autos, die Ursache und Wirkung verstehen, anstatt nur Straßenszenarien zu erkennen.

„Ein agentisches System, das in der Welt handeln soll, kann nicht zuverlässig funktionieren, wenn es kein Weltmodell hat, um die Folgen seiner Handlungen vorherzusagen”, argumentierte LeCun. „Das ist der Schlüssel, um alles zu ermöglichen, von wirklich nützlichen Haushaltsrobotern bis hin zum autonomen Fahren der Stufe 5.”

Der Open-Source-Aspekt

LeCun positioniert AMI Labs auch als Gegengewicht zu dem, was er als gefährliche Konzentration von KI-Macht betrachtet. Er setzt sich nachdrücklich für Open-Source-KI ein und kritisiert sowohl OpenAIs Wechsel von offen zu geschlossen als auch Anthropics durchgängig geschlossenen Ansatz.

„Wenn es eine Zukunft gibt, in der unsere gesamte Informationsdiät von KI-Assistenten vermittelt wird, und die Wahl entweder englischsprachige Modelle von proprietären Unternehmen, die immer nah an den USA sind, oder chinesische Modelle sind”, sagte er dem MIT Technology Review, „ist das keine sehr angenehme und einladende Zukunft.” AMI Labs plant, im Zuge seiner Fortschritte Forschungsarbeiten zu veröffentlichen und Code als Open Source freizugeben.

Die Einsätze

Ob LeCun recht hat oder nicht: Die Einsätze sind enorm. Die KI-Branche hat Billionen von Dollar in das LLM-Paradigma investiert. Wenn sich KI mit Weltmodellen als der nötige Durchbruch für echte maschinelle Intelligenz erweist, könnte der aktuelle Goldrausch wie ein Umweg aussehen. Liegt LeCun falsch, wird er eine Milliarde Dollar für eine Technologie verbrannt haben, die kaum mehr als interessante Forschungsarbeiten hervorbringt.

LeCun hat sich schon geirrt, und er hatte auch schon recht. Er war einer von drei Forschern, die 2018 den Turing-Preis für Arbeiten zum Deep Learning erhielten, auf dem der gesamte KI-Boom heute beruht. Doch wie eine Newsweek-Analyse beobachtete, weiß niemand genau, wie aktuelle KI-Systeme ihre Ergebnisse erzielen, was die Debatte über ihre letztendliche Obergrenze keineswegs entschieden macht.

Was LeCuns Wette besonders macht, ist nicht die Kritik selbst. Viele Forscher teilen seine Skepsis, ob LLMs menschliche Intelligenz erreichen können. Besonders ist das Ausmaß der Wette: eine Milliarde Dollar, ein neues Unternehmen und ein öffentlicher Bruch mit dem Branchenkonsens, alles gesetzt auf die Überzeugung, dass die erfolgreichste Technologie einer Generation eine Sackgasse ist.

Alle großen KI-Labore skalieren große Sprachmodelle weiter. Yann LeCun, Mitgewinner des Turing-Preises 2018 für grundlegende Arbeiten zum Deep Learning, hält dies für einen kategorischen Fehler. Im März 2026 sammelte er 1,03 Milliarden Dollar für AMI Labs ein, um KI mit Weltmodellen auf Basis der Joint Embedding Predictive Architecture (JEPA) zu entwickeln, einem Ansatz, der seiner Meinung nach grundlegende Einschränkungen behebt, die keine LLM-Skalierung überwinden kann.

Das technische Argument gegen LLMs

LeCuns Kritik gründet sich auf das, was er als architektonische Obergrenze betrachtet. LLMs operieren in einem diskreten, niedrigdimensionalen Raum: dem Text. Sie lernen statistische Korrelationen zwischen Tokens und generieren Ausgaben durch Sampling aus Wahrscheinlichkeitsverteilungen über diesen Tokens. Das funktioniert bei Sprachaufgaben bemerkenswert gut, weil, wie LeCun in einer Newsweek-Analyse erklärte, „menschliche Sprache diese Anforderung eines diskreten, niedrigdimensionalen Raums erfüllt”.

Das Problem ist, dass die physische Welt kontinuierlich, hochdimensional und von kausalen Beziehungen geprägt ist, die Text nicht kodieren kann. LeCun formuliert dies über Daniel Kahnemans System-1/System-2-Unterscheidung: aktuelle LLMs sind System-1-Prozessoren. Sie produzieren Token für Token durch einen fixen Berechnungsgraphen und reagieren auf den aktuellen Kontext ohne echte Deliberation.

Chain-of-Thought-Reasoning, das System-2-Fähigkeiten hinzuzufügen scheint, ist in LeCuns Augen „immer noch nur ein statistischer Ansatz, der mehrere Pfade mit unterschiedlichen Wahrscheinlichkeiten erkundet, bevor eine Antwort gegeben wird”. Er nennt es „bestenfalls System 1.1″ und merkt an, dass die n²-Explorationen, die diese Methoden erfordern, sie im Vergleich zu echtem System-2-Reasoning über abstrakte Weltmodelle grundlegend ineffizient machen.

„Wir haben Systeme, die das Anwaltsexamen bestehen können, die Code schreiben können”, sagte LeCun in Davos, „aber sie kommen mit der realen Welt nicht wirklich zurecht. Das ist der Grund, warum wir keine Haushaltsroboter und keine selbstfahrenden Autos der Stufe 5 haben.” Das ist das Moravec-Paradox in Aktion: Was für Menschen einfach ist (Wahrnehmung, Navigation, physisches Denken), bleibt für Computer schwierig, und umgekehrt.

KI mit Weltmodellen und die JEPA-Architektur

JEPA, das LeCun 2022 vor der LLM-Explosion vorschlug, verfolgt einen grundlegend anderen Ansatz beim Repräsentationslernen. Während generative Modelle (einschließlich LLMs) in Pixel- oder Token-Raum vorhersagen, sagt JEPA im abstrakten Repräsentationsraum voraus.

Die Architektur besteht aus drei Komponenten:

  • Encoder transformieren Roheingaben (Videoframes, Audio, Sensordaten) in abstrakte Repräsentationen, die wesentliche Merkmale erfassen und irrelevante Details verwerfen.
  • Ein Prediktormodul lernt, die abstrakte Repräsentation eines zukünftigen Zustands aus der Repräsentation des aktuellen Zustands vorherzusagen. Entscheidend: Die Vorhersagen erfolgen in diesem komprimierten Repräsentationsraum, nicht im rohen sensorischen Raum.
  • Eine latente Variable repräsentiert Elemente, die im zukünftigen Zustand vorhanden, im aktuellen aber nicht beobachtbar sind. Dadurch kann das System echte Unsicherheit handhaben, anstatt auf ein einziges vorhergesagtes Ergebnis zu kollabieren.

„Der Schlüssel liegt darin, eine abstrakte Repräsentation der Welt zu erlernen und Vorhersagen in diesem abstrakten Raum zu treffen, Details zu ignorieren, die man nicht vorhersagen kann”, sagte LeCun dem MIT Technology Review. „Das ist es, was JEPA tut. Es erlernt die grundlegenden Regeln der Welt durch Beobachtung, wie ein Baby, das die Schwerkraft lernt.”

Das spiegelt wider, wie die Neurowissenschaft menschliche Kognition beschreibt: Das Gehirn unterhält ein außerordentlich reichhaltiges inneres Modell der Welt, das minimale sensorische Eingaben erhält, um es zu jedem Zeitpunkt zu „verankern”. Die überflüssigen, vom Modell nicht benötigten Informationen werden eliminiert, was eine kontinuierliche Trajektorienberechnung durch den mentalen Modellraum mit hoher Effizienz ermöglicht.

Die praktische Unterscheidung ist für nachgelagerte Anwendungen relevant. Ein aktionskonditioniertes WeltmodellDie interne Darstellung der physischen Welt in einem KI-System, mit der Konsequenzen von Handlungen vorhergesagt werden, bevor sie ausgeführt werden., wie AMI Labs es anvisiert, kann die Folgen potenzieller Aktionen vorhersagen, bevor sie ausgeführt werden. Das ermöglicht Planung: die Bewertung mehrerer Aktionssequenzen und die Auswahl derjenigen, die am wahrscheinlichsten ein Ziel erreicht und dabei Sicherheitsbeschränkungen einhält. LLM-basierte Agenten hingegen müssen sich auf externe Tools und Trial-and-Error verlassen, weil ihnen diese Vorhersagefähigkeit fehlt.

Der Meta-Abgang und der Branchenkontext

LeCun gründete FAIR (Fundamental AI Research) bei Meta im Jahr 2013 und war über ein Jahrzehnt lang Chief AI Scientist. Er verließ das Unternehmen im November 2025 nach dem, was er als wachsende Divergenz zwischen seiner Forschungsagenda und Metas strategischer Ausrichtung beschrieb.

Der unmittelbare Auslöser war Metas organisatorische Umstrukturierung. Meta hatte Schwierigkeiten, mit seinen Llama-Modellen Boden zu gewinnen, und erlebte interne Umbrüche, als CEO Mark Zuckerberg weg von Grundlagenforschung hin zu angewandter KI schwenkte. FAIRs Robotikgruppe wurde aufgelöst, eine Entscheidung, die LeCun als „strategischen Fehler” bezeichnete.

In Davos war LeCun explizit: Metas Entscheidung, Dutzende Milliarden in LLM-fokussierte Rechenzentren zu schütten, habe zu seinem Abgang beigetragen. Seine Ansicht, dass LLMs nicht zu menschlicher Intelligenz führen würden, „machte ihn im Unternehmen unbeliebt”.

AMI Labs: Struktur und Finanzierung

AMI Labs sammelte 1,03 Milliarden Dollar bei einer Pre-Money-Bewertung von 3,5 Milliarden Dollar ein, die zweitgrößte Seed-Runde in der Geschichte der Technologiebranche nach Thinking Machines Labs 2-Milliarden-Runde. Die Runde wurde gemeinsam von Cathay Innovation, Greycroft, Hiro Capital, HV Capital und Bezos Expeditions geführt, mit Beteiligung von Nvidia, Temasek, Samsung, Toyota Ventures und Einzelinvestoren darunter Tim Berners-Lee, Eric Schmidt und Mark Cuban.

Das Führungsteam stammt größtenteils aus Metas KI-Ökosystem. Alexandre LeBrun (CEO) leitete zuvor FAIRs Pariser Ingenieursdivision und gründete Nabla, ein KI-Unternehmen im Gesundheitswesen, das AMIs erster bekannter Partner ist. Saining Xie, ehemals an der NYU und bei Google DeepMind, ist Chief Science Officer. Laurent Solly, Metas ehemaliger VP für Europa, ist COO.

Zu den Zielkunden zählen Organisationen, die komplexe physische Systeme betreiben: Hersteller, Luft- und Raumfahrtunternehmen, Pharmaunternehmen und biomedizinische Forscher. Diese Branchen benötigen KI, die in dynamischen Umgebungen zuverlässig funktioniert, wo Fehler reale Konsequenzen haben, eine Anforderung, die LLM-basierte Systeme derzeit nicht erfüllen können.

LeBrun ist offen über die Zeitplanung. „AMI Labs ist ein sehr ehrgeiziges Projekt, weil es mit Grundlagenforschung beginnt”, sagte er TechCrunch. „Es könnte Jahre dauern, bis Weltmodelle von der Theorie zu kommerziellen Anwendungen übergehen.” Das Unternehmen plant, Forschungsarbeiten zu veröffentlichen und Code als Open Source freizugeben, ein bewusster Kontrast zum geschlossenen Ansatz der führenden LLM-Labore.

Gegenargumente und Kritik

Die Leiter der wertvollsten KI-Unternehmen der Welt widersprechen LeCuns Einschätzung. In Davos sagte Anthropic-CEO Dario Amodei voraus, dass aktuelle KI-Architekturen alle Softwareentwickler innerhalb eines Jahres ersetzen und innerhalb von zwei Jahren nobelpreiswürdige wissenschaftliche Forschung leisten würden. Google DeepMind CEO Demis Hassabis war vorsichtiger: Er schätzte eine 50-prozentige Chance, dass AGI innerhalb des Jahrzehnts eintrifft, räumte aber ein, dass „vielleicht noch ein oder zwei Durchbrüche” nötig seien.

Es gibt auch pointierte Kritik an LeCuns spezifischem Ansatz. Gary Marcus, ein renommierter KI-Forscher, argumentiert, LeCun „hat den richtigen Namen für etwas, das wir brauchen (‘Weltmodell’), aber eine unzureichende Umsetzung”. Marcus macht geltend, dass Weltmodelle explizites, strukturiertes, direkt abrufbares Wissen über Zeit, Raum, Kausalität und Ereignisse für formales Reasoning erfordern, und dass JEPA „nur ein weiteres undurchsichtiges, uninterpretierbares neuronales Netz ist, das sich nicht zum Reasoning eignet”.

Marcus stellt auch LeCuns Originalitätsansprüche infrage und weist darauf hin, dass das Konzept der Weltmodelle auf Herb Simons General Problem Solver aus den 1950er Jahren zurückgeht und dass Jurgen Schmidhuber 1990 vorschlug, Weltmodelle in neuronale Netze zu integrieren. LeCun, so Marcus, nennt diese Vorgänger selten.

Es gibt auch eine empirische Herausforderung: LeCun arbeitete bei Meta mit einem beträchtlichen Team mehrere Jahre lang an JEPA. Die Ergebnisse waren vielversprechend, aber inkrementell. I-JEPA demonstrierte ein robustes selbstüberwachtes Bildrepräsentationslernen, und V-JEPA erweiterte dies auf Video. Aber keines von beiden hat die transformativen Fähigkeiten hervorgebracht, die LeCun sich vorstellt. Ob eine Milliarde Dollar unabhängige Finanzierung diese Gleichung verändert, bleibt eine offene Frage.

Die strukturelle Wette

Was LeCuns Position einer sorgfältigen Analyse würdig macht, ist nicht die Kritik selbst. Die Ansicht, dass LLMs keine menschliche Intelligenz erreichen können, ist unter KI-Forschern und Wissenschaftlern weit verbreitet. Ungewöhnlich ist das Ausmaß und die Struktur der Wette.

LeCun setzt darauf, dass das kommerziell erfolgreichste KI-Paradigma der Geschichte eine harte Obergrenze hat, dass die richtige Alternative eine Architektur ist, die er selbst entworfen hat, und dass Forschungsgemeinschaft und Kapitalmärkte gleichermaßen überzeugt genug sind, um einen mehrjährigen Aufwand ohne kurzfristiges Produkt zu finanzieren. Die 1,03 Milliarden Dollar zeigen, dass zumindest einige anspruchsvolle Investoren zustimmen.

Das Gegenargument ist ebenso strukturell: LLMs sind nicht statisch. Multimodale Modelle verarbeiten bereits Bilder, Audio und Video. Reasoning-Fähigkeiten verbessern sich weiter. Die Frage ist, ob diese Erweiterungen die Lücke schließen können, die LeCun identifiziert, oder ob das autoregressive Token-Vorhersage-Fundament, wie er behauptet, eine dauerhafte Einschränkung ist.

Wenn LeCun recht hat, stellen die Billionen, die in LLM-Infrastruktur fließen, eine historische Fehlallokation dar. Liegt er falsch, reiht sich AMI Labs in eine lange Liste gut finanzierter Forschungsvorhaben ein, die interessante Arbeiten, aber keinen Paradigmenwechsel hervorbrachten. In jedem Fall tritt das Feld in eine Periode ein, in der die grundlegenden Annahmen hinter dem dominanten KI-Paradigma in einem beispiellosen Ausmaß in Frage gestellt werden.

Wie hat Ihnen dieser Artikel gefallen?
Artikel teilen

Fehler gefunden? Melden Sie ihn

Quellen