Intemporel 20 min de lecture

Le pari d’un milliard de Yann LeCun contre les LLM : pourquoi il pense que tout le paradigme est faux

Cet article a été traduit automatiquement de l'anglais par une IA. Lire la version originale en anglais →
Yann LeCun présentant les modèles du monde comme alternative révolutionnaire aux LLM
🎧 Écouter
Mar 30, 2026
Mode de lecture

Toutes les grandes entreprises d’IA de la planète injectent des milliards dans les grands modèles de langage. Yann LeCun, le chercheur lauréat du prix Turing qui a contribué à inventer les fondements de l’IA moderne, pense qu’elles ont toutes tort. En mars 2026, il a mis 1,03 milliard de dollars derrière cette conviction en lançant AMI Labs pour construire ce qu’il appelle l’« world models AI » (IA fondée sur des modèles du monde), une approche radicalement différente de l’intelligence machine.

C’est l’un des paris les plus spectaculaires de l’histoire de l’intelligence artificielle : l’un des pères fondateurs du domaine tourne le dos au paradigme dominant et mise que la technologie qui alimente ChatGPT, Claude et Gemini est fondamentalement incapable d’atteindre une véritable compréhension.

Le réquisitoire contre les grands modèles de langage

L’argument de LeCun est simple. Les grands modèles de langage sont entraînés sur du texte. Ils prédisent le prochain mot d’une séquence à partir de corrélations statistiques apprises en lisant d’immenses pans d’internet. Ils le font remarquablement bien, ce qui explique pourquoi ils peuvent rédiger des articles, synthétiser des recherches et générer du code.

Mais selon LeCun, c’est tout ce qu’ils feront jamais.

« Nous allons avoir des systèmes d’IA dotés d’une intelligence comparable à celle des humains, mais ils ne seront pas construits sur des LLM », a-t-il déclaré au MIT Technology Review depuis son appartement parisien. « Ça n’arrivera pas l’année prochaine ni dans deux ans. Il faudra des avancées conceptuelles majeures. »

Le problème fondamental, selon LeCun, est que les modèles de langage ne comprennent pas le monde. Ils peuvent réussir l’examen du barreau et écrire des logiciels fonctionnels, mais ils sont incapables de prédire ce qui se passe lorsqu’on pousse un verre d’une table. Ils n’ont aucun concept de la gravité, aucun sens de la causalité, aucun modèle du fonctionnement de la réalité physique.

C’est pourquoi, malgré des années d’efforts et des centaines de milliards de dollars d’investissements, personne n’a construit de robot domestique aussi capable qu’un chat ou une voiture véritablement autonome. Le problème difficile, ce n’est pas le langage. C’est tout le reste.

L’IA à modèles du monde : apprendre de la réalité

L’alternative proposée par LeCun s’appelle JEPA, ou Joint Embedding Predictive Architecture. Au lieu de s’entraîner sur du texte, JEPA apprend à partir de vidéos, d’audio et de données de capteurs. Au lieu de prédire le prochain mot, elle apprend à prédire comment le monde réel évolue dans le temps.

L’intuition clé réside dans ce que JEPA ne fait pas. L’IA générative traditionnelle tente de reconstruire chaque détail de ce qu’elle observe, pixel par pixel. JEPA, au contraire, apprend des représentations abstraites, en se concentrant sur les structures significatives et en ignorant les détails imprévisibles.

« Le monde est imprévisible », a expliqué LeCun. « Si vous essayez de construire un modèle génératif qui prédit chaque détail du futur, il échouera. JEPA apprend les règles sous-jacentes du monde par observation, comme un bébé qui apprend la gravité. »

Imaginez comment un enfant apprend. Un bébé n’a pas besoin qu’on lui explique que les objets sans support tombent. Il observe des objets tomber, construit un modèle interne du fonctionnement de la gravité, puis utilise ce modèle pour anticiper et planifier. LeCun pense que les machines doivent apprendre de la même façon.

Pourquoi il a quitté Meta

LeCun a passé plus d’une décennie chez Meta, où il a fondé et dirigé FAIR (Fundamental AI Research), l’un des laboratoires d’IA les plus influents au monde. Il est parti en novembre 2025.

Le départ n’a pas été entièrement cordial. Au Forum économique mondial de Davos, en janvier 2026, LeCun a déclaré publiquement que la décision de Meta d’investir des dizaines de milliards dans des centres de données axés sur les LLM avait contribué à son départ. « L’industrie de l’IA est complètement « LLM-pilled » (obnubilée par les LLM) », a-t-il dit à l’audience. « Dans la Silicon Valley, tout le monde travaille sur la même chose. Ils creusent tous la même tranchée. »

Il s’est montré diplomatique au sujet de Meta dans son entretien avec le MIT Technology Review, notant que « Mark a fait des choix qu’il jugeait meilleurs pour l’entreprise. Je n’étais peut-être pas d’accord avec tous. » Mais il a été direct sur une décision : la dissolution du groupe robotique de FAIR, que LeCun a qualifiée d’« erreur stratégique ».

Le trésor de guerre du milliard

Le tour de table initial de 1,03 milliard d’AMI Labs est le deuxième plus grand tour d’amorçage de l’histoire de la tech, derrière seulement la levée de 2 milliards de Thinking Machines Lab. La société est valorisée à 3,5 milliards avant investissement.

La liste des investisseurs ressemble à un bottin du capital-risque mondial : Nvidia, Bezos Expeditions (le fonds d’investissement de Jeff Bezos), le fonds souverainFonds d'investissement détenu par un État qui gère l'épargne nationale ou les revenus des matières premières au profit du gouvernement. singapourien Temasek, Samsung, Toyota Ventures et Eric Schmidt. Le tour a été co-dirigé par Cathay Innovation, Greycroft, Hiro Capital, HV Capital et Bezos Expeditions.

AMI Labs est basée à Paris, avec des bureaux prévus à New York, Montréal et Singapour. Alexandre LeBrun, ancien PDG de la startup de santé numérique Nabla, dirige l’entreprise en tant que PDG, LeCun occupant le poste de président exécutif. Laurent Solly, ancien vice-président de Meta pour l’Europe, a rejoint l’équipe comme directeur des opérations.

LeCun conserve son poste de professeur à NYU. « Je sais faire du management, mais ça ne me plaît pas », a-t-il admis. « Ma mission, c’est de faire avancer la science et la technologie aussi loin que possible. »

Tout le monde n’est pas d’accord

La position à contre-courant de LeCun le place en opposition directe avec les dirigeants des entreprises d’IA les plus valorisées au monde.

À Davos, le PDG d’Anthropic, Dario Amodei, a déclaré au même auditoire que les modèles d’IA fondés sur l’architecture actuelle remplaceraient le travail de tous les développeurs de logiciels en un an et atteindraient un niveau de recherche scientifique digne d’un prix Nobel en deux ans. Il a prédit que 50 % des emplois de bureau disparaîtraient dans les cinq prochaines années.

Demis Hassabis, PDG de Google DeepMind, s’est montré plus mesuré, affirmant que les systèmes actuels sont « loin » de l’IAG et qu’« il faudra peut-être une ou deux percées supplémentaires ». Il estime à 50/50 les chances que l’IAG arrive dans la décennie, mais pas nécessairement via des modèles construits exactement comme ceux d’aujourd’hui.

Des critiques remettent aussi en question l’approche spécifique de LeCun. Gary Marcus, chercheur en IA influent et critique de longue date de LeCun, a soutenu que LeCun « a trouvé le bon nom pour quelque chose dont nous avons besoin (« modèle du mondeReprésentation interne qu'un système d'IA se fait du fonctionnement du monde physique, lui permettant de prédire les conséquences de ses actions. »), mais une implémentation insuffisante ». Marcus souligne que le concept de modèles du monde remonte aux années 1950, et que Jurgen Schmidhuber proposait dès 1990 d’intégrer des modèles du monde aux réseaux de neurones. LeCun, selon Marcus, cite rarement ces prédécesseurs.

Le PDG d’AMI Labs, LeBrun, est honnête sur le calendrier. « AMI Labs est un projet très ambitieux, car il part de la recherche fondamentale », a-t-il confié à TechCrunch. « Ce n’est pas une startup d’IA appliquée classique qui peut sortir un produit en trois mois. » Il pourrait s’écouler des années avant que les modèles du monde produisent des applications commerciales.

Ce que l’IA à modèles du monde pourrait vraiment faire

Si LeCun a raison, les applications vont bien au-delà des chatbots. AMI Labs cible des industries qui gèrent des systèmes physiques complexes : la fabrication industrielle, l’aérospatiale, la recherche biomédicale et pharmaceutique. Ce sont des domaines où les erreurs ont des conséquences réelles et où comprendre la réalité physique n’est pas une option.

LeCun imagine des modèles du monde alimentant des robots autonomes capables de s’adapter à des environnements inconnus, des lunettes connectées qui anticipent votre prochain geste, des systèmes industriels qui prédisent les pannes d’équipement avant qu’elles ne surviennent, et des voitures vraiment autonomes qui comprennent la causalité plutôt que de simplement reconnaître des situations routières.

« Un système agentique censé agir dans le monde ne peut pas fonctionner de manière fiable s’il n’a pas de modèles du monde pour prédire les conséquences de ses actions », a plaidé LeCun. « C’est la clé pour tout débloquer, des robots domestiques vraiment utiles jusqu’à la conduite autonome de niveau 5. »

L’angle open source

LeCun positionne également AMI Labs comme un contrepoids à ce qu’il perçoit comme une dangereuse concentration du pouvoir en matière d’IA. Il défend avec force l’IA open source, critiquant aussi bien le virage d’OpenAI du modèle ouvert vers le modèle fermé que l’approche toujours fermée d’Anthropic.

« Si nous nous retrouvons dans un futur où toute notre alimentation en information est médiatisée par des assistants IA, et que le choix se réduit à des modèles anglophones produits par des entreprises propriétaires toujours proches des États-Unis ou à des modèles chinois », a-t-il confié au MIT Technology Review, « ce n’est pas un avenir très attrayant ni stimulant. » AMI Labs prévoit de publier ses travaux et de rendre son code open source au fur et à mesure de ses avancées.

Les enjeux

Que LeCun ait raison ou tort, les enjeux sont considérables. L’industrie de l’IA a engagé des milliers de milliards de dollars dans le paradigme des LLM. Si les modèles du monde s’avèrent être la percée nécessaire pour atteindre une véritable intelligence machine, la ruée vers l’or actuelle pourrait n’être qu’un détour. Si LeCun a tort, il aura brûlé un milliard de dollars à la poursuite d’une technologie qui ne produira guère plus que des articles de recherche intéressants.

LeCun s’est déjà trompé, et il a aussi eu raison. Il fait partie des trois chercheurs qui ont remporté le prix Turing 2018 pour leurs travaux sur l’apprentissage profond, sur lequel repose tout l’essor actuel de l’IA. Mais comme l’a observé une analyse de Newsweek, personne ne sait exactement comment les systèmes d’IA actuels obtiennent leurs résultats, ce qui rend le débat sur leur plafond ultime loin d’être tranché.

Ce qui rend le pari de LeCun particulier, ce n’est pas la critique en elle-même. Nombreux sont les chercheurs qui partagent son scepticisme quant à la capacité des LLM à atteindre l’intelligence humaine. Ce qui est particulier, c’est l’ampleur du pari : un milliard de dollars, une nouvelle entreprise, et une rupture publique avec le consensus de l’industrie, le tout fondé sur la conviction que la technologie la plus prospère d’une génération est une impasse.

Tous les grands laboratoires d’IA poursuivent la montée en puissance des grands modèles de langage. Yann LeCun, co-lauréat du prix Turing 2018 pour ses travaux fondamentaux sur l’apprentissage profond, estime qu’il s’agit d’une erreur catégorielle. En mars 2026, il a levé 1,03 milliard de dollars pour AMI Labs afin de développer une IA à modèles du monde reposant sur la Joint Embedding Predictive Architecture (JEPA), une approche qu’il juge capable de remédier aux limitations fondamentales qu’aucune mise à l’échelle de LLM ne peut surmonter.

L’argument technique contre les LLM

La critique de LeCun repose sur ce qu’il considère comme un plafond architectural. Les LLM opèrent dans un espace discret et de faible dimension : le texte. Ils apprennent des corrélations statistiques entre des tokens et génèrent des sorties en échantillonnant des distributions de probabilité sur ces tokens. Cette approche fonctionne remarquablement bien pour les tâches linguistiques précisément parce que, comme LeCun l’a expliqué dans une analyse pour Newsweek, « le langage humain correspond à cette exigence d’un espace discret et de faible dimension ».

Le problème est que le monde physique est continu, de haute dimension, et régi par des relations causales que le texte ne peut pas encoder. LeCun formule cela à travers la distinction Système 1/Système 2 de Daniel Kahneman : les LLM actuels sont des processeurs de Système 1. Ils produisent un token après l’autre via un graphe de calcul fixe, en réagissant au contexte immédiat sans véritable délibération.

Le raisonnement par chaîne de penséeTechnique de sollicitation qui guide un modèle de langage à raisonner étape par étape avant de donner une réponse finale, améliorant la précision sur les tâches complexes., qui semble ajouter des capacités de Système 2, n’est aux yeux de LeCun « toujours qu’une approche statistique, explorant plusieurs chemins avec différentes probabilités avant de rendre une réponse ». Il l’appelle « Système 1.1 au mieux » et souligne que les explorations en n² requises par ces méthodes les rendent fondamentalement inefficaces par rapport à un vrai raisonnement de Système 2 sur des modèles du monde abstraits.

« Nous avons des systèmes capables de réussir l’examen du barreau, de rédiger du code », a déclaré LeCun à Davos, « mais ils ne savent pas vraiment gérer le monde réel. C’est pourquoi nous n’avons ni robots domestiques ni voitures autonomes de niveau 5. » C’est le paradoxe de MoravecL'observation que les tâches faciles pour les humains (perception, mouvement) sont difficiles pour l'IA, et que les tâches difficiles pour les humains lui sont faciles. en action : ce qui est facile pour les humains (perception, navigation, raisonnement physique) reste difficile pour les ordinateurs, et inversement.

L’IA à modèles du monde et l’architecture JEPA

JEPA, que LeCun a proposé en 2022 avant l’explosion des LLM, adopte une approche fondamentalement différente de l’apprentissage de représentations. Là où les modèles génératifs (y compris les LLM) font des prédictions dans l’espace des pixels ou des tokens, JEPA prédit dans l’espace des représentations abstraites.

L’architecture repose sur trois composants :

  • Des encodeurs transforment des entrées brutes (images vidéo, audio, données de capteurs) en représentations abstraites capturant les caractéristiques essentielles tout en éliminant les détails non pertinents.
  • Un module prédicteur apprend à prédire la représentation abstraite d’un état futur à partir de la représentation de l’état courant. Fait crucial : les prédictions s’effectuent dans cet espace de représentation compressé, et non dans l’espace sensoriel brut.
  • Une variable latente représente les éléments présents dans l’état futur mais non observables dans l’état courant, permettant au système de gérer une incertitude réelle plutôt que de converger vers un résultat prédit unique.

« L’essentiel est d’apprendre une représentation abstraite du monde et de faire des prédictions dans cet espace abstrait, en ignorant les détails qu’on ne peut pas prédire », a déclaré LeCun au MIT Technology Review. « C’est ce que fait JEPA. Il apprend les règles sous-jacentes du monde par observation, comme un bébé qui apprend la gravité. »

Cela rejoint la façon dont les neurosciences décrivent la cognition humaine : le cerveau maintient un modèle interne extraordinairement riche du monde, qui reçoit un minimum d’entrées sensorielles pour l’« ancrer » à chaque instant. Les informations superflues non requises par le modèle sont éliminées, permettant un calcul de trajectoire continu dans l’espace du modèle mental avec une grande efficacité.

La distinction pratique importe pour les applications en aval. Un modèle du mondeReprésentation interne qu'un système d'IA se fait du fonctionnement du monde physique, lui permettant de prédire les conséquences de ses actions. conditionné par les actions, comme l’envisage AMI Labs, peut prédire les conséquences d’actions potentielles avant de les exécuter. Cela permet la planification : évaluer plusieurs séquences d’actions et sélectionner celle qui a le plus de chances d’atteindre un objectif tout en respectant des contraintes de sécurité. Les agents fondés sur des LLM, au contraire, doivent recourir à des outils externes et à des approches par essai-erreur, faute de cette capacité prédictive.

Le départ de Meta et le contexte industriel

LeCun a fondé FAIR (Fundamental AI Research) chez Meta en 2013 et en a été le directeur scientifique de l’IA pendant plus d’une décennie. Il est parti en novembre 2025 après ce qu’il a décrit comme une divergence croissante entre son programme de recherche et la direction stratégique de Meta.

La cause directe a été la restructuration organisationnelle de Meta. Meta a eu du mal à s’imposer avec ses modèles Llama et a connu des remaniements internes alors que le PDG Mark Zuckerberg pivotait de la recherche fondamentale vers l’IA appliquée. Le groupe robotique de FAIR a été dissous, une décision que LeCun a qualifiée d’« erreur stratégique ».

À Davos, LeCun a été explicite : la décision de Meta d’investir des dizaines de milliards dans des centres de données axés sur les LLM a contribué à son départ. Sa conviction que les LLM ne mèneraient pas à une intelligence au niveau humain « le rendait impopulaire dans l’entreprise ».

AMI Labs : structure et financement

AMI Labs a levé 1,03 milliard de dollars à une valorisation pré-money de 3,5 milliards, le deuxième plus grand tour d’amorçage de l’histoire de la tech après la levée de 2 milliards de Thinking Machines Lab. Le tour a été co-dirigé par Cathay Innovation, Greycroft, Hiro Capital, HV Capital et Bezos Expeditions, avec la participation de Nvidia, Temasek, Samsung, Toyota Ventures et des investisseurs individuels dont Tim Berners-Lee, Eric Schmidt et Mark Cuban.

L’équipe dirigeante est largement issue de l’écosystème IA de Meta. Alexandre LeBrun (PDG) a auparavant dirigé la division d’ingénierie parisienne de FAIR et fondé Nabla, une entreprise d’IA dans la santé qui est le premier partenaire déclaré d’AMI. Saining Xie, ancien chercheur à NYU et chez Google DeepMind, est directeur scientifique. Laurent Solly, ancien vice-président de Meta pour l’Europe, est directeur des opérations.

Les clients cibles comprennent des organisations gérant des systèmes physiques complexes : industriels, entreprises aérospatiales, groupes pharmaceutiques et chercheurs en biomédecine. Ces secteurs ont besoin d’une IA qui fonctionne de manière fiable dans des environnements dynamiques où les erreurs ont des conséquences réelles, une exigence que les systèmes fondés sur des LLM ne peuvent pas encore satisfaire.

LeBrun est honnête sur le calendrier. « AMI Labs est un projet très ambitieux, car il part de la recherche fondamentale », a-t-il confié à TechCrunch. « Il pourrait s’écouler des années avant que les modèles du monde passent de la théorie aux applications commerciales. » L’entreprise prévoit de publier ses travaux et de rendre son code open source, un contraste délibéré avec l’approche fermée des grands laboratoires LLM.

Contre-arguments et critiques

Les dirigeants des entreprises d’IA les plus valorisées au monde ne partagent pas l’analyse de LeCun. À Davos, le PDG d’Anthropic, Dario Amodei, a prédit que les architectures d’IA actuelles remplaceraient tous les développeurs de logiciels en un an et atteindraient un niveau de recherche scientifique digne d’un prix Nobel en deux ans. Le PDG de Google DeepMind, Demis Hassabis, s’est montré plus prudent, estimant à 50 % les chances que l’IAG arrive dans la décennie, mais reconnaissant qu’« une ou deux percées supplémentaires » pourraient être nécessaires.

Des critiques pointent aussi l’approche spécifique de LeCun. Gary Marcus, chercheur en IA influent, soutient que LeCun « a trouvé le bon nom pour quelque chose dont nous avons besoin (« modèle du monde »), mais une implémentation insuffisante ». Marcus fait valoir que les modèles du monde requièrent une connaissance explicite, structurée et directement récupérable sur le temps, l’espace, la causalité et les événements pour un raisonnement formel, et que JEPA n’est « qu’un autre réseau de neurones opaque et difficilement interprétable qui ne se prête pas au raisonnement ».

Marcus remet également en question les revendications d’originalité de LeCun, soulignant que le concept de modèles du monde remonte au General Problem Solver d’Herb Simon dans les années 1950, et que Jurgen Schmidhuber a proposé d’intégrer des modèles du monde aux réseaux de neurones dès 1990. LeCun, selon lui, cite rarement ces prédécesseurs.

Il existe aussi un défi empirique : LeCun a travaillé sur JEPA chez Meta avec une équipe conséquente pendant plusieurs années. Les résultats ont été prometteurs mais incrémentaux. I-JEPA a démontré un apprentissage solide de représentations d’images auto-supervisées, et V-JEPA a étendu cette approche à la vidéo. Mais ni l’un ni l’autre n’a produit les capacités transformatrices que LeCun envisage. Que 1 milliard de dollars de financement indépendant change cette équation reste une question ouverte.

Le pari structurel

Ce qui rend la position de LeCun digne d’une analyse attentive, ce n’est pas la critique en elle-même. La conviction que les LLM ne peuvent pas atteindre l’intelligence humaine est largement partagée parmi les chercheurs en IA et les scientifiques académiques. Ce qui est inhabituel, c’est l’échelle et la structure du pari.

LeCun mise que le paradigme d’IA le plus commercialement réussi de l’histoire a un plafond dur, que la bonne alternative est une architecture qu’il a lui-même conçue, et que la communauté de recherche et les marchés financiers sont suffisamment convaincus pour financer un effort pluriannuel sans produit à court terme. Le 1,03 milliard indique qu’au moins certains investisseurs sophistiqués partagent cet avis.

Le contre-argument est tout aussi structurel : les LLM ne sont pas statiques. Les modèles multimodaux traitent déjà images, audio et vidéo. Les capacités de raisonnement continuent de progresser. La question est de savoir si ces extensions peuvent combler l’écart identifié par LeCun, ou si le fondement autorégressifMéthode de génération de texte où chaque nouveau token est prédit uniquement à partir des tokens précédents, traitant la séquence de gauche à droite sans possibilité de réviser les sorties antérieures. de prédiction de tokens est, comme il l’affirme, une contrainte permanente.

Si LeCun a raison, les milliers de milliards affluant vers l’infrastructure LLM représentent une allocation historiquement erronée. S’il a tort, AMI Labs rejoindra la longue liste de projets de recherche bien financés qui ont produit des articles intéressants sans provoquer de changement de paradigme. Dans les deux cas, le domaine entre dans une période où les hypothèses fondamentales derrière le paradigme dominant de l’IA sont remises en question à une échelle sans précédent.

Qu'avez-vous pensé de cet article ?
Partager cet article

Une erreur ? Signalez-la

Sources