Todas las grandes empresas de IA del planeta están invirtiendo miles de millones en grandes modelos de lenguaje. Yann LeCun, el investigador ganador del Premio Turing que contribuyó a inventar la tecnología detrás de la IA moderna, cree que todas se equivocan. En marzo de 2026, apostó 1.030 millones de dólares por esa convicción al lanzar AMI Labs para construir lo que llama «world models AI» (IA de modelos del mundo): un enfoque radicalmente distinto de la inteligencia máquina.
Es una de las apuestas más dramáticas en la historia de la inteligencia artificial: una figura fundadora del campo que abandona el paradigma dominante y apuesta a que la tecnología que impulsa ChatGPT, Claude y Gemini es fundamentalmente incapaz de alcanzar una comprensión real.
El caso contra los grandes modelos de lenguaje
El argumento de LeCun es directo. Los grandes modelos de lenguaje se entrenan con texto. Predicen la siguiente palabra en una secuencia basándose en patrones estadísticos aprendidos al leer vastas porciones de internet. Lo hacen extraordinariamente bien, razón por la cual pueden redactar ensayos, resumir investigaciones y generar código.
Pero según LeCun, eso es todo lo que harán jamás.
«Vamos a tener sistemas de IA con inteligencia similar y a nivel humano, pero no van a estar construidos sobre LLM», le dijo al MIT Technology Review desde su apartamento en París. «No va a ocurrir el año que viene ni en dos años. Hacen falta avances conceptuales importantes.»
El problema central, argumenta LeCun, es que los modelos de lenguaje no comprenden el mundo. Pueden aprobar el examen del colegio de abogados y escribir software funcional, pero no pueden predecir qué sucede cuando empujas un vaso de una mesa. No tienen ningún concepto de gravedad, ningún sentido de la causa y el efecto, ningún modelo de cómo funciona la realidad física.
Por eso, a pesar de años de esfuerzo y cientos de miles de millones de dólares en inversión, nadie ha construido un robot doméstico tan capaz como un gato o un coche verdaderamente autónomo. La parte difícil no es el lenguaje. La parte difícil es todo lo demás.
La IA de modelos del mundo: aprender de la realidad
La alternativa de LeCun se llama JEPA, o Joint Embedding Predictive Architecture. En lugar de entrenarse con texto, JEPA aprende de vídeo, audio y datos de sensores. En lugar de predecir la siguiente palabra, aprende a predecir cómo cambia el mundo real a lo largo del tiempo.
La intuición clave reside en lo que JEPA no hace. La IA generativa tradicional intenta reconstruir cada detalle de lo que observa, píxel a píxel. JEPA, en cambio, aprende representaciones abstractas, centrándose en los patrones que importan e ignorando los detalles impredecibles.
«El mundo es impredecible», explicó LeCun. «Si intentas construir un modelo generativo que prediga cada detalle del futuro, fallará. JEPA aprende las reglas subyacentes del mundo a partir de la observación, como un bebé que aprende sobre la gravedad.»
Piénsese en cómo aprende un niño. Un bebé no necesita que le digan que los objetos sin apoyo caen. Observa objetos cayendo, construye un modelo interno de cómo funciona la gravedad y luego usa ese modelo para predecir y planificar. LeCun cree que las máquinas necesitan aprender de la misma manera.
Por qué dejó Meta
LeCun pasó más de una década en Meta, donde fundó y dirigió FAIR (Fundamental AI Research), uno de los laboratorios de IA más influyentes del mundo. Se fue en noviembre de 2025.
La salida no fue del todo amistosa. En el Foro Económico Mundial de Davos en enero de 2026, LeCun declaró públicamente que la decisión de Meta de invertir decenas de miles de millones en centros de datos centrados en LLM contribuyó a su salida. «La industria de la IA está completamente “LLM-pilled” (obsesionada con los LLM)», dijo al público. «En Silicon Valley, todo el mundo trabaja en lo mismo. Todos están cavando la misma trinchera.»
Fue diplomático sobre Meta en su entrevista con el MIT Technology Review, señalando que «Mark tomó algunas decisiones que consideró las mejores para la empresa. Puede que no estuviera de acuerdo con todas ellas.» Pero fue directo sobre una decisión: la disolución del grupo de robótica de FAIR, a la que LeCun calificó de «error estratégico».
El cofre de guerra de mil millones
La ronda semilla de 1.030 millones de dólares de AMI Labs es la segunda mayor ronda semilla en la historia de la tecnología, solo superada por la captación de 2.000 millones de Thinking Machines Lab. La empresa está valorada en 3.500 millones antes de la inversión.
La lista de inversores parece un quién es quién del capital tecnológico global: Nvidia, Bezos Expeditions (la firma de inversión de Jeff Bezos), el fondo soberanoFondo de inversión de propiedad estatal que gestiona los ahorros nacionales o ingresos de materias primas en nombre de un gobierno para beneficio económico a largo plazo. de Singapur Temasek, Samsung, Toyota Ventures y Eric Schmidt. La ronda fue co-liderada por Cathay Innovation, Greycroft, Hiro Capital, HV Capital y Bezos Expeditions.
AMI Labs tiene su sede en París, con oficinas previstas en Nueva York, Montreal y Singapur. Alexandre LeBrun, ex director ejecutivo de la startup de salud digital Nabla, dirige la empresa como CEO, con LeCun actuando como presidente ejecutivo. Laurent Solly, ex vicepresidente de Meta para Europa, se incorporó como director de operaciones.
LeCun conserva su cátedra en la NYU. «Puedo hacer gestión, pero no me gusta hacerlo», admitió. «Mi misión es hacer avanzar la ciencia y la tecnología tanto como sea posible.»
No todo el mundo está de acuerdo
La postura a contracorriente de LeCun lo enfrenta directamente con los líderes de las empresas de IA más valiosas del mundo.
En Davos, el CEO de Anthropic, Dario Amodei, le dijo al mismo público que los modelos de IA construidos sobre la arquitectura actual reemplazarían el trabajo de todos los desarrolladores de software en un año y alcanzarían una investigación científica de «nivel Nobel» en dos. Predijo que el 50 por ciento de los empleos de oficina desaparecería en cinco años.
Demis Hassabis, CEO de Google DeepMind, fue más cauto: dijo que los sistemas actuales no están «ni cerca» de la AGI y que «quizás necesitamos uno o dos avances más». Estimó en un 50 por ciento las probabilidades de que la AGI llegue en esta década, aunque no a través de modelos construidos exactamente como los de hoy.
Los críticos también cuestionan si el enfoque específico de LeCun es el correcto. Gary Marcus, destacado investigador de IA y crítico de LeCun desde hace tiempo, ha argumentado que LeCun «tiene el nombre correcto para algo que necesitamos (“modelo del mundoRepresentación interna del funcionamiento del mundo físico en un sistema de IA, que le permite predecir las consecuencias de sus acciones antes de ejecutarlas.”), pero una implementación inadecuada». Marcus señala que el concepto de modelos del mundo se remonta a los años cincuenta, y que Jurgen Schmidhuber propuso añadir modelos del mundo a las redes neuronales ya en 1990. LeCun, sostiene Marcus, rara vez reconoce a estos predecesores.
El CEO de AMI Labs, LeBrun, es franco sobre los plazos. «AMI Labs es un proyecto muy ambicioso, porque empieza con investigación fundamental», le dijo a TechCrunch. «No es una startup de IA aplicada típica que puede lanzar un producto en tres meses.» Podrían pasar años antes de que los modelos del mundo produzcan aplicaciones comerciales.
Lo que la IA de modelos del mundo podría hacer realmente
Si LeCun tiene razón, las aplicaciones van mucho más allá de los chatbots. AMI Labs apunta a industrias que operan sistemas físicos complejos: fabricación, aeroespacial, investigación biomédica y farmacéutica. Son dominios donde los errores tienen consecuencias reales y donde entender la realidad física no es opcional.
LeCun imagina modelos del mundo impulsando robots autónomos capaces de adaptarse a entornos desconocidos, gafas inteligentes que anticipan tu próxima acción, sistemas industriales que predicen fallos de equipos antes de que ocurran, y coches verdaderamente autónomos que comprenden la causa y el efecto en lugar de simplemente reconocer situaciones de tráfico.
«Un sistema agéntico que se supone debe actuar en el mundo no puede funcionar de manera fiable a menos que tenga modelos del mundo para predecir las consecuencias de sus acciones», argumentó LeCun. «Esta es la clave para desbloquear todo, desde robots domésticos verdaderamente útiles hasta la conducción autónoma de nivel 5.»
El ángulo del código abierto
LeCun también posiciona AMI Labs como contrapeso a lo que considera una peligrosa consolidación del poder en la IA. Aboga con fuerza por la IA de código abierto, criticando tanto el giro de OpenAI de abierto a cerrado como el enfoque siempre cerrado de Anthropic.
«Si hay un futuro en el que toda nuestra dieta de información está mediada por asistentes de IA, y la elección es entre modelos en inglés producidos por empresas propietarias siempre cercanas a Estados Unidos o modelos chinos», le dijo al MIT Technology Review, «no es un futuro muy agradable e interesante.» AMI Labs planea publicar investigaciones y lanzar código como código abierto a medida que avance.
Las apuestas
Tenga razón o no LeCun, las apuestas son enormes. La industria de la IA ha comprometido billones de dólares con el paradigma de los LLM. Si los modelos del mundo resultan ser el avance necesario para una inteligencia máquina genuina, la fiebre del oro actual podría parecer un desvío. Si LeCun se equivoca, habrá quemado mil millones de dólares persiguiendo una tecnología que produce poco más que artículos de investigación interesantes.
LeCun se ha equivocado antes, y también ha tenido razón. Fue uno de los tres investigadores que ganaron el Premio Turing 2018 por trabajos en aprendizaje profundo sobre los que descansa todo el auge actual de la IA. Pero como observó un análisis de Newsweek, nadie sabe exactamente cómo los sistemas de IA actuales logran sus resultados, lo que deja el debate sobre su techo máximo lejos de estar resuelto.
Lo que hace distintiva la apuesta de LeCun no es la crítica en sí. Muchos investigadores comparten su escepticismo sobre si los LLM pueden alcanzar la inteligencia humana. Lo distintivo es la escala de la apuesta: mil millones de dólares, una nueva empresa y una ruptura pública con el consenso de la industria, todo ello apostado a la convicción de que la tecnología más exitosa de una generación es un callejón sin salida.
Todos los grandes laboratorios de IA están escalando grandes modelos de lenguaje. Yann LeCun, co-receptor del Premio Turing 2018 por trabajos fundamentales en aprendizaje profundo, considera que esto es un error categórico. En marzo de 2026, recaudó 1.030 millones de dólares para AMI Labs con el fin de desarrollar IA de modelos del mundo basada en la Joint Embedding Predictive Architecture (JEPA), un enfoque que, según argumenta, aborda limitaciones fundamentales que ninguna escala de LLM puede superar.
El argumento técnico contra los LLM
La crítica de LeCun se basa en lo que ve como un techo arquitectónico. Los LLM operan en un espacio discreto y de baja dimensionalidad: el texto. Aprenden correlaciones estadísticas entre tokens y generan salidas muestreando distribuciones de probabilidad sobre esos tokens. Esto funciona extraordinariamente bien para tareas lingüísticas precisamente porque, como LeCun explicó en un análisis de Newsweek, «el lenguaje humano cumple este requisito de un espacio discreto y de baja dimensionalidad».
El problema es que el mundo físico es continuo, de alta dimensionalidad y está regido por relaciones causales que el texto no puede codificar. LeCun encuadra esto a través de la distinción Sistema 1/Sistema 2 de Daniel Kahneman: los LLM actuales son procesadores de Sistema 1. Producen token tras token mediante un grafo de cálculo fijo, reaccionando al contexto actual sin deliberación genuina.
El razonamiento en cadena de pensamientoTécnica de prompting que guía a un modelo de lenguaje a razonar paso a paso antes de dar una respuesta final, mejorando la precisión en tareas que requieren lógica o análisis secuencial., que parece añadir capacidades de Sistema 2, es para LeCun «aún solo un enfoque estadístico, que explora múltiples caminos con diferentes probabilidades antes de dar una respuesta». Lo llama «Sistema 1.1 en el mejor caso» y señala que las exploraciones en n² que requieren estos métodos los hacen fundamentalmente ineficientes en comparación con el razonamiento real de Sistema 2 sobre modelos del mundo abstractos.
«Tenemos sistemas que pueden aprobar el examen del colegio de abogados, pueden escribir código», dijo LeCun en Davos, «pero realmente no lidian con el mundo real. Por eso no tenemos robots domésticos ni coches autónomos de nivel 5.» Es la paradoja de MoravecLa observación de que las tareas fáciles para los humanos (percepción, movimiento) son difíciles para la IA, mientras que las tareas difíciles para los humanos le resultan sencillas. en acción: lo que es fácil para los humanos (percepción, navegación, razonamiento físico) sigue siendo difícil para los ordenadores, y viceversa.
La IA de modelos del mundo y la arquitectura JEPA
JEPA, que LeCun propuso en 2022 antes de la explosión de los LLM, adopta un enfoque fundamentalmente distinto del aprendizaje de representaciones. Mientras los modelos generativos (incluidos los LLM) predicen en el espacio de píxeles o tokens, JEPA predice en el espacio de representaciones abstractas.
La arquitectura funciona mediante tres componentes:
- Los codificadores transforman entradas brutas (fotogramas de vídeo, audio, datos de sensores) en representaciones abstractas que capturan características esenciales descartando los detalles irrelevantes.
- Un módulo predictor aprende a predecir la representación abstracta de un estado futuro a partir de la representación del estado actual. De manera crucial, las predicciones ocurren en este espacio de representación comprimido, no en el espacio sensorial bruto.
- Una variable latente representa elementos presentes en el estado futuro pero no observables en el actual, lo que permite al sistema manejar incertidumbre genuina en lugar de colapsar a un único resultado predicho.
«La clave es aprender una representación abstracta del mundo y hacer predicciones en ese espacio abstracto, ignorando los detalles que no puedes predecir», le dijo LeCun al MIT Technology Review. «Eso es lo que hace JEPA. Aprende las reglas subyacentes del mundo a partir de la observación, como un bebé que aprende sobre la gravedad.»
Esto refleja cómo las neurociencias describen la cognición humana: el cerebro mantiene un modelo interno extraordinariamente rico del mundo que recibe una entrada sensorial mínima para «anclarlo» en cada momento. La información superflua no requerida por el modelo se elimina, lo que permite un cálculo continuo de trayectorias a través del espacio del modelo mental con gran eficiencia.
La distinción práctica importa para las aplicaciones posteriores. Un modelo del mundoRepresentación interna del funcionamiento del mundo físico en un sistema de IA, que le permite predecir las consecuencias de sus acciones antes de ejecutarlas. condicionado por acciones, tal como AMI Labs lo concibe, puede predecir las consecuencias de acciones potenciales antes de ejecutarlas. Esto habilita la planificación: evaluar múltiples secuencias de acciones y seleccionar la que con mayor probabilidad alcance un objetivo respetando restricciones de seguridad. Los agentes basados en LLM, en cambio, deben recurrir a herramientas externas y a ensayo-error porque carecen de esta capacidad predictiva.
La salida de Meta y el contexto industrial
LeCun fundó FAIR (Fundamental AI Research) en Meta en 2013 y se desempeñó como director científico de IA durante más de una década. Se fue en noviembre de 2025 tras lo que describió como una divergencia creciente entre su agenda de investigación y la dirección estratégica de Meta.
La causa inmediata fue la reestructuración organizativa de Meta. Meta tuvo dificultades para ganar terreno con sus modelos Llama y vivió convulsiones internas mientras el CEO Mark Zuckerberg pivotaba de la investigación fundamental hacia la IA aplicada. El grupo de robótica de FAIR fue disuelto, una decisión que LeCun calificó de «error estratégico».
En Davos, LeCun fue explícito: la decisión de Meta de verter decenas de miles de millones en centros de datos centrados en LLM contribuyó a su salida. Su convicción de que los LLM no llevarían a la inteligencia a nivel humano «le hacía impopular en la empresa».
AMI Labs: estructura y financiación
AMI Labs recaudó 1.030 millones de dólares a una valoración pre-money de 3.500 millones, la segunda mayor ronda semilla en la historia de la tecnología tras la captación de 2.000 millones de Thinking Machines Lab. La ronda fue co-liderada por Cathay Innovation, Greycroft, Hiro Capital, HV Capital y Bezos Expeditions, con participación de Nvidia, Temasek, Samsung, Toyota Ventures e inversores individuales entre los que se encuentran Tim Berners-Lee, Eric Schmidt y Mark Cuban.
El equipo directivo proviene en gran medida del ecosistema de IA de Meta. Alexandre LeBrun (CEO) dirigió anteriormente la división de ingeniería parisina de FAIR y fundó Nabla, una empresa de IA en salud que es el primer socio declarado de AMI. Saining Xie, anteriormente en la NYU y Google DeepMind, es director científico. Laurent Solly, ex vicepresidente de Meta para Europa, es director de operaciones.
Los clientes objetivo incluyen organizaciones que operan sistemas físicos complejos: fabricantes, empresas aeroespaciales, farmacéuticas e investigadores biomédicos. Estas industrias necesitan IA que funcione de manera fiable en entornos dinámicos donde los errores tienen consecuencias reales, un requisito que los sistemas basados en LLM no pueden cumplir actualmente.
LeBrun es franco sobre los plazos. «AMI Labs es un proyecto muy ambicioso, porque empieza con investigación fundamental», le dijo a TechCrunch. «Podrían pasar años antes de que los modelos del mundo pasen de la teoría a las aplicaciones comerciales.» La empresa planea publicar investigaciones y lanzar código como código abierto, un contraste deliberado con el enfoque cerrado de los laboratorios LLM de vanguardia.
Contraargumentos y críticas
Los líderes de las empresas de IA más valiosas del mundo no comparten la valoración de LeCun. En Davos, el CEO de Anthropic, Dario Amodei, predijo que las arquitecturas de IA actuales reemplazarían a todos los desarrolladores de software en un año y alcanzarían una investigación científica de «nivel Nobel» en dos. El CEO de Google DeepMind, Demis Hassabis, fue más cauteloso: estimó en un 50 por ciento la probabilidad de que la AGI llegue en esta década, aunque reconoció que «quizás se necesiten uno o dos avances más».
También hay críticas punzantes al enfoque específico de LeCun. Gary Marcus, destacado investigador de IA, argumenta que LeCun «tiene el nombre correcto para algo que necesitamos (“modelo del mundo”), pero una implementación inadecuada». Marcus sostiene que los modelos del mundo requieren conocimiento explícito, estructurado y directamente recuperable sobre tiempo, espacio, causalidad y eventos para el razonamiento formal, y que JEPA es «solo otra red neuronal opaca e ininterpretable que no se presta al razonamiento».
Marcus también cuestiona las reivindicaciones de originalidad de LeCun, señalando que el concepto de modelos del mundo se remonta al Solucionador General de Problemas de Herb Simon en los años cincuenta, y que Jurgen Schmidhuber propuso integrar modelos del mundo con redes neuronales en 1990. LeCun, argumenta, rara vez reconoce a estos predecesores.
También existe un desafío empírico: LeCun trabajó en JEPA en Meta con un equipo considerable durante varios años. Los resultados han sido prometedores pero incrementales. I-JEPA demostró un sólido aprendizaje de representación de imágenes auto-supervisado, y V-JEPA extendió esto al vídeo. Pero ninguno de los dos ha producido las capacidades transformadoras que LeCun imagina. Si 1.000 millones de dólares de financiación independiente cambian esta ecuación sigue siendo una pregunta abierta.
La apuesta estructural
Lo que hace que la posición de LeCun merezca un análisis cuidadoso no es la crítica en sí. La opinión de que los LLM no pueden alcanzar la inteligencia humana está ampliamente extendida entre los investigadores de IA y los científicos académicos. Lo inusual es la escala y la estructura de la apuesta.
LeCun apuesta a que el paradigma de IA comercialmente más exitoso de la historia tiene un techo duro, a que la alternativa correcta es una arquitectura que él mismo diseñó, y a que la comunidad investigadora y los mercados de capitales están suficientemente persuadidos para financiar un esfuerzo plurianual sin ningún producto a corto plazo. Los 1.030 millones de dólares indican que al menos algunos inversores sofisticados están de acuerdo.
El contraargumento es igualmente estructural: los LLM no son estáticos. Los modelos multimodales ya procesan imágenes, audio y vídeo. Las capacidades de razonamiento siguen mejorando. La pregunta es si estas extensiones pueden cerrar la brecha que LeCun identifica, o si el fundamento de predicción autorregresiva de tokens es, como él afirma, una restricción permanente.
Si LeCun tiene razón, los billones que fluyen hacia la infraestructura LLM representan una asignación históricamente errónea. Si se equivoca, AMI Labs se sumará a una larga lista de iniciativas de investigación bien financiadas que produjeron artículos interesantes pero ningún cambio de paradigma. En cualquier caso, el campo entra en un período donde los supuestos fundamentales detrás del paradigma dominante de IA están siendo cuestionados a una escala sin precedentes.



