En diciembre de 2024, Google anunció que su nuevo chip cuántico, Willow, había completado un cálculo en menos de cinco minutos que le llevaría a la supercomputadora más rápida del mundo 10 septillones de años. Ese número es tan grande que hace que la edad del universo parezca un error de redondeo. Unos meses después, D-Wave publicó resultados revisados por pares que mostraban que su recocedor cuántico podía simular materiales magnéticos en minutos, algo que le llevaría a una supercomputadora clásica casi un millón de años. Y en octubre de 2025, Google siguió con un algoritmo que funcionaba 13.000 veces más rápido que cualquier cosa que una supercomputadora pudiera hacer.
Estos son resultados reales, publicados en Nature y Science, de máquinas que existen hoy. ¿Significa eso que las computadoras cuánticas han ganado? No exactamente. La realidad es más matizada, más interesante y más importante de entender de lo que sugieren los titulares.
Qué hacen diferente las computadoras cuánticas
Las computadoras clásicas procesan información como bits: unos y ceros. Cada cálculo, desde enviar un correo electrónico hasta entrenar un modelo de inteligencia artificial, se reduce a cambiar y leer esos bits muy rápidamente. Los procesadores modernos manejan miles de millones de operaciones por segundo y son extraordinariamente buenos en ello.
Las computadoras cuánticas usan qubits en su lugar. Un qubit puede existir en una «superposición» de 0 y 1 al mismo tiempo, y múltiples qubits pueden «entrelazarse», lo que significa que el estado de uno influye instantáneamente en los demás. Esto no es simplemente computación clásica más rápida. Es una manera fundamentalmente diferente de procesar información que permite a las máquinas cuánticas explorar muchas soluciones posibles simultáneamente.
Para verlo de otro modo: una computadora clásica que busca su camino en un laberinto prueba un sendero a la vez. Una computadora cuántica puede, en cierto sentido, explorar todos los caminos a la vez. Para ciertos tipos de problemas, esto les da a las máquinas cuánticas una ventaja exponencial.
Pero aquí está la advertencia crítica: «ciertos tipos de problemas» está haciendo mucho trabajo en esa oración.
Qué significa realmente la «ventaja cuántica»
Cuando los investigadores dicen que una computadora cuántica ha logrado «ventaja cuántica» o «supremacía cuántica», quieren decir que ha resuelto un problema específico más rápido que cualquier método clásico conocido. Esa es una afirmación más limitada de lo que parece.
El resultado Willow de Google en 2024, por ejemplo, usó un punto de referencia llamado muestreo de circuitos aleatorios (RCS). Este prueba si una computadora cuántica puede producir resultados que una computadora clásica no puede replicar eficientemente. Willow superó esa prueba con claridad. Pero el RCS no tiene ninguna aplicación práctica conocida. Es una prueba de capacidad, no un producto.
El resultado de D-Wave en 2025 fue diferente y posiblemente más significativo: resolvió un problema real de ciencia de materiales, simulando el comportamiento de materiales magnéticos llamados vidrios de espín. Esto tiene aplicaciones reales en la comprensión de superconductores, sensores y componentes electrónicos. Fue publicado en Science y se considera la primera demostración de supremacía cuántica en un problema útil.
Luego llegó la prueba matemáticamente más rigurosa hasta la fecha. En septiembre de 2025, investigadores de UT Austin y Quantinuum demostraron lo que llamaron supremacía cuántica «incondicional»: una tarea de memoria que 12 qubits podían resolver pero que requeriría al menos 62 bits clásicos. A diferencia de afirmaciones anteriores, ningún algoritmo clásico futuro puede cerrar esta brecha. Las matemáticas lo demuestran imposible.
El problema de los errores
El mayor obstáculo entre las computadoras cuánticas actuales y la utilidad práctica son los errores. Los qubits son extraordinariamente frágilesDiseñado para romperse, desmoronarse o ceder fácilmente al impacto; principio de diseño estructural que permite que los objetos cerca de las pistas fallen de forma segura en lugar de causar daño adicional a las aeronaves.. Necesitan enfriarse a temperaturas más frías que el espacio exterior, e incluso así, la menor perturbación puede corromper un cálculo.
El chip Willow de Google logró un verdadero avance en este aspecto. Su artículo en Nature mostró que agregar más qubits en realidad redujo la tasa de errores, reduciéndola a la mitad con cada paso en el tamaño del código. Esto se llama ir «por debajo del umbral», y los investigadores lo habían perseguido durante casi 30 años desde que Peter Shor propuso por primera vez la corrección cuántica de errores en 1995.
Pero el contexto importa. La tasa de error lógico de Willow de aproximadamente 0,143 % por ciclo sigue siendo muy superior a las tasas de aproximadamente 0,0001 % que necesitarían los algoritmos cuánticos tolerantes a fallos a gran escala. La brecha entre «por debajo del umbral» y «realmente útil a escala» sigue siendo significativa.
En qué son buenas las computadoras cuánticas (y en qué no)
Las computadoras cuánticas no reemplazarán su laptop. No procesarán sus hojas de cálculo más rápido ni harán su navegador web más ágil. No son mejores en computación de propósito general. Para la gran mayoría de las tareas, las computadoras clásicas seguirán siendo superiores, más baratas y más prácticas.
Donde las máquinas cuánticas muestran un potencial genuino es en problemas que son inherentemente cuánticos o combinatoriamente explosivos:
- Simulación molecular: Entender cómo interactúan las moléculas es fundamental para el descubrimiento de fármacos y la ciencia de materiales. Las computadoras clásicas tienen dificultades para modelar el comportamiento cuántico a nivel atómico porque, por definición, no son cuánticas. El algoritmo Quantum Echoes de Google demostró un análisis de estructura molecular que coincidió con datos de resonancia magnética nuclear, apuntando hacia un futuro «cuantoscopio» para la química.
- Optimización: La logística de rutas, la optimización de carteras y la gestión de cadenas de suministro implican encontrar la mejor solución entre una cantidad astronómica de posibilidades. El recocido cuánticoEnfoque de computación cuántica que halla soluciones óptimas usando el efecto túnel cuántico para escapar de mínimos locales, adecuado para tareas de optimización., el enfoque que usa D-Wave, muestra potencial aquí.
- Criptografía: Una computadora cuántica suficientemente potente podría romper la mayoría del cifrado actual. Estimaciones recientes sugieren que romper RSA-2048 podría requerir alrededor de un millón de qubits, frente a estimaciones anteriores de 20 millones. Estamos muy lejos de eso hoy, pero la trayectoria importa.
- Descubrimiento de materiales: Simular nuevos materiales para baterías, células solares o superconductores es una aplicación natural de la computación cuántica.
Bain & Company estima el potencial total del mercado en hasta 250.000 millones de dólares en los sectores farmacéutico, financiero, logístico y de ciencia de materiales. Pero el mercado actual de hardware y servicios de computación cuántica es de menos de 1.000 millones de dólares anuales. La brecha entre el potencial y la realidad sigue siendo enorme.
La carrera para construir una computadora cuántica real
Las principales empresas tecnológicas persiguen enfoques diferentes, y esa diversidad es en sí misma reveladora: nadie ha encontrado aún el diseño ganador.
Google usa qubits superconductores y se centra en escalar la corrección de errores. Su chip Willow tiene 105 qubits, y el próximo objetivo de la empresa es un qubit lógico de larga duración como Hito 3 en su hoja de ruta.
IBM está construyendo lo que llama «supercomputadoras cuántico-céntricas», que combinan procesadores cuánticos con clásicos. Su procesador Heron puede ejecutar circuitos con hasta 5.000 operaciones de puertas de dos qubits, e IBM apunta a ofrecer computación tolerante a fallos para 2029 con su procesador Starling: 200 qubits lógicos ejecutando circuitos de 100 millones de puertas.
Microsoft apostó de manera radicalmente diferente con Majorana 1, el primer procesador basado en qubits topológicos. Estos almacenan información en estados cuánticos exóticos que son intrínsecamente más resistentes a los errores. Microsoft ha colocado ocho qubits topológicos en un chip diseñado para escalar a un millón. La DARPA seleccionó a Microsoft para la fase final de su programa de construcción de una computadora cuántica a escala industrial.
D-Wave ofrece sistemas de recocido cuántico que ya están disponibles comercialmente, con su procesador Advantage2 manejando miles de qubits. Su enfoque es más estrecho pero más inmediatamente práctico para problemas de optimización.
El calendario honesto
El campo de la computación cuántica tiene un historial de promesas excesivas. Durante años, la computación cuántica práctica ha estado «a cinco o diez años». La evaluación honesta en 2026 es que estamos en lo que la industria llama la «era de la base tolerante a fallos». Se han resuelto importantes problemas de ingeniería en el laboratorio. Pero trasladar los resultados de laboratorio a máquinas que puedan ejecutar algoritmos útiles de manera confiable, a escala, durante horas, sigue siendo un desafío formidable.
El Informe QEC de Riverlane destaca un problema crítico de talento: se estima que solo existen entre 600 y 700 especialistas en corrección cuántica de errores en todo el mundo, pero se necesitan entre 5.000 y 16.000 para 2030. No se puede construir una revolución sin las personas que entienden las máquinas.
La mayoría de los expertos coincide ahora en que las computadoras cuánticas no reemplazarán a las clásicas, sino que trabajarán junto a ellas en arquitecturas híbridas. El análisis de Bain proyecta que el mercado de la computación cuántica alcanzará entre 5.000 y 15.000 millones de dólares para 2035, con primeras victorias prácticas en simulación molecular y optimización. El pleno potencial depende de avances que aún no han ocurrido.
Qué significa esto para usted
Si no es físico cuántico ni responsable de seguridad informática, la computación cuántica probablemente no afectará su vida cotidiana durante varios años más. Pero ya no es una curiosidad teórica. Máquinas reales están resolviendo problemas reales más rápido que las supercomputadoras clásicas, aunque esos problemas todavía sean limitados.
La preocupación práctica más inmediata es la ciberseguridad. La amenaza del «harvest now, decrypt later» (recolectar ahora, descifrar después), donde los atacantes almacenan datos cifrados hoy para descifrarlos con futuras computadoras cuánticas, ya está motivando a gobiernos y empresas a adoptar criptografía poscuántica. Si maneja datos sensibles con una larga vida útil, vale la pena prestar atención a esto ahora.
La ventaja cuántica es real. También es específica, limitada y temprana. La máquina que lo cambiará todo aún no ha sido construida. Pero por primera vez, los componentes que la harán posible han demostrado funcionar.
En diciembre de 2024, el equipo de Google Quantum AI publicó resultados en Nature demostrando que su procesador Willow de 105 qubits había logrado corrección de errores cuánticosMétodo que codifica un cúbit lógico en varios cúbits físicos para proteger la información cuántica de errores causados por el ruido y la decoherencia. por debajo del umbral usando el código de superficie. El número titular, completar el muestreo de circuitos aleatorios en menos de cinco minutos frente a los estimados 1025 años en Frontier, es dramático. Pero el verdadero avance fue el factor de supresión de errores: Λ = 2,14 ± 0,02 al aumentar la distancia del código en dos, culminando en un código de distancia 7 con 0,143 % ± 0,003 % de error por ciclo. Por primera vez, agregar qubits a un procesador cuántico superconductor lo hizo más confiable, no menos.
Este resultado llegó junto con varias otras demostraciones hito en 2025, que colectivamente redefinieron lo que «ventaja cuántica» significa en la práctica y acercaron el campo a la computación cuántica útil y tolerante a fallos.
Por debajo del umbral: por qué importa
La corrección cuántica de errores (QEC) codifica un qubit lógico en múltiples qubits físicos para proteger contra la decoherencia y los errores de puertas. El código de superficie, el código QEC más estudiado, relaciona la tasa de error lógico con la tasa de error físico a través de la relación aproximada εd ∝ (p/pthr)(d+1)/2, donde d es la distancia del código, p es la tasa de error físico y pthr es el umbral. Cuando p < pthr, la tasa de error lógico se suprime exponencialmente al aumentar la distancia del código.
Willow de Google demostró este comportamiento en códigos de superficie de distancia 3, 5 y 7 en dos procesadores (72 qubits y 105 qubits). El qubit lógico de distancia 7 logró una vida útil de 291 ± 6 μs, superando la vida útil del mejor qubit físico constituyente (119 ± 13 μs) por un factor de 2,4 ± 0,3. Este resultado de «más allá del punto de equilibrio» es una señal inequívoca de que la corrección de errores realmente mejora el sistema.
Sin embargo, la tasa de error lógico de 0,143 % por ciclo sigue siendo órdenes de magnitud por encima de las tasas de ~10-6 necesarias para algoritmos como la factorización de Shor o simulaciones prácticas de química cuántica. La brecha entre «por debajo del umbral» y «tolerante a fallos a escala» sigue siendo el desafío central de ingeniería.
El panorama de ventaja cuántica en 2025
Tres demostraciones distintas en 2024-2025 establecieron colectivamente la ventaja cuántica como una realidad empírica en lugar de una promesa teórica.
Muestreo de circuitos aleatorios (Google, diciembre de 2024)
El resultado RCS de Willow es la separación más fuerte hasta ahora entre la computación cuántica y la clásica en este punto de referencia. La estimación de Google de 1025 años clásicos asumió condiciones generosas para la supercomputadora Frontier, incluyendo almacenamiento secundario ilimitado sin sobrecarga de ancho de banda. Los algoritmos clásicos han mejorado desde la demostración Sycamore de Google en 2019, pero la brecha crece a una tasa doblemente exponencial. El RCS sigue siendo el más difícil clásicamente pero no tiene ninguna aplicación práctica conocida.
Simulación de materiales (D-Wave, marzo de 2025)
El prototipo Advantage2 de D-Wave realizó simulaciones de dinámica cuántica de vidrios de espín programables publicadas en Science. La colaboración simuló un conjunto de estructuras de red en múltiples tiempos de evolución, modelando el comportamiento de materiales magnéticos en minutos que le llevarían a Frontier casi un millón de años. Esto es notable como la primera afirmación revisada por pares de supremacía cuántica en un problema con aplicaciones científicas e industriales directas, usando recocido cuánticoEnfoque de computación cuántica que halla soluciones óptimas usando el efecto túnel cuántico para escapar de mínimos locales, adecuado para tareas de optimización. en lugar de computación basada en puertas.
Supremacía incondicional de información cuántica (UT Austin/Quantinuum, septiembre de 2025)
Los investigadores construyeron una tarea de complejidad de comunicación donde 12 qubits eran suficientes pero cualquier protocolo clásico requería al menos 62 bits de memoria. La distinción clave: esta separación es incondicional. A diferencia de las afirmaciones basadas en RCS, que se basan en conjeturas de complejidad computacional (la suposición de que la jerarquía polinómica no colapsa), el resultado de UT Austin lleva una prueba matemática de que ningún algoritmo clásico, por inteligente que sea, puede cerrar la brecha. Demuestra directamente el acceso al recurso exponencial del espacio de Hilbert.
Ventaja cuántica verificable (Google, octubre de 2025)
El algoritmo Quantum Echoes de Google calculó correladores temporales fuera de orden (OTOCs) en Willow, ejecutándose 13.000 veces más rápido que el mejor algoritmo clásico en una supercomputadora de vanguardia. A diferencia del RCS, este algoritmo modela experimentos físicos y prueba tanto la complejidad computacional como la precisión. Los resultados se verificaron con datos de resonancia magnética nuclear para moléculas de hasta 28 átomos, demostrando un camino hacia el análisis de estructura molecular mejorado cuánticamente.
La explosión de códigos QEC y el camino hacia la tolerancia a fallos
El panorama de 2025 experimentó una expansión dramática en la investigación QEC. El Informe QEC de Riverlane documenta 120 nuevos artículos de códigos QEC revisados por pares entre enero y octubre de 2025, frente a 36 en 2024. Las siete familias principales de códigos QEC ya han sido implementadas en hardware.
El cambio de códigos de superficie a códigos de control de paridad de baja densidad cuántica (qLDPC), iniciado por la transición de IBM en 2024, se espera que se extienda por la industria en 2026. Los códigos qLDPC ofrecen mejores tasas de codificación (más qubits lógicos por qubit físico) y son fundamentales para reducir la sobrecarga requerida para la computación tolerante a fallos.
Las implicaciones prácticas son significativas. Un análisis que combina códigos QEC mejorados, mayor calidad de qubits y un coprocesamiento clásico más inteligente estimó que romper RSA-2048 podría requerir aproximadamente un millón de qubits físicos, una reducción de 20 veces frente a estimaciones anteriores de 20 millones. Esto comprime considerablemente el calendario para la relevancia criptográfica.
Arquitecturas de hardware: un campo en divergencia
La ausencia de una tecnología de qubits dominante es en sí misma informativa. Cuatro enfoques fundamentalmente diferentes se persiguen a escala industrial:
Transmons superconductores (Google, IBM): La plataforma más madura. Willow de Google cuenta con 105 qubits con tiempos de coherencia T1 que se acercan a los 100 μs. Heron de IBM logra fidelidades de puertas de dos qubits récord y puede ejecutar con precisión ciertas clases de circuitos con hasta 5.000 operaciones de puertas de dos qubits. La hoja de ruta de IBM apunta a su procesador Starling tolerante a fallos para 2029: 200 qubits lógicos ejecutando circuitos de 100 millones de puertas.
Qubits topológicos (Microsoft): Majorana 1 usa un novedoso material topoconductor (heteroestructuras de arseniuro de indio/aluminio) enfriado a cerca del cero absoluto para formar nanohilos superconductores topológicos con Modos de Majorana de Energía Cero en los extremos. La información se codifica en la paridad de electrones compartidos entre pares de MZM, proporcionando protección topológica inherente contra el ruido local. Actualmente en ocho qubits en un chip diseñado para escalar a un millón. Control basado en medición mediante pulsos digitales en lugar de rotaciones analógicas. La DARPA seleccionó este enfoque para su fase final US2QC.
Iones atrapados (Quantinuum, IonQ): Investigadores de UT Austin demostraron supremacía incondicional de información cuántica usando el procesador de trampa de iones de la serie H de Quantinuum. Oxford Ionics demostró una fidelidad de puertas de dos qubits del 99,99 % en 2025. Los sistemas de iones atrapados ofrecen tiempos de coherencia más largos y conectividad de todos con todos, pero enfrentan desafíos en velocidad de puertas y escalado.
Recocido cuántico (D-Wave): Un modelo de computación fundamentalmente diferente, optimizado para problemas de optimización y simulación. El prototipo Advantage2 de D-Wave ya opera con miles de qubits, con su resultado de supremacía publicado en Science. La empresa ofrece acceso comercial en la nube hoy a través de su plataforma Leap.
El futuro híbrido y el calendario honesto
El consenso entre la industria y los analistas es que la computación cuántica aumentará, no reemplazará, la computación clásica. El Informe Tecnológico 2025 de Bain & Company proyecta un potencial de mercado de hasta 250.000 millones de dólares, pero los ingresos actuales son inferiores a 1.000 millones de dólares anuales. El mercado cercano proyectado de 5.000 a 15.000 millones de dólares para 2035 depende de primeras victorias en simulación y optimización.
La visión de IBM de la supercomputación cuántico-céntrica, integrando QPUs con CPUs y GPUs en flujos de trabajo heterogéneos, refleja hacia dónde se dirige el campo. RIKEN y la Cleveland Clinic ya ejecutan algoritmos híbridos cuántico-clásicos para problemas de estructura electrónica en IBM Quantum System One.
Persisten varios cuellos de botella críticos:
- Tasas de error lógico: Las mejores actuales (~10-3 por ciclo) deben alcanzar ~10-6 o menos para la mayoría de los algoritmos prácticos. Esto requiere tanto mejores qubits físicos como mayores distancias de código.
- Latencia del decodificador: La decodificación en tiempo real debe seguir el ritmo de los tiempos de ciclo de ~1 μs para sistemas superconductores. Google demostró una latencia promedio del decodificador de 63 μs a distancia 5, pero escalar a códigos más grandes será un desafío.
- Errores correlacionados: Los experimentos de código de repetición de Google revelaron raros eventos de errores correlacionados que ocurren aproximadamente una vez por hora (cada 3 × 109 ciclos), estableciendo un piso de error de 10-10. Los orígenes de estos eventos aún no se comprenden.
- Talento: Riverlane estima que solo existen 600-700 especialistas en QEC en todo el mundo, frente a una necesidad de 5.000-16.000 para 2030.
- Madurez de algoritmos: Más de la mitad del valor de mercado proyectado de 250.000 millones de dólares de Bain reside en el aprendizaje automático cuántico, que sigue siendo en gran medida teórico. Los casos de uso de mayor valor (QML para LLM, IA generativa) son los más especulativos.
Implicaciones criptográficas
La amenaza «harvest now, decrypt later» (recolectar ahora, descifrar después) es la preocupación más urgente en el tiempo. Los adversarios pueden estar almacenando tráfico cifrado hoy para su posterior descifrado cuántico. El NIST finalizó sus primeros estándares de criptografía poscuántica (PQC) en 2024, y la migración está en curso pero es lenta. La encuesta de Bain encontró que el 73 % de los profesionales de seguridad de TI esperan que las amenazas criptográficas cuánticas se materialicen en cinco años, pero solo el 9 % de los líderes tecnológicos tiene una hoja de ruta de migración PQC.
La estimación revisada de que RSA-2048 podría caer ante aproximadamente un millón de qubits (frente a 20 millones) comprime el cronograma de amenazas. Aunque nadie está cerca de un millón de qubits tolerantes a fallos hoy, la convergencia de hardware mejorado, mejores códigos QEC y arquitecturas novedosas como el enfoque topológico de Microsoft significa que este es un objetivo en movimiento que justifica una planificación proactiva.
Dónde estamos realmente
La ventaja cuántica se ha demostrado en puntos de referencia, en problemas científicos útiles y con prueba matemática incondicional. La corrección de errores funciona por debajo del umbral. Múltiples plataformas de hardware viables están escalando. Se esperan los primeros prototipos tolerantes a fallos dentro de dos a tres años.
Pero la máquina que resuelve problemas industrialmente relevantes de manera más rápida, barata y confiable que las alternativas clásicas aún no ha sido construida. El camino de ingeniería desde 105 qubits físicos hasta millones de qubits lógicos tolerantes a fallos es largo e incierto. La computación cuántica en 2026 está en la posición que ocupaba la computación clásica en la era del transistor de finales de los años cincuenta: los principios fundamentales están probados, los componentes funcionan, y el desafío de escalado en ingeniería es el problema definitorio del campo.



