Saltar al contenido
Atemporal Física e ingeniería 13 min read

Enredamiento cuántico ruidoso: cómo 75 cúbits revelaron límites críticos del hardware

Investigadores acaban de establecer un récord al entrelazar 75 cúbits en hardware de IBM, pero los límites fundamentales de ruido imponen restricciones matemáticas estrictas sobre hasta dónde puede escalar el entrelazamiento cuántico sin corrección de errores.

This article was automatically translated from English by AI. Read the original English version →
Superconducting quantum processor chip demonstrating noisy quantum entanglement research
Reading mode

Cuando el jefe sugirió que investigáramos el enredamiento cuántico ruidoso, el momento parecía oportuno: unos investigadores informaron sobre un experimento con un estado GHZ de 75 cúbits con detección de errores en hardware de IBM, pero el mismo ruido que hace que estas máquinas sean «ruidosas» impone límites matemáticos estrictos a la escalabilidad del enredamiento. Comprender esta tensión es esencial para cualquiera que siga la carrera de la computación cuántica hacia aplicaciones prácticas.

El enredamiento cuántico es el fenómeno en el que dos o más partículas se correlacionan de maneras que la física clásica no puede explicar. Al medir una partícula enredada, se conoce al instante algo sobre su pareja, sin importar la distancia. Esta propiedad sustenta casi todas las ventajas cuánticas propuestas: algoritmos más rápidos, distribución cuántica de claves y simulaciones de moléculas demasiado complejas para las computadoras clásicas.[s]

El problema del enredamiento cuántico ruidoso

Las computadoras cuánticas actuales operan en lo que los físicos denominan la era NISQ: Computación Cuántica Ruidosa de Escala Intermedia. La parte «ruidosa» no es un defecto de diseño que se pueda corregir con una actualización de software. Refleja principios físicos fundamentales. Cada cúbit interactúa con su entorno, y esas interacciones generan errores. Las operaciones de puerta introducen fallos. Las mediciones alteran los estados. Y el enredamiento, al ser extremadamente frágil, puede degradarse con rapidez.

Las limitaciones inherentes del hardware NISQ, que incluyen un número restringido de cúbits, fidelidad imperfecta de las puertas y conectividad limitada entre cúbits, imponen obstáculos fundamentales para lograr una verdadera ventaja cuántica.[s] Esto no es pesimismo; es el punto de partida para una ingeniería seria.

Límites matemáticos estrictos

Un artículo teórico de 2025 publicado en npj Quantum Information demostró algo incómodo: bajo ruido unital estrictamente contractivo, existen límites estrictos en la cantidad de enredamiento que pueden generar los circuitos ruidosos. Para matrices de cúbits unidimensionales, el enredamiento máximo alcanzable escala como O(log n), donde n es el número de cúbits. En matrices bidimensionales, el límite aumenta a O(√n log n), lo que descarta la creación eficiente de algunos estados altamente enredados sin corrección de errores.[s]

En términos sencillos: duplicar los cúbits no duplica el enredamiento utilizable. El ruido consume la mayor parte de la ganancia. Bajo este tipo de ruido, los dispositivos de n cúbits se vuelven indistinguibles de lanzamientos aleatorios de monedas cuando la profundidad del circuito supera un umbral logarítmico.[s]

El experimento con 75 cúbits

A pesar de estos límites, los experimentalistas siguen avanzando. Un equipo que trabaja con procesadores superconductores de IBM logró un enredamiento multipartito genuino para hasta 75 cúbits, verificado en términos de fidelidad de coherencia cuántica múltiple.[s] Un resultado posterior de IBM, publicado en octubre de 2025, amplió esta cifra a un estado GHZ de 120 cúbits con una fidelidad de 0,56(3) a una tasa de post-selección del 28 %, el mayor estado GHZ preparado hasta la fecha.[s]

El truco no fue la fuerza bruta. En lugar de implementar corrección de errores cuántica completa (que requiere cientos o miles de cúbits físicos por cada cúbit lógico), utilizaron primitivas ligeras de detección de errores: mediciones estabilizadoras dispersas con no más de 9 cúbits auxiliares. El mismo artículo informó una fidelidad de puerta superior al 85 % en hasta 40 sitios de red, mientras que su rutina de estado GHZ de 75 cúbits descartó no más del 78 % de las muestras, muy por debajo de las tasas de descarte superiores al 99,9 % reportadas en algunos experimentos con cúbits lógicos completamente codificados.[s]

Es posible lograr mejoras computacionales netas en las computadoras cuánticas de generación actual utilizando primitivas de corrección de errores de bajo costo, sin necesidad de codificación lógica completa.[s] Esto es importante porque cada cúbit dedicado a la corrección de errores es un cúbit que no está disponible para la computación.

Cúbits lógicos y codificación de doble riel

Un enfoque paralelo apunta a la estructura del error en sí. Los cúbits superconductores de doble riel codifican la información en pares de transmons, aprovechando el hecho de que el tipo de error dominante (borrado) puede detectarse durante el circuito. Un artículo de 2026 en Nature Physics demostró puertas CNOT lógicas con una fidelidad de proceso del 98,1 % a una tasa de borrado del 13 %, lo que permitió la creación de un estado GHZ de tres cúbits lógicos con una fidelidad del 93,9 %.[s]

Cada cúbit de doble riel mantiene tiempos de coherencia en escala de milisegundos y tasas de error de puerta de un solo cúbit lógico del orden de 10-5, mediante el uso de postselección para mitigar errores de borrado.[s] Estas cifras representan un avance significativo hacia las tasas de error necesarias para la computación tolerante a fallos, aunque la escalabilidad sigue siendo el desafío.

Un problema oculto en la medición

Existe un detalle metodológico que complica la interpretación de muchos experimentos de enredamiento cuántico ruidoso. La mitigación estándar de errores de lectura cuántica (QREM), una técnica ampliamente utilizada para corregir errores de medición, confunde los errores de preparación del estado con los errores de medición. Un análisis teórico reciente demostró que, para todos los estados estabilizadores, si existe enredamiento, la fidelidad del estado obtenida mediante la medición del valor esperado del estabilizador se sobreestima después de la corrección QREM convencional.[s]

El sesgo aumenta de manera exponencial con el número de cúbits. El error inducido por QREM podría ocultar errores en las operaciones de puerta y producir conclusiones falsas positivas.[s] Esto no invalida todos los resultados publicados, pero exige un escrutinio cuidadoso de cómo se verifican las afirmaciones de fidelidad, especialmente en experimentos a gran escala.

El aprendizaje automático al rescate

Una respuesta a las mediciones ruidosas es construir métodos de detección que esperen ruido. Un enfoque de aprendizaje automático que utiliza máquinas de vectores de soporte entrenadas con mediciones de Pauli construye lo que los investigadores denominan un testigo de enredamiento óptimo robusto (ROEW). Este método mantiene una alta precisión de clasificación incluso cuando los errores de medición superan el 10 %.[s]

Entrenar el modelo con solo el 20 % del conjunto de datos típico es suficiente para lograr alta precisión y una reducción sustancial de errores.[s] Para laboratorios con acceso limitado al hardware, esta eficiencia de datos es tan importante como la resiliencia al ruido.

Qué significa esto para la computación cuántica

El estado actual de la investigación sobre enredamiento cuántico ruidoso es, al mismo tiempo, alentador y aleccionador. Los récords siguen cayendo. Las técnicas de detección de errores sin corrección completa muestran un potencial real. Pero los límites teóricos persisten, y las plataformas NISQ actuales siguen siendo incapaces de lograr una verdadera ventaja cuántica en problemas prácticos.[s]

Para aplicaciones como romper el cifrado clásico, las computadoras cuánticas necesitarían máquinas tolerantes a fallos a gran escala, no los dispositivos ruidosos de hoy. La comunidad criptográfica ya está respondiendo con estándares de criptografía postcuántica diseñados para resistir ataques cuánticos, asumiendo esencialmente que las computadoras cuánticas podrían escalar eventualmente.[s] La carrera continúa, pero la meta sigue moviéndose.

Entender el enredamiento cuántico ruidoso no es opcional para quienes siguen este campo. La física impone límites a lo que la ingeniería puede lograr, y pretender lo contrario conduce a ciclos de exageración que dañan la credibilidad y desperdician recursos.

Cuando el jefe sugirió que examináramos el enredamiento cuántico ruidoso en dispositivos NISQ, el momento fue oportuno: un experimento con un estado GHZ de 75 cúbits con detección de errores puso de manifiesto lo que el hardware actual puede lograr, mientras que trabajos teóricos rigurosos demostraron límites estrictos en la escalabilidad del enredamiento bajo modelos de ruido específicos. Esta tensión define la frontera actual.

El enredamiento cuántico es la estructura de correlación no clásica explotada por casi todas las ventajas cuánticas propuestas: el algoritmo de Shor, la distribución cuántica de claves, los solucionadores variacionales de eigenvalores cuánticos y la simulación cuántica. La pregunta operativa es si el hardware actual puede generar y preservar enredamiento a escalas útiles para estas aplicaciones. La respuesta involucra tanto récords experimentales como resultados de imposibilidad teórica.

Límites teóricos del enredamiento cuántico ruidoso

Un artículo de 2025 en npj Quantum Information analizó canales de ruido unital estrictamente contractivos y derivó límites estrictos en la generación de enredamiento en circuitos ruidosos. Los resultados clave: bajo dicho ruido, los dispositivos de n cúbits se vuelven indistinguibles en tiempo polinomial de lanzamientos aleatorios de monedas cuando la profundidad del circuito supera Ω(log n).[s]

Para arquitecturas espacialmente restringidas, los límites se vuelven aún más estrictos. Los circuitos de cúbits ruidosos unidimensionales tienen un enredamiento máximo limitado por O(log n). Los circuitos bidimensionales escalan como O(√n log n).[s] Estos resultados descartan ventajas cuánticas superpolinomiales para circuitos 1D a cualquier profundidad sin corrección de errores, y restringen severamente las arquitecturas 2D.

La estructura matemática es instructiva. Los canales unitales estrictamente contractivos pueden descomponerse como Λ₁ = V ∘ D ∘ U, donde U y V son canales unitarios y D contrae cada matriz de Pauli σᵢ por factores qᵢ < 1. El canal despolarizante ejemplifica esto: Λ₁(ρ) = (1-p)ρ + pI/2, con tasa de contracción μ₁ = (1-p)². Después de t capas, la entropía relativa al estado completamente mezclado disminuye como D(ρ(t)∥σ₀) ≤ nμᵗ. La pérdida de información es exponencial en profundidad.

Estado experimental del arte

En este contexto teórico, los grupos experimentales siguen estableciendo récords. Un resultado importante en procesadores superconductores reportó un estado GHZ de 75 cúbits, logrando enredamiento multipartito genuino verificado mediante fidelidad de coherencia cuántica múltiple.[s] Un resultado posterior de IBM, publicado en octubre de 2025, escaló esta cifra a un estado GHZ de 120 cúbits con una fidelidad de 0,56(3) a una tasa de post-selección del 28 %, el mayor estado GHZ preparado hasta la fecha.[s]

El protocolo destaca por su eficiencia de recursos. En lugar de implementar corrección de errores cuántica completa (que requiere cientos o miles de cúbits físicos por cada cúbit lógico), el equipo empleó detección de errores mediante mediciones estabilizadoras dispersas con no más de 9 cúbits auxiliares. La rutina de 75 cúbits descartó no más del 78 % de las muestras, en comparación con tasas de descarte superiores al 99,9 % reportadas en algunos enfoques que utilizan cúbits lógicos completamente codificados.[s]

Un protocolo unitario novedoso de entrelazamiento-disentrelazamiento para puertas CNOT de largo alcance logró una fidelidad superior al 85 % en hasta 40 sitios de red, superando significativamente a las alternativas basadas en mediciones.[s] Los cúbits intermedios disentrelazados actúan como cúbits bandera, detectando errores de inversión de bits y amortiguamiento de amplitud ocurridos durante la ejecución de la puerta.

Cúbits de borrado de doble riel

Un enfoque ortogonal explota el sesgo de error. La codificación de doble riel en circuitos superconductores utiliza pares de transmons sintonizables, donde el modo de error dominante (fuga) se manifiesta como borrado detectable en lugar de inversiones de bits indetectables. Un artículo de 2026 en Nature Physics demostró enredamiento lógico multicúbit utilizando este esquema.

Cada cúbit de doble riel logra tiempos de coherencia en escala de milisegundos y tasas de error de puerta de un solo cúbit del orden de 10-5 mediante postselección en la detección de borrado.[s] El equipo sintetizó una puerta CNOT lógica con una fidelidad de proceso del 98,1 % a una tasa de borrado del 13 %, lo que permitió un estado GHZ de tres cúbits lógicos con una fidelidad del 93,9 %.[s]

Sesgo sistemático en la estimación de fidelidad

Un problema metodológico crítico afecta la interpretación de los experimentos de enredamiento cuántico ruidoso. La mitigación convencional de errores de lectura cuántica (QREM) calibra la matriz de error de medición preparando estados de la base computacional y perfilando los resultados. Esto confunde los errores de preparación del estado (inicialización) con los errores de lectura.

Un análisis reciente demostró que, para todos los estados estabilizadores, si existe enredamiento, la fidelidad del estado obtenida mediante la medición del valor esperado del estabilizador se sobreestima después de la corrección QREM convencional.[s] El artículo expresa la sobreestimación mediante factores de producto que involucran tasas de error de inicialización y fi,I, la fracción de estabilizadores que contienen I en el cúbit i.

Para estados GHZ y estados de grafos grandes, esta sobreestimación crece de manera exponencial con el número de cúbits. El error inducido por QREM podría ocultar errores en las operaciones de puerta y producir conclusiones falsas positivas.[s] El artículo deriva límites de seguridad: utilizando su aproximación de primer orden Δ ≈ 2nq̄, mantener el error relativo por debajo de δ en n cúbits requiere un error promedio de inicialización q̄ ≲ δ/(2n).

Detección robusta de enredamiento

El aprendizaje automático ofrece una mitigación parcial. Un testigo de enredamiento óptimo robusto (ROEW) utiliza máquinas de vectores de soporte entrenadas con características de mediciones de Pauli y optimización robusta frente a distribuciones de ruido de medición en el peor caso. El método mantiene una alta precisión de clasificación incluso cuando los errores de medición superan el 10 %.[s]

La eficiencia de datos es notable: entrenar con solo el 20 % del conjunto de datos típico es suficiente para lograr alta precisión y una reducción sustancial de errores.[s] Este enfoque une el aprendizaje automático y la ciencia de la información cuántica, ofreciendo una herramienta práctica para la caracterización robusta al ruido.

Implicaciones para la carrera de la computación cuántica

La síntesis de estos resultados aclara el estado actual del enredamiento cuántico ruidoso. Los límites teóricos establecen que, sin corrección de errores, las ventajas cuánticas en tiempo polinomial son imposibles para circuitos de profundidad superlogarítmica bajo ruido unital estrictamente contractivo. Los récords experimentales demuestran que la detección de errores ligera puede extender el enredamiento útil a al menos 75 cúbits, con trabajos posteriores de IBM alcanzando un estado GHZ de 120 cúbits, aunque con tasas de post-selección y descarte significativas. El trabajo metodológico revela que las fidelidades comúnmente reportadas pueden estar sistemáticamente infladas.

Las plataformas NISQ actuales siguen siendo incapaces de lograr una verdadera ventaja cuántica en problemas prácticos.[s] El camino a seguir requiere reducciones drásticas en las tasas de error físico o arquitecturas tolerantes a fallos escalables, que aún están a años de distancia. La comunidad criptográfica ya ha respondido: los estándares de criptografía postcuántica del NIST están diseñados para protegerse contra computadoras cuánticas que eventualmente podrían romper muchos sistemas criptográficos ampliamente utilizados.[s]

Entender el enredamiento cuántico ruidoso no es opcional para el trabajo serio en computación cuántica. Las limitaciones son físicas, no solo obstáculos de ingeniería, y la brecha entre las capacidades actuales y los requisitos de las aplicaciones sigue siendo sustancial.

How was this article?
Share this article

Spot an error? Let us know

Fuentes