Aller au contenu
Intemporel Physique et ingénierie 14 min read

Intrication quantique bruyante : comment 75 qubits ont révélé les limites critiques du matériel

Des chercheurs viennent d’établir un record en intriquant 75 qubits sur du matériel IBM, mais les limites fondamentales du bruit imposent des contraintes mathématiques strictes quant à l’extension possible de l’intrication quantique sans correction d’erreurs.

This article was automatically translated from English by AI. Read the original English version →
Superconducting quantum processor chip demonstrating noisy quantum entanglement research
Reading mode

Lorsque notre responsable nous a suggéré d’examiner l’intrication quantique bruyante, le moment tombait à point nommé : des chercheurs venaient de rapporter une expérience de 75 qubits avec détection d’erreurs sur un état GHZ, réalisée sur du matériel IBM. Pourtant, le bruit même qui qualifie ces machines de « bruyantes » impose des limites mathématiques strictes quant à l’extension possible de l’intrication sans correction d’erreurs. Comprendre cette tension est essentiel pour quiconque suit la course à l’informatique quantique vers des applications pratiques.

L’intrication quantique est le phénomène par lequel deux particules ou plus deviennent corrélées de manière inexplicable par la physique classique. Mesurer une particule intriquée permet de connaître instantanément une propriété de sa partenaire, quelle que soit la distance qui les sépare. Cette caractéristique sous-tend presque tous les avantages quantiques proposés : des algorithmes plus rapides, la distribution quantique de clés, et la simulation de molécules trop complexes pour les ordinateurs classiques.[s]

Le problème de l’intrication quantique bruyante

Les ordinateurs quantiques actuels fonctionnent dans ce que les physiciens appellent l’ère NISQ : Noisy Intermediate-Scale Quantum (quantique à échelle intermédiaire et bruyante). Le terme « bruyant » n’est pas un défaut de conception à corriger dans une prochaine mise à jour logicielle. Il reflète une réalité physique fondamentale. Chaque qubit interagit avec son environnement, et ces interactions provoquent des erreurs. Les opérations de porte introduisent des fautes. Les mesures perturbent les états. Et l’intrication, d’une fragilité extrême, peut se dégrader rapidement.

Les limitations inhérentes au matériel NISQ, notamment le nombre restreint de qubits, la fidélité imparfaite des portes et la connectivité limitée des qubits, posent des obstacles fondamentaux à l’obtention d’un véritable avantage quantique.[s] Ce n’est pas du pessimisme ; c’est le point de départ d’une ingénierie sérieuse.

Des limites mathématiques incontournables

Un article théorique publié en 2025 dans npj Quantum Information a démontré une réalité dérangeante : sous l’effet d’un bruit unital strictement contractant, il existe des plafonds stricts à la quantité d’intrication que peuvent générer les circuits bruyants. Pour des réseaux de qubits unidimensionnels, l’intrication maximale atteignable évolue en O(log n), où n est le nombre de qubits. Pour des réseaux bidimensionnels, la limite passe à O(√n log n), ce qui exclut la création efficace de certains états hautement intriqués sans correction d’erreurs.[s]

En termes simples : doubler le nombre de qubits ne double pas l’intrication exploitable. Le bruit absorbe la majeure partie du gain. Sous l’effet d’un tel bruit, les dispositifs à n qubits deviennent indiscernables de tirages aléatoires lorsque la profondeur des circuits dépasse un seuil logarithmique.[s]

L’expérience des 75 qubits

Malgré ces limites, les expérimentateurs continuent de repousser les frontières. Une équipe travaillant sur des processeurs supraconducteurs IBM a réussi à intriquer véritablement jusqu’à 75 qubits, une performance vérifiée par la fidélité de la cohérence quantique multiple.[s] Un résultat IBM ultérieur, publié en octobre 2025, a porté ce chiffre à un état GHZ de 120 qubits avec une fidélité de 0,56(3) à un taux de post-sélection de 28 %, le plus grand état GHZ préparé à ce jour.[s]

Leur approche ne reposait pas sur la force brute. Au lieu de déployer une correction d’erreurs quantique complète (qui nécessite des centaines, voire des milliers de qubits physiques par qubit logique), ils ont utilisé des primitives légères de détection d’erreurs : des mesures de stabilisateurs épars avec pas plus de 9 qubits auxiliaires. Le même article rapporte une fidélité de porte supérieure à 85 % sur jusqu’à 40 sites de réseau, tandis que leur routine de création d’un état GHZ à 75 qubits rejetait au plus environ 78 % des échantillons, un taux bien inférieur aux 99,9 % de rejet observés dans certaines expériences utilisant des qubits logiques entièrement encodés.[s]

Des améliorations computationnelles nettes peuvent être obtenues sur les ordinateurs quantiques de génération actuelle grâce à des primitives de correction d’erreurs à faible surcharge, sans nécessiter un encodage logique complet.[s] Cela compte, car chaque qubit consacré à la correction d’erreurs est un qubit indisponible pour le calcul.

Qubits logiques et encodage à double rail

Une approche parallèle cible la structure même des erreurs. Les qubits supraconducteurs à double rail encodent l’information dans des paires de transmons, exploitant le fait que le type d’erreur dominant (l’effacement) peut être détecté en cours de circuit. Un article de Nature Physics de 2026 a démontré des portes CNOT logiques avec une fidélité de processus de 98,1 % à un taux d’effacement de 13 %, permettant la création d’un état GHZ à trois qubits logiques avec une fidélité de 93,9 %.[s]

Chaque qubit à double rail maintient des temps de cohérence de l’ordre de la milliseconde et des taux d’erreur de porte à un qubit de l’ordre de 10-5, grâce à la post-sélection pour atténuer les erreurs d’effacement.[s] Ces chiffres représentent une avancée significative vers les taux d’erreur nécessaires pour un calcul tolérant aux fautes, bien que le passage à l’échelle reste un défi.

Un problème de mesure caché

Il existe une difficulté méthodologique qui complique l’interprétation de nombreuses expériences d’intrication quantique bruyante. La mitigation standard des erreurs de lecture quantique (QREM), une technique largement utilisée pour corriger les erreurs de mesure, confond les erreurs de préparation d’état avec les erreurs de mesure. Une analyse théorique récente a prouvé que, pour tous les états stabilisateurs, si l’intrication existe, la fidélité de l’état obtenue par la mesure de la valeur attendue des stabilisateurs est surestimée après une correction QREM conventionnelle.[s]

Ce biais croît de manière exponentielle avec le nombre de qubits. L’erreur induite par la QREM pourrait masquer des erreurs d’opération de porte et produire des conclusions faussement positives.[s] Cela n’invalide pas tous les résultats publiés, mais exige un examen minutieux de la manière dont les affirmations de fidélité sont vérifiées, en particulier dans les expériences à grande échelle.

Le machine learning à la rescousse

Une réponse aux mesures bruyantes consiste à concevoir des méthodes de détection qui anticipent le bruit. Une approche par apprentissage automatique utilisant des machines à vecteurs de support entraînées sur des mesures de Pauli construit ce que les chercheurs appellent un témoin d’intrication optimal robuste (ROEW). Cette méthode maintient une grande précision de classification même lorsque les erreurs de mesure dépassent 10 %.[s]

Il suffit d’entraîner le modèle avec seulement 20 % de l’ensemble de données typique pour obtenir une grande précision et une réduction substantielle des erreurs.[s] Pour les laboratoires disposant d’un accès limité au matériel, cette efficacité des données compte autant que la résilience au bruit.

Ce que cela signifie pour l’informatique quantique

L’état actuel de la recherche sur l’intrication quantique bruyante est à la fois encourageant et sobre. Les records continuent de tomber. Les techniques de détection d’erreurs sans correction complète montrent un réel potentiel. Mais les limites théoriques persistent, et les plateformes NISQ actuelles restent incapables d’atteindre un véritable avantage quantique sur des problèmes pratiques.[s]

Pour des applications comme le cassage du chiffrement classique, les ordinateurs quantiques auraient besoin de machines tolérantes aux fautes à grande échelle, et non des dispositifs bruyants d’aujourd’hui. La communauté cryptographique réagit déjà en développant des normes de cryptographie post-quantique conçues pour résister aux attaques quantiques, partant du principe que les ordinateurs quantiques pourraient un jour atteindre une taille suffisante.[s] La course se poursuit, mais la ligne d’arrivée ne cesse de se déplacer.

Comprendre l’intrication quantique bruyante n’est pas optionnel pour quiconque suit ce domaine. La physique impose des contraintes à ce que l’ingénierie peut accomplir, et faire semblant du contraire mène à des cycles de battage médiatique qui nuisent à la crédibilité et gaspillent des ressources.

Lorsque notre responsable nous a suggéré d’examiner l’intrication quantique bruyante dans les dispositifs NISQ, le moment était opportun : une expérience de 75 qubits avec détection d’erreurs sur un état GHZ a mis en lumière les capacités du matériel actuel, tandis que des travaux théoriques rigoureux ont prouvé des limites strictes à l’extensibilité de l’intrication sous des modèles de bruit spécifiques. Cette tension définit la frontière actuelle.

L’intrication quantique est la structure de corrélation non classique exploitée par presque tous les avantages quantiques proposés : l’algorithme de Shor, la distribution quantique de clés, les solveurs variationnels quantiques et la simulation quantique. La question opérationnelle est de savoir si le matériel actuel peut générer et préserver l’intrication à des échelles utiles pour ces applications. La réponse implique à la fois des records expérimentaux et des résultats d’impossibilité théorique.

Limites théoriques de l’intrication quantique bruyante

Un article de 2025 publié dans npj Quantum Information a analysé les canaux de bruit unital strictement contractants et a dérivé des bornes strictes sur la génération d’intrication dans les circuits bruyants. Les résultats clés : sous un tel bruit, les dispositifs à n qubits deviennent indistinguables en temps polynomial de tirages aléatoires lorsque la profondeur des circuits dépasse Ω(log n).[s]

Pour les architectures spatialement contraintes, les limites se resserrent encore. Les circuits de qubits bruyants unidimensionnels ont une intrication maximale bornée par O(log n). Les circuits bidimensionnels évoluent en O(√n log n).[s] Ces résultats excluent les avantages quantiques super-polynomiaux pour les circuits 1D à toute profondeur sans correction d’erreurs, et limitent sévèrement les architectures 2D.

La structure mathématique est instructive. Les canaux unitaux strictement contractants peuvent être décomposés sous la forme Λ₁ = V ∘ D ∘ U, où U et V sont des canaux unitaires et D contracte chaque matrice de Pauli σᵢ par des facteurs qᵢ < 1. Le canal dépolarisant en est un exemple : Λ₁(ρ) = (1-p)ρ + pI/2, avec un taux de contraction μ₁ = (1-p)². Après t couches, l’entropie relative à l’état maximalement mélangé diminue comme D(ρ(t)∥σ₀) ≤ nμᵗ. La perte d’information est exponentielle en profondeur.

État de l’art expérimental

Dans ce contexte théorique, les groupes expérimentaux continuent de battre des records. Un résultat majeur obtenu sur un processeur supraconducteur a rapporté un état GHZ à 75 qubits, atteignant une intrication multipartite authentique vérifiée par la fidélité de la cohérence quantique multiple.[s] Un résultat IBM ultérieur, publié en octobre 2025, a étendu ce chiffre à un état GHZ de 120 qubits avec une fidélité de 0,56(3) à un taux de post-sélection de 28 %, le plus grand état GHZ préparé à ce jour.[s]

Le protocole se distingue par son efficacité en ressources. Plutôt que d’utiliser une correction d’erreurs quantique complète (qui nécessite des centaines ou des milliers de qubits physiques par qubit logique), l’équipe a employé une détection d’erreurs basée sur des mesures de stabilisateurs épars avec pas plus de 9 qubits auxiliaires. La routine à 75 qubits rejetait au plus environ 78 % des échantillons, contre des taux de rejet supérieurs à 99,9 % rapportés dans certaines approches utilisant des qubits logiques entièrement encodés.[s]

Un protocole unitaire innovant d’intrication-désintrication pour les portes CNOT à longue portée a atteint une fidélité supérieure à 85 % sur jusqu’à 40 sites de réseau, surpassant significativement les alternatives basées sur des mesures.[s] Les qubits intermédiaires désintriqués servent de qubits de signalisation, détectant les erreurs de retournement de bit et d’amortissement d’amplitude survenues pendant l’exécution de la porte.

Qubits à effacement à double rail

Une approche orthogonale exploite le biais des erreurs. L’encodage à double rail dans les circuits supraconducteurs utilise des paires de transmons accordables, où le mode d’erreur dominant (la fuite) se manifeste comme un effacement détectable plutôt que comme des retournements de bit indétectables. Un article de Nature Physics de 2026 a démontré une intrication multi-qubits logique en utilisant ce schéma.

Chaque qubit à double rail atteint des temps de cohérence de l’ordre de la milliseconde et des taux d’erreur de porte à un qubit de l’ordre de 10-5 grâce à la post-sélection sur la détection d’effacement.[s] L’équipe a synthétisé une porte CNOT logique avec une fidélité de processus de 98,1 % à un taux d’effacement de 13 %, permettant la création d’un état GHZ à trois qubits logiques avec une fidélité de 93,9 %.[s]

Biais systématique dans l’estimation de la fidélité

Un problème méthodologique critique affecte l’interprétation des expériences d’intrication quantique bruyante. La mitigation conventionnelle des erreurs de lecture quantique (QREM) calibre la matrice d’erreur de mesure en préparant des états de la base computationnelle et en profilant les résultats. Cela confond les erreurs de préparation d’état (initialisation) avec les erreurs de lecture.

Une analyse récente a prouvé que, pour tous les états stabilisateurs, si l’intrication existe, la fidélité de l’état obtenue par la mesure de la valeur attendue des stabilisateurs est surestimée après une correction QREM conventionnelle.[s] L’article exprime cette surestimation par des facteurs de produit impliquant les taux d’erreur d’initialisation et fi,I, la fraction des stabilisateurs contenant I sur le qubit i.

Pour les grands états GHZ et les états de graphe, cette surestimation croît de manière exponentielle avec le nombre de qubits. L’erreur induite par la QREM pourrait masquer des erreurs d’opération de porte et produire des conclusions faussement positives.[s] L’article établit des bornes de sécurité : en utilisant son approximation au premier ordre Δ ≈ 2nq̄, maintenir une erreur relative inférieure à δ pour n qubits nécessite une erreur moyenne d’initialisation q̄ ≲ δ/(2n).

Détection robuste de l’intrication

L’apprentissage automatique offre une atténuation partielle. Un témoin d’intrication optimal robuste (ROEW) utilise des machines à vecteurs de support entraînées sur des caractéristiques de mesures de Pauli avec une optimisation robuste distributionnelle contre le pire cas de bruit de mesure. La méthode maintient une grande précision de classification même lorsque les erreurs de mesure dépassent 10 %.[s]

L’efficacité des données est notable : un entraînement avec seulement 20 % de l’ensemble de données typique suffit pour obtenir une grande précision et une réduction substantielle des erreurs.[s] Cette approche fait le pont entre l’apprentissage automatique et la science de l’information quantique, offrant un outil pratique pour une caractérisation robuste au bruit.

Implications pour la course à l’informatique quantique

La synthèse de ces résultats clarifie l’état actuel de l’intrication quantique bruyante. Les limites théoriques établissent que, sans correction d’erreurs, les avantages quantiques en temps polynomial sont impossibles pour les circuits de profondeur super-logarithmique sous un bruit unital strictement contractant. Les records expérimentaux démontrent que des techniques légères de détection d’erreurs peuvent étendre l’intrication utile à au moins 75 qubits, avec des travaux ultérieurs d’IBM atteignant un état GHZ à 120 qubits, mais avec des taux de post-sélection et de rejet significatifs. Les travaux méthodologiques révèlent que les fidélités couramment rapportées peuvent être systématiquement surévaluées.

Les plateformes NISQ actuelles restent incapables d’atteindre un véritable avantage quantique sur des problèmes pratiques.[s] La voie à suivre nécessite soit des réductions drastiques des taux d’erreur physiques, soit des architectures tolérantes aux fautes évolutives, qui restent à des années de distance. La communauté cryptographique a déjà réagi : les normes de cryptographie post-quantique du NIST sont conçues pour protéger contre les ordinateurs quantiques qui pourraient un jour casser de nombreux systèmes cryptographiques largement utilisés.[s]

Comprendre l’intrication quantique bruyante n’est pas optionnel pour un travail sérieux en informatique quantique. Les contraintes sont physiques, et non de simples obstacles techniques, et l’écart entre les capacités actuelles et les exigences des applications reste considérable.

How was this article?
Share this article

Spot an error? Let us know

Sources