Intemporel 20 min de lecture

Informatique quantique vs. informatique classique : ce que l’avantage quantique signifie vraiment en pratique

Cet article a été traduit automatiquement de l'anglais par une IA. Lire la version originale en anglais →
Comparaison de l'avantage quantique entre processeurs quantiques et classiques
🎧 Écouter
Mar 29, 2026
Mode de lecture

En décembre 2024, Google a annoncé que sa nouvelle puce quantique, Willow, avait effectué un calcul en moins de cinq minutes, une tâche qui aurait pris au supercalculateur le plus rapide du monde 10 septillions d’années. Ce chiffre est si grand qu’il fait paraître l’âge de l’univers comme une simple erreur d’arrondi. Quelques mois plus tard, D-Wave a publié des résultats évalués par des pairs montrant que son processeur de recuit quantiqueApproche de calcul quantique qui trouve des solutions optimales à des problèmes complexes en utilisant l'effet tunnel quantique pour dépasser les minima locaux. pouvait simuler des matériaux magnétiques en quelques minutes, alors qu’un supercalculateur classique aurait mis près d’un million d’années. Et en octobre 2025, Google a suivi avec un algorithme qui fonctionnait 13 000 fois plus vite que tout ce qu’un supercalculateur pouvait accomplir.

Ce sont de vrais résultats, publiés dans Nature et Science, obtenus avec des machines qui existent aujourd’hui. Cela signifie-t-il que les ordinateurs quantiques ont gagné ? Pas exactement. La réalité est plus nuancée, plus intéressante et plus importante à comprendre que ce que les gros titres laissent entendre.

Ce que les ordinateurs quantiques font différemment

Les ordinateurs classiques traitent l’information sous forme de bits : des uns et des zéros. Chaque calcul, de l’envoi d’un e-mail à l’entraînement d’un modèle d’intelligence artificielle, se résume à manipuler ces bits très rapidement. Les processeurs modernes effectuent des milliards d’opérations par seconde, et ils y excellent.

Les ordinateurs quantiques utilisent des qubits à la place. Un qubit peut exister dans une « superposition » des états 0 et 1 simultanément, et plusieurs qubits peuvent être « enchevêtrés », ce qui signifie que l’état de l’un influence instantanément les autres. Il ne s’agit pas simplement d’un calcul classique plus rapide. C’est une façon fondamentalement différente de traiter l’information, qui permet aux machines quantiques d’explorer de nombreuses solutions possibles en même temps.

Pour simplifier : un ordinateur classique qui cherche sa route dans un labyrinthe essaie un chemin à la fois. Un ordinateur quantique peut, en quelque sorte, explorer tous les chemins simultanément. Pour certains types de problèmes, cela donne aux machines quantiques un avantage exponentiel.

Mais voici la réserve essentielle : l’expression « certains types de problèmes » porte tout le poids de cette phrase.

Ce que signifie vraiment l’« avantage quantique »

Quand des chercheurs affirment qu’un ordinateur quantique a atteint l’« avantage quantique » ou la « suprématie quantique », cela signifie qu’il a résolu un problème spécifique plus rapidement que toute méthode classique connue. C’est une affirmation plus restreinte qu’il n’y paraît.

Le résultat Willow de Google en 2024, par exemple, utilisait un test de référence appelé l’échantillonnage de circuits aléatoires (RCS). Ce test vérifie si un ordinateur quantique peut produire des résultats qu’un ordinateur classique ne peut pas reproduire efficacement. Willow a réussi ce test haut la main. Mais le RCS n’a aucune application pratique connue. C’est une démonstration de capacité, pas un produit.

Le résultat de D-Wave en 2025 était différent et sans doute plus significatif : il a résolu un véritable problème de science des matériaux, en simulant le comportement de matériaux magnétiques appelés verres de spin. Cela a des applications concrètes dans la compréhension des supraconducteurs, des capteurs et des composants électroniques. Les résultats ont été publiés dans Science et sont considérés comme la première démonstration de suprématie quantique sur un problème utile.

Puis est venue la preuve mathématiquement la plus rigoureuse à ce jour. En septembre 2025, des chercheurs de l’UT Austin et de Quantinuum ont démontré ce qu’ils ont appelé une suprématie quantique « inconditionnelle » : une tâche mémorielle que 12 qubits pouvaient résoudre mais qui nécessiterait au moins 62 bits classiques. Contrairement aux affirmations précédentes, aucun algorithme classique futur ne pourra combler cet écart. Les mathématiques le prouvent impossible.

Le problème des erreurs

Le principal obstacle entre les ordinateurs quantiques d’aujourd’hui et leur utilité pratique est la question des erreurs. Les qubits sont extrêmement fragiles. Ils doivent être refroidis à des températures plus basses que l’espace interstellaire, et même dans ces conditions, la moindre perturbation peut corrompre un calcul.

La puce Willow de Google a réalisé une véritable percée dans ce domaine. Son article publié dans Nature a montré qu’ajouter davantage de qubits réduisait effectivement le taux d’erreur, le divisant par deux à chaque augmentation de la taille du code. C’est ce qu’on appelle passer « en dessous du seuil », et les chercheurs le cherchaient depuis près de 30 ans, depuis que Peter Shor a proposé la correction d’erreurs quantiques en 1995.

Mais le contexte compte. Le taux d’erreur logique de Willow, d’environ 0,143 % par cycle, reste bien au-dessus des taux d’environ 0,0001 % que nécessiteraient des algorithmes quantiques tolérants aux pannes à grande échelle. L’écart entre « en dessous du seuil » et « réellement utile à grande échelle » reste considérable.

Les points forts des ordinateurs quantiques (et leurs limites)

Les ordinateurs quantiques ne remplaceront pas votre ordinateur portable. Ils ne traiteront pas vos feuilles de calcul plus rapidement et ne rendront pas votre navigateur plus réactif. Ils ne sont pas meilleurs en informatique généraliste. Pour la grande majorité des tâches, les ordinateurs classiques resteront supérieurs, moins coûteux et plus pratiques.

Les machines quantiques montrent un réel potentiel dans les problèmes intrinsèquement quantiques ou combinatoires :

  • Simulation moléculaire : Comprendre les interactions entre molécules est fondamental pour la découverte de médicaments et la science des matériaux. Les ordinateurs classiques ont du mal à modéliser le comportement quantique au niveau atomique car, par définition, ils ne sont pas quantiques. L’algorithme Quantum Echoes de Google a démontré une analyse de la structure moléculaire correspondant aux données de résonance magnétique nucléaire, ouvrant la voie à un futur « microscope quantique » pour la chimie.
  • Optimisation : La logistique, l’optimisation de portefeuilles financiers et la gestion de la chaîne d’approvisionnement impliquent de trouver la meilleure solution parmi un nombre astronomique de possibilités. Le recuit quantique, l’approche utilisée par D-Wave, est prometteur dans ce domaine.
  • Cryptographie : Un ordinateur quantique suffisamment puissant pourrait briser la plupart des chiffrements actuels. Des estimations récentes suggèrent que briser le RSA-2048 pourrait nécessiter environ un million de qubits, contre des estimations antérieures de 20 millions. Nous en sommes loin aujourd’hui, mais la trajectoire est importante.
  • Découverte de matériaux : La simulation de nouveaux matériaux pour les batteries, les cellules solaires ou les supraconducteurs est une application naturelle de l’informatique quantique.

Bain & Company estime le potentiel total du marché à jusqu’à 250 milliards de dollars dans les secteurs de la pharmacie, de la finance, de la logistique et de la science des matériaux. Mais le marché actuel du matériel et des services d’informatique quantique est inférieur à 1 milliard de dollars par an. L’écart entre le potentiel et la réalité reste immense.

La course à la construction d’un véritable ordinateur quantique

Les grandes entreprises technologiques poursuivent des approches différentes, et cette diversité est en elle-même révélatrice : personne n’a encore trouvé la conception gagnante.

Google utilise des qubits supraconducteurs et se concentre sur le développement de la correction d’erreurs. Sa puce Willow compte 105 qubits, et l’objectif suivant de l’entreprise est un qubit logique de longue durée de vie, comme l’étape 3 de sa feuille de route.

IBM construit ce qu’il appelle des « supercalculateurs centrés sur le quantique », combinant processeurs quantiques et classiques. Son processeur Heron peut exécuter des circuits avec jusqu’à 5 000 opérations à deux qubits, et IBM vise une informatique tolérante aux pannes d’ici 2029 avec son processeur Starling : 200 qubits logiques exécutant des circuits de 100 millions de portes.

Microsoft a pris un pari radicalement différent avec Majorana 1, le premier processeur basé sur des qubits topologiques. Ceux-ci stockent l’information dans des états quantiques exotiques intrinsèquement plus résistants aux erreurs. Microsoft a placé huit qubits topologiques sur une puce conçue pour évoluer jusqu’à un million. La DARPA a sélectionné Microsoft pour la phase finale de son programme de construction d’un ordinateur quantique à l’échelle industrielle.

D-Wave propose des systèmes de recuit quantique déjà disponibles commercialement, son processeur Advantage2 gérant des milliers de qubits. Son approche est plus étroite mais plus immédiatement pratique pour les problèmes d’optimisation.

Un calendrier honnête

Le domaine de l’informatique quantique a un historique de promesses excessives. Pendant des années, l’informatique quantique pratique était « à cinq ou dix ans ». L’évaluation honnête en 2026 est que nous sommes dans ce que l’industrie appelle l’« ère des fondations tolérantes aux pannes ». Des problèmes d’ingénierie importants ont été résolus en laboratoire. Mais transposer les résultats de laboratoire en machines capables d’exécuter des algorithmes utiles de manière fiable, à grande échelle, pendant des heures, reste un défi considérable.

Le rapport QEC de Riverlane met en évidence un problème critique de main-d’œuvre : on estime qu’il n’existe que 600 à 700 spécialistes en correction d’erreurs quantiques dans le monde, alors que 5 000 à 16 000 seraient nécessaires d’ici 2030. On ne peut pas construire une révolution sans les gens qui comprennent les machines.

La plupart des experts s’accordent désormais à dire que les ordinateurs quantiques ne remplaceront pas les ordinateurs classiques, mais travailleront aux côtés d’eux dans des architectures hybrides. L’analyse de Bain prévoit que le marché de l’informatique quantique atteindra entre 5 et 15 milliards de dollars d’ici 2035, avec des premières victoires pratiques dans la simulation moléculaire et l’optimisation. Le plein potentiel dépend de percées qui n’ont pas encore eu lieu.

Ce que cela signifie pour vous

Si vous n’êtes pas physicien quantique ou responsable de la sécurité informatique, l’informatique quantique n’affectera probablement pas votre vie quotidienne avant encore plusieurs années. Mais ce n’est plus une curiosité théorique. De vraies machines résolvent de vrais problèmes plus rapidement que les supercalculateurs classiques, même si ces problèmes restent encore limités.

La préoccupation pratique la plus immédiate concerne la cybersécurité. La menace du « harvest now, decrypt later » (stocker maintenant, déchiffrer plus tard), où des attaquants conservent des données chiffrées aujourd’hui pour les déchiffrer avec de futurs ordinateurs quantiques, pousse déjà gouvernements et entreprises à adopter la cryptographie post-quantiqueMéthodes de chiffrement conçues pour résister aux ordinateurs quantiques, qui peuvent briser des algorithmes courants comme RSA grâce aux propriétés quantiques.. Si vous gérez des données sensibles ayant une longue durée de vie, c’est un sujet qui mérite votre attention dès maintenant.

L’avantage quantique est réel. Il est aussi spécifique, limité et précoce. La machine qui va tout changer n’a pas encore été construite. Mais pour la première fois, les composants qui la rendront possible ont été démontrés opérationnels.

En décembre 2024, l’équipe Google Quantum AI a publié dans Nature des résultats démontrant que leur processeur Willow de 105 qubits avait atteint une correction d’erreurs quantiques en dessous du seuil en utilisant le code de surface. Le chiffre phare, à savoir l’exécution de l’échantillonnage de circuits aléatoires en moins de cinq minutes contre une estimation de 1025 ans sur Frontier, est frappant. Mais la véritable percée est le facteur de suppression des erreurs : Λ = 2,14 ± 0,02 lors de l’augmentation de la distance de code de deux, aboutissant à un code de distance 7 avec 0,143 % ± 0,003 % d’erreur par cycle. Pour la première fois, l’ajout de qubits à un processeur quantique supraconducteur l’a rendu plus fiable, et non moins.

Ce résultat est arrivé en même temps que plusieurs autres démonstrations jalons en 2025, redéfinissant collectivement ce que l’« avantage quantique » signifie en pratique et rapprochant le domaine d’une computation quantique utile et tolérante aux pannes.

En dessous du seuil : pourquoi c’est important

La correction d’erreurs quantiques (QEC) encode un qubit logique sur plusieurs qubits physiques pour protéger contre la décohérence et les erreurs de portes. Le code de surface, le code QEC le plus étudié, relie le taux d’erreur logique au taux d’erreur physique par la relation approximative εd ∝ (p/pthr)(d+1)/2, où d est la distance du code, p est le taux d’erreur physique et pthr est le seuil. Quand p < pthr, le taux d’erreur logique est supprimé exponentiellement avec l’augmentation de la distance du code.

Willow de Google a démontré ce comportement pour les codes de surface de distance 3, 5 et 7 sur deux processeurs (72 et 105 qubits). Le qubit logique de distance 7 a atteint une durée de vie de 291 ± 6 μs, dépassant la durée de vie du meilleur qubit physique constitutif (119 ± 13 μs) par un facteur de 2,4 ± 0,3. Ce résultat de « dépassement du point mort » est un signe indubitable que la correction d’erreurs améliore réellement le système.

Cependant, le taux d’erreur logique de 0,143 % par cycle est encore de plusieurs ordres de grandeur au-dessus des taux d’environ 10-6 nécessaires pour des algorithmes comme la factorisation de Shor ou des simulations pratiques de chimie quantique. L’écart entre « en dessous du seuil » et « tolérant aux pannes à grande échelle » reste le défi central de l’ingénierie.

Le panorama de l’avantage quantique en 2025

Trois démonstrations distinctes en 2024-2025 ont collectivement établi l’avantage quantique comme une réalité empirique plutôt qu’une promesse théorique.

Échantillonnage de circuits aléatoires (Google, décembre 2024)

Le résultat RCS de Willow est la séparation la plus nette jamais obtenue entre le calcul quantique et classique sur ce test de référence. L’estimation de Google de 1025 années classiques supposait des conditions favorables pour le supercalculateur Frontier, y compris un stockage secondaire illimité sans contrainte de bande passante. Les algorithmes classiques se sont améliorés depuis la démonstration Sycamore de Google en 2019, mais l’écart croît à un rythme doublement exponentiel. Le RCS reste le plus difficile classiquement, mais n’a aucune application pratique connue.

Simulation de matériaux (D-Wave, mars 2025)

Le prototype Advantage2 de D-Wave a effectué des simulations de dynamique quantique de verres de spin programmables publiées dans Science. La collaboration a simulé un ensemble de structures de réseau à plusieurs temps d’évolution, modélisant le comportement de matériaux magnétiques en quelques minutes, alors que Frontier aurait mis près d’un million d’années. C’est notable comme première revendication de suprématie quantique évaluée par des pairs sur un problème ayant des applications scientifiques et industrielles directes, en utilisant le recuit quantiqueApproche de calcul quantique qui trouve des solutions optimales à des problèmes complexes en utilisant l'effet tunnel quantique pour dépasser les minima locaux. plutôt que le calcul basé sur des portes.

Suprématie inconditionnelle de l’information quantique (UT Austin/Quantinuum, septembre 2025)

Des chercheurs ont construit une tâche de complexité de communication où 12 qubits suffisaient mais où tout protocole classique nécessitait au moins 62 bits de mémoire. La distinction clé : cette séparation est inconditionnelle. Contrairement aux affirmations basées sur le RCS, qui reposent sur des conjectures de complexité computationnelle (l’hypothèse que la hiérarchie polynomiale ne s’effondre pas), le résultat de UT Austin comporte une preuve mathématique qu’aucun algorithme classique, aussi ingénieux soit-il, ne peut combler l’écart. Il démontre directement l’accès à la ressource exponentielle de l’espace de Hilbert.

Avantage quantique vérifiable (Google, octobre 2025)

L’algorithme Quantum Echoes de Google a calculé des corrélateurs temporels hors ordre (OTOC) sur Willow, fonctionnant 13 000 fois plus vite que le meilleur algorithme classique sur un supercalculateur de pointe. Contrairement au RCS, cet algorithme modélise des expériences physiques et teste à la fois la complexité computationnelle et la précision. Les résultats ont été vérifiés par rapport aux données de résonance magnétique nucléaire pour des molécules de jusqu’à 28 atomes, ouvrant la voie à une analyse quantique améliorée de la structure moléculaire.

L’explosion des codes QEC et le chemin vers la tolérance aux pannes

Le paysage 2025 a connu une expansion spectaculaire de la recherche en QEC. Le rapport QEC de Riverlane documente 120 nouveaux articles de codes QEC évalués par des pairs entre janvier et octobre 2025, contre 36 en 2024. Les sept grandes familles de codes QEC ont maintenant toutes été implémentées sur du matériel.

Le passage des codes de surface aux codes de contrôle de parité à faible densité quantique (qLDPC), initié par la transition d’IBM en 2024, devrait se répandre dans l’industrie en 2026. Les codes qLDPC offrent de meilleurs taux d’encodage (plus de qubits logiques par qubit physique) et sont essentiels pour réduire la surcharge requise par le calcul tolérant aux pannes.

Les implications pratiques sont significatives. Une analyse combinant des codes QEC améliorés, une meilleure qualité des qubits et un co-traitement classique plus intelligent a estimé que briser le RSA-2048 pourrait nécessiter environ un million de qubits physiques, une réduction de 20 fois par rapport aux estimations antérieures de 20 millions. Cela compresse considérablement le délai de pertinence cryptographique.

Architectures matérielles : un domaine en divergence

L’absence d’une technologie dominante de qubits est elle-même instructive. Quatre approches fondamentalement différentes sont poursuivies à l’échelle industrielle :

Transmons supraconducteurs (Google, IBM) : La plateforme la plus mature. Willow de Google compte 105 qubits avec des temps de cohérence T1 approchant les 100 μs. Heron d’IBM atteint des fidélités de portes à deux qubits record et peut exécuter avec précision certaines classes de circuits avec jusqu’à 5 000 opérations de portes à deux qubits. La feuille de route d’IBM vise son processeur Starling tolérant aux pannes d’ici 2029 : 200 qubits logiques exécutant des circuits de 100 millions de portes.

Qubits topologiques (Microsoft) : Majorana 1 utilise un nouveau matériau topoconducteur (hétérostructures arséniure d’indium/aluminium) refroidi près du zéro absolu pour former des nanofils supraconducteurs topologiques avec des modes de Majorana à zéro énergie aux extrémités. L’information est encodée dans la parité des électrons partagés entre paires de MZM, offrant une protection topologique inhérente contre le bruit local. Actuellement à huit qubits sur une puce conçue pour un million. Contrôle basé sur la mesure via des impulsions numériques plutôt que des rotations analogiques. La DARPA a sélectionné cette approche pour sa phase finale US2QC.

Ions piégés (Quantinuum, IonQ) : Des chercheurs de UT Austin ont démontré la suprématie inconditionnelle de l’information quantique en utilisant le processeur à ions piégés H-series de Quantinuum. Oxford Ionics a démontré une fidélité de portes à deux qubits de 99,99 % en 2025. Les systèmes à ions piégés offrent des temps de cohérence plus longs et une connectivité totale, mais font face à des défis de vitesse de portes et de mise à l’échelle.

Recuit quantique (D-Wave) : Un modèle de calcul fondamentalement différent, optimisé pour les problèmes d’optimisation et de simulation. Le prototype Advantage2 de D-Wave opère déjà à des milliers de qubits avec son résultat de suprématie publié dans Science. La société propose un accès commercial dans le cloud via sa plateforme Leap.

Le futur hybride et un calendrier honnête

Le consensus entre l’industrie et les analystes est que l’informatique quantique augmentera le calcul classique, sans le remplacer. Le rapport technologique 2025 de Bain & Company projette un potentiel de marché allant jusqu’à 250 milliards de dollars, mais le chiffre d’affaires actuel est inférieur à 1 milliard de dollars par an. Le marché proche projeté de 5 à 15 milliards de dollars d’ici 2035 dépend des premières victoires en simulation et en optimisation.

La vision d’IBM du supercalculateur centré sur le quantique, intégrant des QPU avec des CPU et des GPU dans des flux de travail hétérogènes, reflète la direction du domaine. RIKEN et la Cleveland Clinic font déjà tourner des algorithmes hybrides quantiques-classiques pour des problèmes de structure électronique sur IBM Quantum System One.

Plusieurs gouletsUn lieu géographique où le trafic doit passer par un passage étroit ou limité, créant une vulnérabilité aux perturbations. d’étranglement critiques subsistent :

  • Taux d’erreur logique : Les meilleurs actuels (~10-3 par cycle) doivent atteindre ~10-6 ou moins pour la plupart des algorithmes pratiques. Cela nécessite à la fois de meilleurs qubits physiques et des distances de code plus grandes.
  • Latence du décodeur : Le décodage en temps réel doit suivre le rythme des temps de cycle d’environ 1 μs pour les systèmes supraconducteurs. Google a démontré une latence moyenne de décodeur de 63 μs à distance 5, mais la mise à l’échelle vers des codes plus grands sera difficile.
  • Erreurs corrélées : Les expériences de code de répétition de Google ont révélé de rares événements d’erreurs corrélées se produisant environ une fois par heure (tous les 3 × 109 cycles), établissant un plancher d’erreur de 10-10. L’origine de ces événements n’est pas encore comprise.
  • Talents : Riverlane estime qu’il n’existe que 600 à 700 spécialistes QEC dans le monde, contre un besoin de 5 000 à 16 000 d’ici 2030.
  • Maturité des algorithmes : Plus de la moitié des 250 milliards de dollars de valeur marchande projetés par Bain repose sur l’apprentissage automatique quantique, qui reste en grande partie théorique. Les cas d’utilisation à plus haute valeur (QML pour les LLM, IA générative) sont les plus spéculatifs.

Implications cryptographiques

La menace du « harvest now, decrypt later » (stocker maintenant, déchiffrer plus tard) est la préoccupation la plus urgente. Des adversaires pourraient stocker du trafic chiffré aujourd’hui en vue d’un déchiffrement quantique futur. Le NIST a finalisé ses premières normes de cryptographie post-quantique (PQC) en 2024, et la migration est en cours, mais lente. L’enquête de Bain a révélé que 73 % des professionnels de la sécurité informatique s’attendent à ce que les menaces cryptographiques quantiques se matérialisent dans les cinq ans, mais seulement 9 % des dirigeants technologiques disposent d’une feuille de route de migration PQC.

L’estimation révisée selon laquelle le RSA-2048 pourrait être brisé avec environ un million de qubits (contre 20 millions) compresse le calendrier de la menace. Bien que personne ne soit proche du million de qubits tolérants aux pannes aujourd’hui, la convergence d’un matériel amélioré, de meilleurs codes QEC et d’architectures nouvelles comme l’approche topologique de Microsoft signifie que c’est une cible mouvante qui justifie une planification proactive.

Où nous en sommes réellement

L’avantage quantique a été démontré sur des tests de référence, sur des problèmes scientifiques utiles et avec une preuve mathématique inconditionnelle. La correction d’erreurs fonctionne en dessous du seuil. Plusieurs plateformes matérielles viables se développent. Les premiers prototypes tolérants aux pannes sont attendus dans deux à trois ans.

Mais la machine qui résout des problèmes industriellement pertinents plus rapidement, moins chèrement et de manière plus fiable que les alternatives classiques n’a pas encore été construite. Le chemin d’ingénierie pour passer de 105 qubits physiques à des millions de qubits logiques tolérants aux pannes est long et incertain. L’informatique quantique en 2026 est dans la position qu’occupait l’informatique classique à l’ère des transistors à la fin des années 1950 : les principes fondamentaux sont prouvés, les composants fonctionnent, et le défi de mise à l’échelle en ingénierie est le problème définissant le domaine.

Qu'avez-vous pensé de cet article ?
Partager cet article

Une erreur ? Signalez-la

Sources