Zeitlos 15 Min. Lesezeit

Quantencomputing vs. klassisches Computing: Was Quantenvorteil in der Praxis wirklich bedeutet

Dieser Artikel wurde automatisch aus dem Englischen von einer KI übersetzt. Originalversion auf Englisch lesen →
Quantenvorteil Vergleich zwischen Quantencomputing und klassischen Prozessoren
🎧 Anhören
Mar 29, 2026
Lesemodus

Im Dezember 2024 gab Google bekannt, dass sein neuer Quantenchip Willow eine Berechnung in weniger als fünf Minuten abgeschlossen hatte, für die der schnellste Supercomputer der Welt 10 Septillionen Jahre gebraucht hätte. Diese Zahl ist so groß, dass das Alter des Universums daneben wie ein Rundungsfehler wirkt. Einige Monate später veröffentlichte D-Wave begutachtete Ergebnisse, die zeigten, dass sein Quantenannealer magnetische Materialien in wenigen Minuten simulieren konnte, wofür ein klassischer Supercomputer fast eine Million Jahre gebraucht hätte. Und im Oktober 2025 legte Google mit einem Algorithmus nach, der 13.000-mal schneller lief als alles, was ein Supercomputer leisten konnte.

Das sind echte Ergebnisse, veröffentlicht in Nature und Science, von Maschinen, die heute existieren. Bedeutet das, dass Quantencomputer gewonnen haben? Nicht ganz. Die Realität ist nuancierter, interessanter und wichtiger zu verstehen, als die Schlagzeilen vermuten lassen.

Was Quantencomputer tatsächlich anders machen

Klassische Computer verarbeiten Informationen als Bits: Einsen und Nullen. Jede Berechnung, vom Versenden einer E-Mail bis zum Training eines KI-Modells, läuft darauf hinaus, diese Bits sehr schnell umzuschalten und auszulesen. Moderne Prozessoren führen Milliarden von Operationen pro Sekunde aus und sind darin außerordentlich gut.

Quantencomputer verwenden stattdessen Qubits. Ein Qubit kann sich in einer „Superposition” aus 0 und 1 gleichzeitig befinden, und mehrere Qubits können „verschränkt” werden, was bedeutet, dass der Zustand eines Qubits die anderen sofort beeinflusst. Das ist kein schnelleres klassisches Rechnen. Es ist eine grundlegend andere Art der Informationsverarbeitung, die Quantenmaschinen ermöglicht, viele mögliche Lösungen gleichzeitig zu erkunden.

Zum Vergleich: Ein klassischer Computer, der einen Weg durch ein Labyrinth sucht, probiert einen Pfad nach dem anderen. Ein Quantencomputer kann gewissermaßen alle Pfade gleichzeitig erkunden. Bei bestimmten Problemtypen verschafft das Quantenmaschinen einen exponentiellen Vorteil.

Aber hier liegt der entscheidende Vorbehalt: „Bestimmte Problemtypen” trägt in diesem Satz sehr viel Gewicht.

Was „Quantenvorteil” wirklich bedeutet

Wenn Forscher sagen, ein Quantencomputer habe „Quantenvorteil” oder „Quantenüberlegenheit” erreicht, meinen sie, dass er ein spezifisches Problem schneller gelöst hat als jede bekannte klassische Methode. Das ist eine engere Aussage, als sie klingt.

Googles Willow-Ergebnis von 2024 verwendete beispielsweise einen Benchmark namens Random Circuit Sampling (RCS). Dieser testet, ob ein Quantencomputer eine Ausgabe erzeugen kann, die ein klassischer Computer nicht effizient replizieren kann. Willow bestand diesen Test eindeutig. RCS hat jedoch keine bekannte praktische Anwendung. Es ist ein Fähigkeitsnachweis, kein Produkt.

D-Waves Ergebnis von 2025 war anders und möglicherweise bedeutsamer: Es löste ein tatsächliches materialwissenschaftliches Problem und simulierte das Verhalten magnetischer Materialien, sogenannter Spin-Gläser. Das hat reale Anwendungen beim Verständnis von Supraleitern, Sensoren und elektronischen Bauteilen. Die Ergebnisse wurden in Science veröffentlicht und gelten als erste Demonstration von Quantenüberlegenheit bei einem nützlichen Problem.

Dann kam der mathematisch strengste Beweis bisher. Im September 2025 demonstrierten Forscher der UT Austin und Quantinuum eine „unbedingte” Quantenüberlegenheit: eine Gedächtnisaufgabe, die 12 Qubits lösen konnten, für die aber mindestens 62 klassische Bits erforderlich wären. Anders als bei früheren Behauptungen kann kein zukünftiger klassischer Algorithmus diese Lücke schließen. Die Mathematik beweist es als unmöglich.

Das Fehlerproblem

Das größte Hindernis zwischen heutigen Quantencomputern und praktischer Nützlichkeit sind Fehler. Qubits sind außerordentlich fragil. Sie müssen auf Temperaturen gekühlt werden, die kälter sind als der Weltraum, und selbst dann kann die geringste Störung eine Berechnung verfälschen.

Googles Willow-Chip erzielte hier einen echten Durchbruch. Sein Nature-Artikel zeigte, dass das Hinzufügen weiterer Qubits die Fehlerrate tatsächlich senkte und sie bei jeder Erhöhung der Codegröße halbierte. Das nennt man „unter die Schwelle gehen”, und Forscher hatten dies fast 30 Jahre lang angestrebt, seit Peter Shor 1995 die QuantenfehlerkorrekturMethode, bei der ein logisches Qubit über mehrere physische Qubits kodiert wird, um Quanteninformation vor Fehlern durch Rauschen und Dekohärenz zu schützen. vorschlug.

Aber der Kontext zählt. Willows logische Fehlerrate von etwa 0,143 % pro Zyklus liegt immer noch weit über den etwa 0,0001 %, die großskalige, fehlertolerante Quantenalgorithmen benötigen würden. Die Lücke zwischen „unter der Schwelle” und „bei Skalierung tatsächlich nützlich” bleibt erheblich.

Stärken und Grenzen von Quantencomputern

Quantencomputer werden Ihren Laptop nicht ersetzen. Sie werden Ihre Tabellenkalkulation nicht schneller verarbeiten oder Ihren Browser reaktiver machen. Sie sind für die allgemeine Datenverarbeitung nicht besser. Für die überwiegende Mehrheit der Aufgaben werden klassische Computer überlegen, günstiger und praktischer bleiben.

Quantenmaschinen zeigen echtes Potenzial bei Problemen, die von Natur aus quantenmechanisch oder kombinatorisch explosiv sind:

  • Molekularsimulation: Das Verständnis molekularer Wechselwirkungen ist grundlegend für die Wirkstoffentdeckung und Materialwissenschaft. Klassische Computer haben Mühe, quantenmechanisches Verhalten auf Atomebene zu modellieren, weil sie per Definition nicht quantenmechanisch sind. Googles Quantum-Echoes-Algorithmus demonstrierte eine Molekülstrukturanalyse, die mit Kernspinresonanzdaten übereinstimmte, und deutet auf ein zukünftiges „Quantenmikroskop” für die Chemie hin.
  • Optimierung: Logistikplanung, Portfoliooptimierung und Supply-Chain-Management erfordern die beste Lösung unter astronomisch vielen Möglichkeiten. Quantenannealing, der von D-Wave verwendete Ansatz, zeigt hier Potenzial.
  • Kryptographie: Ein ausreichend leistungsstarker Quantencomputer könnte die meisten aktuellen Verschlüsselungen brechen. Neuere Schätzungen legen nahe, dass das Brechen von RSA-2048 etwa eine Million Qubits erfordern könnte, gegenüber früheren Schätzungen von 20 Millionen. Davon sind wir heute weit entfernt, aber die Entwicklungsrichtung ist wichtig.
  • Materialentdeckung: Die Simulation neuer Materialien für Batterien, Solarzellen oder Supraleiter ist eine natürliche Anwendung des Quantencomputings.

Bain & Company schätzt das Gesamtmarktpotenzial auf bis zu 250 Milliarden Dollar in den Bereichen Pharma, Finanzen, Logistik und Materialwissenschaft. Aber der heutige Markt für Quantencomputing-Hardware und -Dienste liegt bei unter einer Milliarde Dollar jährlich. Die Lücke zwischen Potenzial und Realität bleibt gewaltig.

Das Rennen um den echten Quantencomputer

Die großen Technologieunternehmen verfolgen unterschiedliche Ansätze, und diese Vielfalt ist selbst aussagekräftig: Niemand hat das Siegerdesign noch gefunden.

Google verwendet supraleitende Qubits und konzentriert sich auf die Skalierung der Fehlerkorrektur. Sein Willow-Chip hat 105 Qubits, und das nächste Ziel des Unternehmens ist ein langlebiges logisches Qubit als Meilenstein 3 seiner Roadmap.

IBM baut sogenannte „quantenzentrierte Supercomputer”, die Quanten- und klassische Prozessoren kombinieren. Sein Heron-Prozessor kann Schaltkreise mit bis zu 5.000 Zwei-Qubit-Gatteroperationen ausführen, und IBM will bis 2029 mit seinem Starling-Prozessor fehlertolerantes Computing liefern: 200 logische Qubits, die Schaltkreise mit 100 Millionen Gattern ausführen.

Microsoft setzte mit Majorana 1 auf eine radikal andere Wette: den ersten Prozessor auf Basis topologischer Qubits. Diese speichern Informationen in exotischen Quantenzuständen, die von Natur aus fehlerresistenter sind. Microsoft hat acht topologische Qubits auf einem Chip platziert, der auf eine Million skaliert werden soll. DARPA wählte Microsoft für die letzte Phase seines Programms zum Bau eines quantencomputergestützten Nutzrechners aus.

D-Wave bietet Quantenannealing-Systeme an, die bereits kommerziell verfügbar sind, wobei sein Advantage2-Prozessor Tausende von Qubits verwaltet. Sein Ansatz ist enger, aber für Optimierungsprobleme unmittelbarer praktikabel.

Ein ehrlicher Zeitplan

Das Quantencomputing-Feld hat eine Geschichte des Überversprechens. Jahrelang war praktisches Quantencomputing „fünf bis zehn Jahre entfernt”. Die ehrliche Einschätzung im Jahr 2026 ist, dass wir uns in dem befinden, was die Branche die „fehlertolerante Gründungsära” nennt. Bedeutende Ingenieursprobleme wurden im Labor gelöst. Aber Laborergebnisse in Maschinen zu überführen, die nützliche Algorithmen zuverlässig, im großen Maßstab, über Stunden hinweg ausführen können, bleibt eine gewaltige Herausforderung.

Der Riverlane-QEC-Bericht hebt ein kritisches Personalproblem hervor: Weltweit gibt es schätzungsweise nur 600 bis 700 Spezialisten für Quantenfehlerkorrektur, aber bis 2030 werden 5.000 bis 16.000 benötigt. Eine Revolution lässt sich nicht ohne die Menschen bauen, die die Maschinen verstehen.

Die meisten Experten sind sich heute einig, dass Quantencomputer klassische nicht ersetzen, sondern in hybriden Architekturen neben ihnen arbeiten werden. Bains Analyse prognostiziert, dass der Quantencomputing-Markt bis 2035 auf 5 bis 15 Milliarden Dollar anwachsen wird, mit frühen praktischen Erfolgen in der Molekularsimulation und Optimierung. Das volle Potenzial hängt von Durchbrüchen ab, die noch nicht stattgefunden haben.

Was das für Sie bedeutet

Wenn Sie kein Quantenphysiker oder IT-Sicherheitsverantwortlicher sind, wird Quantencomputing Ihren Alltag noch einige Jahre lang nicht beeinflussen. Aber es ist keine theoretische Kuriosität mehr. Echte Maschinen lösen echte Probleme schneller als klassische Supercomputer, auch wenn diese Probleme noch eng begrenzt sind.

Die unmittelbar praktischste Sorge betrifft die Cybersicherheit. Die „Harvest now, decrypt later”-Bedrohung, bei der Angreifer verschlüsselte Daten heute speichern, um sie mit zukünftigen Quantencomputern zu knacken, motiviert bereits Regierungen und Unternehmen zur Einführung post-quantenmechanischer Kryptographie. Wer sensible Daten mit langer Lebensdauer verwaltet, sollte dem jetzt Aufmerksamkeit schenken.

Quantenvorteil ist real. Er ist auch spezifisch, begrenzt und noch in einem frühen Stadium. Die Maschine, die alles verändert, wurde noch nicht gebaut. Aber zum ersten Mal wurden die Komponenten, die sie möglich machen werden, als funktionsfähig nachgewiesen.

Im Dezember 2024 veröffentlichte das Google-Quantum-AI-Team Ergebnisse in Nature, die zeigten, dass ihr 105-Qubit-Willow-Prozessor eine QuantenfehlerkorrekturMethode, bei der ein logisches Qubit über mehrere physische Qubits kodiert wird, um Quanteninformation vor Fehlern durch Rauschen und Dekohärenz zu schützen. unterhalb der Schwelle mithilfe des Oberflächencodes erreicht hatte. Die Schlagzahl, Random Circuit Sampling in unter fünf Minuten gegenüber geschätzten 1025 Jahren auf Frontier abzuschließen, ist dramatisch. Der eigentliche Durchbruch war jedoch der Fehlerunterdrückungsfaktor: Λ = 2,14 ± 0,02 bei einer Erhöhung der Codedistanz um zwei, was in einem Distanz-7-Code mit 0,143 % ± 0,003 % Fehler pro Zyklus gipfelt. Zum ersten Mal machte das Hinzufügen von Qubits zu einem supraleitenden Quantenprozessor diesen zuverlässiger, nicht weniger.

Dieses Ergebnis kam zusammen mit mehreren anderen Meilenstein-Demonstrationen in 2025, die gemeinsam neu definierten, was „Quantenvorteil” in der Praxis bedeutet, und das Feld der nützlichen, fehlertoleranten Quantenberechnung näherbrachten.

Unterhalb der Schwelle: Warum es wichtig ist

Quantenfehlerkorrektur (QEC) kodiert ein logisches Qubit über mehrere physische Qubits, um gegen Dekohärenz und Gatterfehler zu schützen. Der Oberflächencode, der am meisten untersuchte QEC-Code, verknüpft logische Fehlerrate mit physischer Fehlerrate durch die Näherungsrelation εd ∝ (p/pthr)(d+1)/2, wobei d die Codedistanz, p die physische Fehlerrate und pthr der Schwellenwert ist. Wenn p < pthr, wird die logische Fehlerrate exponentiell mit zunehmender Codedistanz unterdrückt.

Googles Willow demonstrierte dieses Verhalten über Distanz-3-, Distanz-5- und Distanz-7-Oberflächencodes auf zwei Prozessoren (72-Qubit und 105-Qubit). Das logische Distanz-7-Qubit erreichte eine Lebensdauer von 291 ± 6 μs und übertraf damit die beste physische Qubit-Lebensdauer (119 ± 13 μs) um den Faktor 2,4 ± 0,3. Dieses „Beyond-Breakeven”-Ergebnis ist ein untrügliches Zeichen dafür, dass Fehlerkorrektur das System tatsächlich verbessert.

Die logische Fehlerrate von 0,143 % pro Zyklus liegt jedoch immer noch um Größenordnungen über den ~10-6-Raten, die für Algorithmen wie Shors Faktorisierung oder praktische Quantenchemiesimulationen benötigt werden. Die Lücke zwischen „unterhalb der Schwelle” und „fehlertolerant im großen Maßstab” bleibt die zentrale Ingenieurherausforderung.

Die Quantenvorteilslandschaft 2025

Drei verschiedene Demonstrationen in 2024-2025 etablierten Quantenvorteil gemeinsam als empirische Realität statt als theoretisches Versprechen.

Random Circuit Sampling (Google, Dezember 2024)

Willows RCS-Ergebnis ist die bisher stärkste Trennung zwischen Quanten- und klassischer Berechnung auf diesem Benchmark. Googles Schätzung von 1025 klassischen Jahren setzte großzügige Bedingungen für den Frontier-Supercomputer voraus, einschließlich unbegrenztem Sekundärspeicher ohne Bandbreitenoverhead. Klassische Algorithmen haben sich seit Googles Sycamore-Demonstration 2019 verbessert, aber die Lücke wächst mit doppelt-exponentiellem Tempo. RCS bleibt klassisch am schwierigsten, hat aber keine bekannte praktische Anwendung.

Materialsimulation (D-Wave, März 2025)

D-Waves Advantage2-Prototyp führte Quantendynamiksimulationen programmierbarer Spin-Gläser durch, die in Science veröffentlicht wurden. Die Kooperation simulierte eine Reihe von Gitterstrukturen über mehrere Evolutionszeiten und modellierte das Verhalten magnetischer Materialien in Minuten, wofür Frontier fast eine Million Jahre gebraucht hätte. Dies ist bemerkenswert als erster begutachteter Quantenüberlegenheitsanspruch bei einem Problem mit direkten wissenschaftlichen und industriellen Anwendungen, unter Verwendung von Quantenannealing statt gatterbasierter Berechnung.

Unbedingte Quanteninformationsüberlegenheit (UT Austin/Quantinuum, September 2025)

Forscher konstruierten eine Kommunikationskomplexitätsaufgabe, bei der 12 Qubits ausreichten, jedes klassische Protokoll aber mindestens 62 Bits Speicher erforderte. Der entscheidende Unterschied: Diese Trennung ist unbedingt. Anders als RCS-basierte Ansprüche, die auf Rechenkomplexitätsvermutungen beruhen (der Annahme, dass die polynomielle Hierarchie nicht kollabiert), enthält das UT-Austin-Ergebnis einen mathematischen Beweis, dass kein klassischer Algorithmus, wie clever auch immer, die Lücke schließen kann. Es demonstriert direkt den Zugang zur exponentiellen Hilbertraum-Ressource.

Verifizierbarer Quantenvorteil (Google, Oktober 2025)

Googles Quantum-Echoes-Algorithmus berechnete zeitlich ungeordnete Korrelatoren (OTOCs) auf Willow und lief 13.000-mal schneller als der beste klassische Algorithmus auf einem führenden Supercomputer. Anders als RCS modelliert dieser Algorithmus physikalische Experimente und testet sowohl Berechnungskomplexität als auch Präzision. Die Ergebnisse wurden mit Kernspinresonanzdaten für Moleküle mit bis zu 28 Atomen verifiziert und zeigen einen Weg zur quantengestützten Molekülstrukturanalyse.

Die QEC-Code-Explosion und der Weg zur Fehlertoleranz

Das Jahr 2025 erlebte eine dramatische Expansion der QEC-Forschung. Riverlanes QEC-Bericht dokumentiert 120 neue begutachtete QEC-Code-Artikel zwischen Januar und Oktober 2025, gegenüber 36 im Jahr 2024. Alle sieben wichtigen QEC-Code-Familien wurden nun auf Hardware implementiert.

Der Wechsel von Oberflächencodes zu Quanten-Low-Density-Parity-Check-Codes (qLDPC), eingeleitet durch IBMs Übergang 2024, wird voraussichtlich 2026 in der gesamten Branche Verbreitung finden. qLDPC-Codes bieten bessere Encodierungsraten (mehr logische Qubits pro physisches Qubit) und sind entscheidend für die Reduzierung des für fehlertolerante Berechnungen erforderlichen Overheads.

Die praktischen Implikationen sind bedeutend. Eine Analyse, die verbesserte QEC-Codes, höhere Qubitqualität und intelligentere klassische Co-Verarbeitung kombiniert, schätzte, dass das Brechen von RSA-2048 etwa eine Million physische Qubits erfordern könnte, eine 20-fache Reduzierung gegenüber früheren Schätzungen von 20 Millionen. Dies komprimiert den Zeitplan für kryptographische Relevanz erheblich.

Hardwarearchitekturen: ein sich verzweigendes Feld

Das Fehlen einer dominanten Qubit-Technologie ist selbst aufschlussreich. Vier grundlegend verschiedene Ansätze werden im industriellen Maßstab verfolgt:

Supraleitende Transmons (Google, IBM): Die ausgereifteste Plattform. Googles Willow verfügt über 105 Qubits mit T1-Kohärenzzeiten von annähernd 100 μs. IBMs Heron erreicht Rekord-Zwei-Qubit-Gatterfidelitäten und kann bestimmte Schaltkreisklassen mit bis zu 5.000 Zwei-Qubit-Gatteroperationen präzise ausführen. IBMs Roadmap zielt auf seinen fehlertoleranten Starling-Prozessor bis 2029 ab: 200 logische Qubits mit Schaltkreisen aus 100 Millionen Gattern.

Topologische Qubits (Microsoft): Majorana 1 verwendet ein neuartiges Topoleiter-Material (Indiumarsenid/Aluminium-Heterostrukturen), das auf nahe dem absoluten Nullpunkt gekühlt wird, um topologische supraleitende Nanodrähte mit Majorana-Null-Moden an den Endpunkten zu bilden. Informationen werden in der Parität von Elektronen kodiert, die zwischen MZM-Paaren geteilt werden, was inhärenten topologischen Schutz gegen lokales Rauschen bietet. Derzeit acht Qubits auf einem für eine Million ausgelegten Chip. Messungsbasierte Steuerung über digitale Pulse statt analoger Rotationen. DARPA wählte diesen Ansatz für seine finale US2QC-Phase.

Gefangene Ionen (Quantinuum, IonQ): UT-Austin-Forscher demonstrierten unbedingte Quanteninformationsüberlegenheit mit Quantinuums H-Series-Ionenfallenprozessor. Oxford Ionics demonstrierte 2025 eine Zwei-Qubit-Gatterfidelität von 99,99 %. Ionenfallensysteme bieten längere Kohärenzzeiten und vollständige Konnektivität, stehen aber vor Herausforderungen bei Gattergeschwindigkeit und Skalierung.

Quantenannealing (D-Wave): Ein grundlegend anderes Berechnungsmodell, optimiert für Optimierungs- und Simulationsprobleme. D-Waves Advantage2-Prototyp arbeitet bereits mit Tausenden von Qubits, mit seinem in Science veröffentlichten Überlegenheitsergebnis. Das Unternehmen bietet heute kommerziellen Cloud-Zugang über seine Leap-Plattform an.

Die hybride Zukunft und ein ehrlicher Zeitplan

Der Konsens in der Branche und unter Analysten ist, dass Quantencomputing klassische Berechnung ergänzen, nicht ersetzen wird. Bain & Companys Technologiebericht 2025 prognostiziert ein Marktpotenzial von bis zu 250 Milliarden Dollar, aber der aktuelle Umsatz liegt unter einer Milliarde Dollar jährlich. Der projizierte Nahzeitmarkt von 5 bis 15 Milliarden Dollar bis 2035 hängt von frühen Siegen in Simulation und Optimierung ab.

IBMs Vision quantenzentrierter Supercomputer, die QPUs mit CPUs und GPUs in heterogenen Workflows integriert, spiegelt die Richtung des Feldes wider. RIKEN und die Cleveland Clinic führen bereits quanten-klassische Hybridalgorithmen für Elektronenstrukturprobleme auf IBM Quantum System One aus.

Mehrere kritische Engpässe bleiben bestehen:

  • Logische Fehlerraten: Die aktuell besten (~10-3 pro Zyklus) müssen ~10-6 oder darunter erreichen für die meisten praktischen Algorithmen. Dies erfordert sowohl bessere physische Qubits als auch größere Codedistanzen.
  • Decoder-Latenz: Echtzeitdekodierung muss mit Zykluszeiten von ~1 μs für supraleitende Systeme Schritt halten. Google demonstrierte 63 μs durchschnittliche Decoder-Latenz bei Distanz 5, aber die Skalierung auf größere Codes wird herausfordernd sein.
  • Korrelierte Fehler: Googles Repetitionscode-Experimente enthüllten seltene korrelierte Fehlerereignisse, die etwa einmal pro Stunde auftreten (alle 3 × 109 Zyklen), was einen Fehlerboden von 10-10 setzt. Der Ursprung dieser Ereignisse ist noch nicht verstanden.
  • Fachkräfte: Riverlane schätzt, dass weltweit nur 600-700 QEC-Spezialisten existieren, gegenüber einem Bedarf von 5.000-16.000 bis 2030.
  • Algorithmusreife: Über die Hälfte von Bains prognostiziertem 250-Milliarden-Dollar-Marktwert liegt im Quanten-Maschinellen-Lernen, das weitgehend theoretisch bleibt. Die wertvollsten Anwendungsfälle (QML für LLMs, generative KI) sind die spekulativsten.

Kryptographische Implikationen

Die „Harvest now, decrypt later”-Bedrohung ist die zeitkritischste Sorge. Angreifer könnten heute verschlüsselten Datenverkehr speichern, um ihn mit zukünftigen Quantencomputern zu entschlüsseln. NIST schloss seine ersten Post-Quanten-KryptographieVerschlüsselungsmethoden, die so konzipiert sind, dass sie auch gegen Quantencomputer sicher bleiben, welche gängige Algorithmen wie RSA brechen können.-Standards (PQC) 2024 ab, und die Migration läuft, aber langsam. Bains Umfrage ergab, dass 73 % der IT-Sicherheitsfachleute erwarten, dass Quanten-Kryptographiebedrohungen innerhalb von fünf Jahren eintreten, aber nur 9 % der Technologieführer eine PQC-Migrations-Roadmap haben.

Die revidierte Schätzung, dass RSA-2048 mit etwa einer Million Qubits (statt 20 Millionen) gebrochen werden könnte, komprimiert den Bedrohungszeitplan. Obwohl niemand einer Million fehlertoleranter Qubits nahe ist, bedeutet die Konvergenz verbesserter Hardware, besserer QEC-Codes und neuartiger Architekturen wie Microsofts topologischem Ansatz, dass dies ein sich bewegendes Ziel ist, das proaktive Planung rechtfertigt.

Wo wir tatsächlich stehen

Quantenvorteil wurde auf Benchmarks, bei nützlichen wissenschaftlichen Problemen und mit unbedingtem mathematischem Beweis demonstriert. Fehlerkorrektur funktioniert unterhalb der Schwelle. Mehrere tragfähige Hardwareplattformen skalieren. Die ersten fehlertoleranten Prototypen werden innerhalb von zwei bis drei Jahren erwartet.

Aber die Maschine, die industriell relevante Probleme schneller, günstiger und zuverlässiger als klassische Alternativen löst, wurde noch nicht gebaut. Der Ingenieurspfad von 105 physischen Qubits zu Millionen fehlertoleranter logischer Qubits ist lang und ungewiss. Quantencomputing im Jahr 2026 befindet sich in der Position, die klassisches Computing in der Transistor-Ära der späten 1950er Jahre einnahm: Die Grundprinzipien sind bewiesen, die Komponenten funktionieren, und die Ingenieur-Skalierungsherausforderung ist das definierende Problem des Feldes.

Wie hat Ihnen dieser Artikel gefallen?
Artikel teilen

Fehler gefunden? Melden Sie ihn

Quellen