Zum Inhalt springen
Physik & Ingenieurwesen Zeitlos 10 min read

Verrauschte Quantenverschränkung: Wie 75 Qubits kritische Hardware-Grenzen enthüllten

Forscher verschränkten 75 Qubits auf IBM-Hardware und setzten damit einen Rekord, doch mathematisch bewiesene Rauschgrenzen zeigen, wie weit Quantenverschränkung ohne Fehlerkorrektur skalierbar ist.

This article was automatically translated from English by AI. Read the original English version →
Superconducting quantum processor chip demonstrating noisy quantum entanglement research
Reading mode

Als die Redaktion vorschlug, verrauschte Quantenverschränkung zu beleuchten, war der Zeitpunkt günstig: Forscher veröffentlichten ein 75-Qubit-GHZ-Zustand-Experiment mit Fehlererkennung auf IBM-Hardware, doch genau das Rauschen, das diese Maschinen „verrauscht“ macht, setzt harte mathematische Grenzen für die Skalierbarkeit der Verschränkung. Wer das Quantencomputing-Rennen hin zu praktischen Anwendungen verfolgt, muss diese Spannung verstehen.

Quantenverschränkung ist das Phänomen, bei dem zwei oder mehr Teilchen auf eine Weise korrelieren, die die klassische Physik nicht erklären kann. Misst man ein verschränktes Teilchen, erfährt man sofort etwas über seinen Partner, unabhängig von der Entfernung. Diese Eigenschaft bildet die Grundlage nahezu jedes vorgeschlagenen Quantenvorteils: schnellere Algorithmen, Quantenschlüsselverteilung und Simulationen von Molekülen, die für klassische Computer zu komplex sind.[s]

Das Problem der verrauschten Quantenverschränkung

Heutige Quantencomputer arbeiten in dem, was Physiker die NISQ-Ära nennen: Noisy Intermediate-Scale Quantum. Das „Verrauschte“ ist kein Designfehler, der mit dem nächsten Software-Update behoben werden kann. Es spiegelt fundamentale Physik wider. Jedes Qubit wechselwirkt mit seiner Umgebung, und diese Wechselwirkungen verursachen Fehler. Gatteroperationen führen zu Fehlern. Messungen stören Zustände. Und Verschränkung, äußerst fragil wie sie ist, kann schnell degradieren.

Die inhärenten Einschränkungen von NISQ-Hardware, darunter begrenzte Qubit-Anzahl, unvollkommene Gatter-Fidelity und eingeschränkte Qubit-Konnektivität, bilden fundamentale Hindernisse für echten Quantenvorteil.[s] Das ist kein Pessimismus, sondern der Ausgangspunkt für ernsthafte Ingenieursarbeit.

Harte mathematische Grenzen

Ein theoretisches Papier von 2025 in npj Quantum Information bewies etwas Unbequemes: Unter strikt kontraktiven unitalen Rauschkanälen gibt es harte Obergrenzen dafür, wie viel Verschränkung verrauschte Schaltkreise erzeugen können. Bei eindimensionalen Qubit-Arrays skaliert die maximal erreichbare Verschränkung mit O(log n), wobei n die Anzahl der Qubits ist. Bei zweidimensionalen Arrays steigt das Limit auf O(√n log n) und schließt die effiziente Erzeugung mancher hochverschränkter Zustände ohne Fehlerkorrektur aus.[s]

Einfach ausgedrückt: Verdoppelt man die Qubit-Anzahl, verdoppelt sich die nutzbare Verschränkung nicht. Das Rauschen frisst den Großteil des Gewinns. Unter solchem Rauschen beobachteten Forscher, dass n-Qubit-Geräte bei Schaltkreistiefen oberhalb einer logarithmischen Schwelle von zufälligen Münzwürfen ununterscheidbar werden.[s]

Das 75-Qubit-Experiment

Trotz dieser Grenzen drängen Experimentatoren weiter voran. Ein Team, das mit supraleitenden IBM-Prozessoren arbeitete, erzielte echte Multiteilchen-Verschränkung für bis zu 75 Qubits, verifiziert anhand der Fidelity der Mehrquanten-Kohärenz.[s] Ein späteres IBM-Ergebnis, im Oktober 2025 veröffentlicht, dehnte dies auf einen 120-Qubit-GHZ-Zustand mit einer Fidelity von 0,56(3) bei einer Post-Selektionsrate von 28 % aus, der bislang größte präparierte GHZ-Zustand.[s]

Der Trick war keine rohe Gewalt. Statt vollständiger Quantenfehlerkorrektur (die Hunderte oder Tausende physischer Qubits pro logischem Qubit erfordert) setzten sie leichtgewichtige Fehlererkennung ein: dünn besetzte Stabilisatormessungen mit höchstens 9 Ancilla-Qubits. Dasselbe Papier berichtete auch von über 85 % Gatter-Fidelity über bis zu 40 Gitterplätze, während die 75-Qubit-GHZ-Zustand-Routine höchstens etwa 78 % der Messungen verwarf, weit unterhalb von Verwurfsraten über 99,9 %, die in einigen vollständig kodierten Logik-Qubit-Experimenten berichtet wurden.[s]

Auf Quantencomputern der aktuellen Generation lassen sich mit fehlerkorrekturprimitiven geringen Aufwands reale Rechenverbesserungen erzielen, ohne vollständige logische Kodierung zu benötigen.[s] Das ist bedeutsam, weil jedes für Fehlerkorrektur aufgewendete Qubit nicht für Berechnungen zur Verfügung steht.

Logische Qubits und Dual-Rail-Kodierung

Ein paralleler Ansatz zielt auf die Fehlerstruktur selbst. Dual-Rail-supraleitende Qubits kodieren Information in Transmon-Paaren und nutzen dabei, dass der dominante Fehlertyp (Löschung) während des Schaltkreislaufs erkannt werden kann. Ein Nature-Physics-Papier von 2026 demonstrierte logische CNOT-Gatter mit 98,1 % Prozess-Fidelity bei 13 % Löschrate und ermöglichte die Erzeugung eines Drei-Logik-Qubit-GHZ-Zustands mit 93,9 % Fidelity.[s]

Jedes Dual-Rail-Qubit hält Kohärenzzeiten im Millisekundenbereich und logische Einzelqubit-Gatterfehlerraten in der Größenordnung von 10-5 durch Post-Selektion zur Minderung von Löschfehlern.[s] Diese Werte stellen einen bedeutenden Schritt zu den Fehlerraten dar, die für fehlertolerante Berechnungen benötigt werden, obwohl Skalierung die Herausforderung bleibt.

Ein verborgenes Messproblem

Es gibt eine methodische Komplikation, die die Interpretation vieler Experimente zur verrauschten Quantenverschränkung erschwert. Standard-Quanten-Auslesefehlerminderung (QREM), eine weit verbreitete Technik zur Korrektur von Messfehlern, vermischt Zustandspräparationsfehler mit Messfehlern. Eine aktuelle theoretische Analyse bewies, dass für alle Stabilisatorzustände die durch Stabilisatorerwartungswertmessung erzielte Zustandsfidelity nach konventioneller QREM-Korrektur überschätzt wird, sofern Verschränkung vorliegt.[s]

Die Verzerrung wächst exponentiell mit der Qubit-Anzahl. Der QREM-induzierte Fehler könnte Gatteroperationsfehler verdecken und falsch-positive Schlussfolgerungen erzeugen.[s] Das invalidiert nicht alle publizierten Ergebnisse, verlangt aber sorgfältige Prüfung, wie Fidelity-Behauptungen verifiziert werden, besonders bei groß angelegten Experimenten.

Maschinelles Lernen als Lösung

Eine Reaktion auf verrauschte Messungen ist der Aufbau von Erkennungsmethoden, die Rauschen einkalkulieren. Ein maschineller Lernansatz mit Support-Vektor-Maschinen, trainiert auf Pauli-Messungen, konstruiert, was Forscher einen robusten optimalen Verschränkungsnachweis (ROEW) nennen. Diese Methode hält hohe Klassifikationsgenauigkeit selbst dann aufrecht, wenn Messfehler 10 % übersteigen.[s]

Das Training des Modells mit nur 20 % des typischen Datensatzes genügt, um hohe Genauigkeit und erhebliche Fehlerreduktion zu erzielen.[s] Für Labore mit begrenztem Hardware-Zugang ist diese Dateneffizienz ebenso wichtig wie die Rauschresistenz.

Was das für das Quantencomputing bedeutet

Der aktuelle Stand der Forschung zur verrauschten Quantenverschränkung ist zugleich ermutigend und ernüchternd. Rekorde fallen weiterhin. Techniken zur Fehlererkennung ohne vollständige Fehlerkorrektur zeigen echtes Potenzial. Doch die theoretischen Grenzen bestehen fort, und aktuelle NISQ-Plattformen sind nach wie vor nicht in der Lage, echten Quantenvorteil bei praktischen Problemen zu erzielen.[s]

Für Anwendungen wie das Brechen klassischer Verschlüsselung bräuchten Quantencomputer große fehlertolerante Maschinen, nicht die heutigen verrauschten Geräte. Die Kryptografie-Gemeinschaft reagiert bereits mit Post-Quanten-Kryptografie-Standards, die darauf ausgelegt sind, Quantenangriffen zu widerstehen, in der impliziten Annahme, dass Quantencomputer irgendwann skalieren könnten.[s] Das Rennen läuft, aber das Ziel rückt immer weiter.

Verrauschte Quantenverschränkung zu verstehen ist für jeden, der dieses Feld verfolgt, keine Option. Die Physik begrenzt, was die Ingenieurswissenschaft leisten kann, und so zu tun, als wäre dem nicht so, führt zu Hype-Zyklen, die Glaubwürdigkeit schädigen und Ressourcen verschwenden.

Als die Redaktion vorschlug, verrauschte Quantenverschränkung in NISQ-Geräten zu untersuchen, war der Zeitpunkt passend: Ein 75-Qubit-GHZ-Zustand-Experiment mit Fehlererkennung zeigte, was aktuelle Hardware leisten kann, während rigorose Theoriearbeit harte Grenzen für die Skalierbarkeit der Verschränkung unter spezifischen Rauschmodellen bewies. Diese Spannung definiert die aktuelle Forschungsgrenze.

Quantenverschränkung ist die nichtklassische Korrelationsstruktur, die nahezu alle vorgeschlagenen Quantenvorteile ausnutzen: Shors Algorithmus, Quantenschlüsselverteilung, variationelle Quanteneigenwertlöser und Quantensimulation. Die operative Frage ist, ob aktuelle Hardware Verschränkung in für diese Anwendungen nützlichen Größenordnungen erzeugen und erhalten kann. Die Antwort umfasst sowohl experimentelle Rekorde als auch theoretische Unmöglichkeitsergebnisse.

Theoretische Grenzen verrauschter Quantenverschränkung

Ein Papier von 2025 in npj Quantum Information analysierte strikt kontraktive unitale Rauschkanäle und leitete enge Schranken für die Verschränkungserzeugung in verrauschten Schaltkreisen her. Die wichtigsten Ergebnisse: Unter solchem Rauschen werden n-Qubit-Geräte polynomialzeit-ununterscheidbar von zufälligen Münzen, wenn Schaltkreistiefen Ω(log n) übersteigen.[s]

Bei räumlich beschränkten Architekturen verschärfen sich die Grenzen weiter. Eindimensionale verrauschte Qubit-Schaltkreise haben maximale Verschränkung, begrenzt durch O(log n). Zweidimensionale Schaltkreise skalieren mit O(√n log n).[s] Diese Ergebnisse schließen super-polynomiale Quantenvorteile für 1D-Schaltkreise bei jeder Tiefe ohne Fehlerkorrektur aus und schränken 2D-Architekturen stark ein.

Die mathematische Struktur ist lehrreich. Strikt kontraktive unitale Kanäle lassen sich als Λ₁ = V ∘ D ∘ U zerlegen, wobei U und V unitäre Kanäle sind und D jede Pauli-Matrix σᵢ um Faktoren qᵢ < 1 kontrahiert. Der depolarisierende Kanal exemplifiziert dies: Λ₁(ρ) = (1-p)ρ + pI/2, mit Kontraktionsrate μ₁ = (1-p)². Nach t Schichten nimmt die relative Entropie zum maximal gemischten Zustand ab gemäß D(ρ(t)∥σ₀) ≤ nμᵗ. Informationsverlust ist exponentiell in der Tiefe.

Experimenteller Stand der Technik

Vor diesem theoretischen Hintergrund setzen experimentelle Gruppen weiterhin Rekorde. Ein bedeutendes Ergebnis mit supraleitenden Prozessoren meldete einen 75-Qubit-GHZ-Zustand, der echte Multiteilchen-Verschränkung erzielte, verifiziert durch Mehrquanten-Kohärenz-Fidelity.[s] Ein nachfolgendes IBM-Ergebnis, im Oktober 2025 veröffentlicht, skalierte dies auf einen 120-Qubit-GHZ-Zustand mit einer Fidelity von 0,56(3) bei einer Post-Selektionsrate von 28 %, der bislang größte präparierte GHZ-Zustand.[s]

Das Protokoll ist für seine Ressourceneffizienz bemerkenswert. Statt vollständiger Quantenfehlerkorrektur (die Hunderte oder Tausende physischer Qubits pro logischem Qubit erfordert) nutzte das Team Fehlererkennung durch dünn besetzte Stabilisatormessungen mit höchstens 9 Ancilla-Qubits. Die 75-Qubit-Routine verwarf höchstens etwa 78 % der Messungen, verglichen mit Verwurfsraten über 99,9 %, die in einigen Ansätzen mit vollständig kodierten logischen Qubits berichtet wurden.[s]

Ein neuartiges unitäres Verschränkung-Entverschränkung-Protokoll für Weitbereich-CNOT-Gatter erzielte über 85 % Fidelity über bis zu 40 Gitterplätze und übertraf messungsbasierte Alternativen deutlich.[s] Die entverschränkten Zwischen-Qubits dienen als Flag-Qubits und erkennen Bit-Flip- und Amplitudendämpfungsfehler, die während der Gatterausführung auftraten.

Dual-Rail-Löschqubits

Ein orthogonaler Ansatz nutzt Fehlerverzerrung aus. Dual-Rail-Kodierung in supraleitenden Schaltkreisen verwendet Paare abstimmbarer Transmons, bei denen der dominante Fehlermodus (Leckage) als erkennbare Löschung statt als nicht erkennbare Bit-Flips auftritt. Ein Nature-Physics-Papier von 2026 demonstrierte logische Mehrteilchen-Qubit-Verschränkung mit diesem Schema.

Jedes Dual-Rail-Qubit erreicht Kohärenz im Millisekundenbereich und Einzelqubit-Gatterfehlerraten in der Größenordnung 10-5 durch Post-Selektion auf Löschungserkennung.[s] Das Team synthetisierte ein logisches CNOT mit 98,1 % Prozess-Fidelity bei 13 % Löschrate und ermöglichte einen Drei-Logik-Qubit-GHZ-Zustand mit 93,9 % Fidelity.[s]

Systematische Verzerrung bei der Fidelity-Schätzung

Ein kritisches methodisches Problem beeinflusst die Interpretation von Experimenten zur verrauschten Quantenverschränkung. Konventionelle Quanten-Auslesefehlerminderung (QREM) kalibriert die Messfehlmatrix durch Vorbereitung von Rechenbasisständen und Profilerstellung der Ergebnisse. Dabei werden Zustandspräparations- (Initialisierungs-)fehler mit Auslesefehlern vermengt.

Eine aktuelle Analyse bewies, dass für alle Stabilisatorzustände die durch Stabilisatorerwartungswertmessung erzielte Zustandsfidelity nach konventioneller QREM-Korrektur überschätzt wird, sofern Verschränkung vorliegt.[s] Das Papier drückt die Überschätzung durch Produktfaktoren aus, die Initialisierungsfehlerraten und fi,I, den Anteil der Stabilisatoren mit I auf Qubit i, beinhalten.

Bei großen GHZ-Zuständen und Graphenzuständen wächst diese Überschätzung exponentiell mit der Qubit-Anzahl. Der QREM-induzierte Fehler könnte Gatteroperationsfehler verdecken und falsch-positive Schlussfolgerungen erzeugen.[s] Das Papier leitet Sicherheitsschranken her: Mit der Näherung erster Ordnung Δ ≈ 2nq̄ erfordert das Halten des relativen Fehlers unter δ bei n Qubits einen mittleren Initialisierungsfehler q̄ ≲ δ/(2n).

Robuste Verschränkungsdetektion

Maschinelles Lernen bietet partielle Abhilfe. Ein robuster optimaler Verschränkungsnachweis (ROEW) verwendet Support-Vektor-Maschinen, trainiert auf Pauli-Messmerkmalen mit distributionell robuster Optimierung gegen Worst-Case-Messrauschen. Die Methode hält hohe Klassifikationsgenauigkeit selbst dann aufrecht, wenn Messfehler 10 % übersteigen.[s]

Die Dateneffizienz ist bemerkenswert: Training mit nur 20 % des typischen Datensatzes genügt für hohe Genauigkeit und erhebliche Fehlerreduktion.[s] Der Ansatz verbindet maschinelles Lernen mit Quanteninformationswissenschaft und bietet ein praktisches Werkzeug für rauschrobuste Charakterisierung.

Implikationen für das Quantencomputing-Rennen

Die Zusammenschau dieser Ergebnisse klärt den aktuellen Stand verrauschter Quantenverschränkung. Theoretische Grenzen zeigen, dass ohne Fehlerkorrektur Polynomialzeit-Quantenvorteile für Schaltkreise super-logarithmischer Tiefe unter strikt kontraktivem unitalen Rauschen unmöglich sind. Experimentelle Rekorde belegen, dass leichtgewichtige Fehlererkennung nutzbare Verschränkung auf mindestens 75 Qubits ausdehnen kann, wobei spätere IBM-Arbeiten einen 120-Qubit-GHZ-Zustand erreichten, jedoch mit erheblichen Post-Selektions- und Verwurfsraten. Methodische Arbeit zeigt, dass häufig berichtete Fidelity-Werte systematisch überhöht sein könnten.

Aktuelle NISQ-Plattformen sind nach wie vor nicht in der Lage, echten Quantenvorteil bei praktischen Problemen zu erzielen.[s] Der Weg vorwärts erfordert entweder drastische Reduktionen physischer Fehlerraten oder skalierbare fehlertolerante Architekturen, die noch Jahre entfernt sind. Die Kryptografie-Gemeinschaft hat bereits reagiert: NIST-Post-Quanten-Kryptografie-Standards sind darauf ausgelegt, gegen Quantencomputer zu schützen, die irgendwann viele weit verbreitete kryptografische Systeme brechen könnten.[s]

Verrauschte Quantenverschränkung zu verstehen ist für ernsthafte Arbeit im Quantencomputing unerlässlich. Die Einschränkungen sind physikalischer Natur, nicht nur Ingenieurshürden, und die Lücke zwischen aktuellen Fähigkeiten und Anwendungsanforderungen bleibt erheblich.

How was this article?
Share this article

Spot an error? Let us know

Quellen