Zum Inhalt springen
Physik & Ingenieurwesen Zeitlos 10 min read

Quantenverschränkung: Fast 91 Jahre spukhafte Fernwirkung

Einstein nannte es „spukhafte Fernwirkung" und verbrachte seine letzten Jahrzehnte damit, es zu widerlegen. Einundneunzig Jahre später bildet dasselbe Phänomen die Grundlage für Quantencomputer, deren Experimente mit verschränkten Qubits Rekordgrößen erreichen.

This article was automatically translated from English by AI. Read the original English version →
Laboratory laser experiment demonstrating quantum entanglement physics
Reading mode

Im Jahr 1935 verfasste Albert Einstein gemeinsam mit anderen Autoren eine Arbeit, die einen fundamentalen Fehler in der Quantenmechanik aufzeigen sollte. Der von ihm identifizierte Fehler, die Quantenverschränkung, erwies sich als real. Einstein verbrachte seine verbleibenden zwei Jahrzehnte damit, sie wegzuerklären, und nannte sie „spukhafte Fernwirkung“[s]. Er scheiterte. Im Jahr 2025 sperrten Physiker am Caltech 6.100 Atome in einem Lasergitter ein und hielten sie etwa 13 Sekunden lang in Superposition, womit sie Hardware für Computer entwickelten, die genau das Phänomen nutzen könnten, das Einstein ablehnte[s].

Was Quantenverschränkung wirklich ist

Quantenverschränkung entsteht, wenn zwei Teilchen so miteinander verbunden werden, dass die Messung des einen sofort bestimmt, was man beim Messen des anderen finden wird, unabhängig von der Entfernung zwischen ihnen. Werden zwei Elektronen verschränkt und man misst eines als „spin-up“, weiß man sofort, dass das andere als „spin-down“ gemessen wird. Diese Korrelation bleibt bestehen, ob die Elektronen einen Millimeter oder eine Galaxie voneinander entfernt sind.

Die entscheidende Erkenntnis aus der Physik subatomarer Teilchen lautet: Vor der Messung hat keines der Teilchen einen definitiven Zustand. Sie existieren in einer Überlagerung von Möglichkeiten. Die Messung eines Teilchens enthüllt keine bereits vorhandene Eigenschaft, sondern scheint die Eigenschaft beider Teilchen gleichzeitig zu bestimmen. Genau das beunruhigte Einstein. Wie konnte Information augenblicklich zwischen durch riesige Entfernungen getrennten Teilchen übertragen werden, wenn seine eigene Relativitätstheorie verbietet, dass irgendetwas schneller als Licht reist?

Das EPR-Gedankenexperiment

Am 15. Mai 1935 veröffentlichte die Physical Review eine Arbeit von Einstein, Boris Podolsky und Nathan Rosen mit dem Titel „Kann die quantenmechanische Beschreibung der physikalischen Realität als vollständig betrachtet werden?“[s] Die Arbeit schlug ein Gedankenexperiment vor, das heute als EPR-Paradoxon bekannt ist und beweisen sollte, dass die Quantenmechanik unvollständig sei.

Das EPR-Argument lautete wie folgt: Zwei Teilchen mit miteinander verwobenen, aber unbestimmten Eigenschaften werden getrennt. Dann wird die Eigenschaft eines Teilchens durch Messung festgelegt[s]. Wenn die Messung von Teilchen A sofort die Eigenschaft des entfernten Teilchens B bestimmt, muss eines von zwei Dingen wahr sein. Entweder kommunizierten die Teilchen schneller als Licht, was die Relativitätstheorie verletzt. Oder beide Teilchen besaßen stets definitive Eigenschaften; wir kannten sie nur nicht, bis wir maßen. Einstein glaubte an die zweite Möglichkeit. Die Quantenmechanik, so argumentierte er, sei unvollständig; eine umfassendere Theorie würde die Korrelationen erklären, ohne die Lokalität aufzugeben. Verschränkung war in dieser Sichtweise nicht rätselhaft, sondern Spur eines gemeinsamen Ursprungs, wie zwei Handschuhe, die in verschiedene Städte verschickt werden.

Einstein war mit dem Ergebnis der Arbeit unzufrieden. Als er die veröffentlichte Version sah, beklagte er, sie verschleiere seine zentralen Anliegen: „Vielmehr wurde das Wesentliche sozusagen durch den Formalismus erstickt“[s].

Bells Theorem: Der Test, den Einstein nie sah

Fast drei Jahrzehnte nach EPR blieb die Debatte philosophisch. Dann bewies der Physiker John Bell 1964, dass keine Naturtheorie, die Lokalität und Realismus gehorcht, alle Vorhersagen der Quantentheorie reproduzieren kann[s].

Bells Theorem gehört zu einer Klasse von mathematischen Unmöglichkeitssätzen, die einschränken, was jede physikalische Theorie vorhersagen kann. Wenn Teilchen vorherbestimmte Zustände haben, wie Einstein glaubte, müssen bestimmte statistische Korrelationen zwischen Messungen mathematische Grenzen erfüllen, die Bell-Ungleichungen genannt werden. Wenn die Quantenmechanik korrekt ist, können diese Ungleichungen verletzt werden[s].

Bell verwandelte einen philosophischen Streit in eine experimentelle Frage. Das Universum selbst würde antworten müssen.

Die Experimente, die bewiesen, dass Einstein falsch lag

Im Jahr 1982 lieferten Alain Aspects Experimente in Frankreich starke Beweise dafür, dass die Quantenmechanik korrekt war und lokale Erklärungen mit verborgenen Variablen ausgeschlossen waren[s]. Kritiker verwiesen jedoch auf Schlupflöcher. Vielleicht hatten die Detektoren einige Teilchen übersehen. Vielleicht blieb Zeit für Signale, zwischen den Messstationen zu reisen.

Die endgültige Antwort kam 2015, als Forscher der Technischen Universität Delft den ersten schlupflochfreien Bell-Test durchführten. Sie verschränkten Elektronenspins in Diamantkristallen, die 1,3 Kilometer voneinander entfernt waren. Effiziente Spinauslese vermied das Detektionsschlupfloch, während schnelle Zufallsbasisauswahl und die räumliche Trennung Lokalitätsbedingungen sicherstellten[s]. Über 245 Versuche fanden sie eine Bell-Ungleichungsverletzung von S = 2,42 ± 0,20, wobei die klassische Physik S ≤ 2 vorhersagt. Die Wahrscheinlichkeit, dass ein lokal-realistisches Modell solche Ergebnisse erzeugen könnte, betrug höchstens 3,9 %[s].

Der wissenschaftliche Konsens ist heute eindeutig: Quantenverschränkung ist real, und Bell-Nichtlokalität ist ein Merkmal unseres Universums, wenngleich sie keine überlichtschnelle Signalübertragung erlaubt[s].

Warum Verschränkung keine überlichtschnelle Kommunikation erlaubt

Die Messergebnisse sind zufällig. Wenn man ein verschränktes Teilchen misst, erhält man ein zufälliges Ergebnis. Auch der Partner, der das entfernte Teilchen misst, erhält ein zufälliges Ergebnis. Erst wenn die Ergebnisse verglichen werden, mit Lichtgeschwindigkeit oder langsamer, wird die Korrelation sichtbar[s].

Dies ist das Theorem der Nichtkommunikation. Quantenverschränkung kann keine Information übertragen. Die Korrelationen sind real, aber für die Signalübertragung nutzlos, bis klassische Kommunikation stattfindet. Die Relativitätstheorie bleibt intakt.

Vom Paradoxon zur Technologie

Was Einstein für einen Fehler hielt, ist heute das Fundament des Quantencomputings. Im September 2025 schufen Caltech-Physiker das bisher größte Qubit-Array: 6.100 Neutralatom-Qubits, gespeichert in einem Lasergitter. Sie erreichten eine Einzelqubit-Genauigkeit von 99,98 Prozent und hielten die Superposition etwa 13 Sekunden aufrecht, fast zehnmal länger als frühere Arrays[s].

Im November 2025 präparierte IBM Quantum den bisher größten gemeldeten GHZ-Zustand: 120 supraleitende Qubits in einem Greenberger-Horne-Zeilinger-Zustand, mit einer Treue von 0,56 ± 0,03, die den Schwellenwert von 0,5 überschreitet, der erforderlich ist, um echte multipartite Quantenverschränkung aller Qubits zu bestätigen[s].

Im gleichen Jahr erweiterten Physiker des BESIII-Experiments Verschränkungstests auf die Hochenergiephysik, indem sie 10 Milliarden J/ψ-Ereignisse verwendeten, um Bell-Ungleichungen mit verschränkten Hyperonpaaren zu testen, und dabei eine Verletzung der lokalen verborgenen Variablentheorie um mehr als 5,2σ erzielten[s]. Im Gegensatz zu Photonenexperimenten sind Studien mit verschränkten massiven Teilchen selten[s].

Was Verschränkung für die Realität bedeutet

Die Implikationen sind weiterhin umstritten. Einige Physiker argumentieren, dass Quantenverschränkung etwas Grundlegendes über die Natur der Realität selbst enthüllt. Die nichtlokale Verbindung zwischen Messergebnissen lässt sich nicht durch verborgene Variablen beseitigen; dies ist die fundamentale Nichtlokalität von Quantensystemen[s].

Einstein hatte in einem Punkt Recht: Wer die Standardquantenmechanik akzeptiert, akzeptiert Fernwirkung. Was er falsch einschätzte, war, dass dies ein Problem darstelle. Das Universum ist sonderbarer, als er es zulassen wollte.

Im Mai 1935 veröffentlichten Einstein, Podolsky und Rosen „Kann die quantenmechanische Beschreibung der physikalischen Realität als vollständig betrachtet werden?“ in der Physical Review[s]. Das EPR-Papier bewies ein Lemma: Wenn die Messung eines Systems eine sichere Vorhersage einer Eigenschaft eines entfernten Systems erlaubt, ohne es zu stören, entspricht diese Eigenschaft einem Element der Realität. Auf verschränkte Zustände angewendet, erzeugt dies einen Widerspruch: Entweder ist die Quantenmechanik unvollständig, oder die Lokalität scheitert. Einstein glaubte an Ersteres; er verwarf die Alternative als „spukhafte Fernwirkung“[s].

Der EPR-Zustand und verborgene Variablen

Das ursprüngliche EPR-Argument verwendete Orts-Impuls-Verschränkung. Bohm reformulierte es später mit Spin-½-Teilchen in einem Singulettzustand. Für den Singulett |Ψ⁻⟩ = (1/√2)(|↑↓⟩ − |↓↑⟩) ergibt die Messung des Spins entlang einer beliebigen Achse an Teilchen A das entgegengesetzte Ergebnis für Teilchen B entlang derselben Achse. Einsteins Realitätskriterium impliziert, dass beide Teilchen vor der Messung definitive Spinwerte besitzen, was dem Quantenformalismus widerspricht, in dem der Zustand eine Superposition ist, bis er gemessen wird.

Theorien verborgener Variablen stellen den Determinismus wieder her: Nicht gemessene Parameter λ bestimmen Ergebnisse vor. Die Physik subatomarer Teilchen würde in dieser Sichtweise durch die Angabe von λ vervollständigt.

Bell-Ungleichungen und experimentelle Tests

Im Jahr 1964 bewies Bell, dass keine Naturtheorie, die Lokalität und Realismus gehorcht, alle Vorhersagen der Quantentheorie reproduzieren kann[s]. Für die CHSH-Formulierung erfüllt jede Theorie lokaler verborgener Variablen S ≤ 2, wobei S = |E(a,b) − E(a,b′) + E(a′,b) + E(a′,b′)|. Die Quantenmechanik sagt S_max = 2√2 ≈ 2,828 für optimale Messwinkel voraus.

Bells Theorem gehört zu mathematischen Unmöglichkeitssätzen, die physikalische Theorien einschränken. Wenn Teilchen vorherbestimmte Zustände haben, müssen Messkorrelationen Bell-Ungleichungen erfüllen. Verletzungen implizieren, dass Quantenverschränkungskorrelationen klassische Grenzen überschreiten[s].

Frühe Tests (Freedman-Clauser 1972, Aspect 1982[s]) verletzten Bell-Ungleichungen, setzten jedoch Annahmen voraus. Das Detektionsschlupfloch setzte faire Stichprobennahme der detektierten Photonen voraus. Das Lokalitätsschlupfloch erlaubte unterlichtschnelle Kommunikation zwischen Messstationen.

Schlupflochfreie Tests

Das Experiment von Hensen et al. 2015 an der TU Delft schloss alle wesentlichen Schlupflöcher gleichzeitig. Es verwendete NV-Zentren in Diamant als Elektronenspin-Qubits, verschränkt durch Einzelphotoneninterferenz, getrennt durch 1,3 km. Ein ereignisbereites Schema erzeugte robuste Verschränkung mit einer geschätzten Zustandstreue von 0,92 ± 0,03. Effiziente Spinauslese vermied Annahmen fairer Stichprobennahme, während schnelle Zufallsbasisauswahl mit ferngesteuerten Quantenzufallszahlengeneratoren raumartige Trennung der Messwahlmöglichkeiten sicherstellte[s].

Ergebnisse: 245 Versuche ergaben S = 2,42 ± 0,20. Die Wahrscheinlichkeit, dass lokal-realistische Modelle eine solche Verletzung erzeugen konnten, auch unter Berücksichtigung von Gedächtniseffekten, betrug P ≤ 0,039[s].

Nachfolgende schlupflochfreie Tests bestätigten den Konsens: Bell-Nichtlokalität ist ein Merkmal der Natur, wenngleich überlichtschnelle Signalübertragung verboten bleibt[s].

Quantenverschränkung in der Hochenergiephysik

Die meisten Bell-Tests verwenden Photonen. Im Jahr 2025 testete die BESIII-Kollaboration Bell-Ungleichungen mit verschränkten Hyperonpaaren (Λ-Λ̄), die in J/ψ → γηc → Λ(pπ⁻)Λ̄(p̄π⁺)-Zerfällen erzeugt wurden. Mit 10,087 × 10⁹ J/ψ-Ereignissen erzielten sie einen >5,2σ-Ausschluss lokaler verborgener Variablentheorie[s].

Tests mit massiven Teilchen sind selten[s]. Das BESIII-Ergebnis erweitert Bell-Verletzungen auf seltsame Baryonen, die durch schwache Wechselwirkungen zerfallen, und untersucht Verschränkung in einem qualitativ anderen Regime.

Verschränkung skalieren: Meilensteine 2025

Quantencomputing erfordert die Skalierung verschränkter Qubit-Zahlen bei gleichzeitiger Aufrechterhaltung der Kohärenz. Zwei Meilensteine aus 2025:

Caltech (September 2025): 6.100 Neutralatom-Qubits (Cäsium) in optischen Pinzettenarrays. Kohärenzzeit ~13 Sekunden (10-fache Verbesserung gegenüber früheren Arrays). Einzelqubit-Gate-Treue 99,98 %[s].

IBM Quantum (November 2025): 120-Qubit-GHZ-Zustand auf supraleitendem Prozessor. Treue 0,56 ± 0,03, über dem Schwellenwert von 0,5 für die Zertifizierung echter multipartiter Quantenverschränkung. Techniken: adaptive Kompilierung zur Vermeidung rauschreicher Bereiche, Paritätsprüfungen mit geringem Aufwand, temporäres Entberechnen zur Reduzierung von Leerlaufzeit-Dekohärenz[s].

Interpretationsfragen

Schlupflochfreie Bell-Verletzungen belegen, dass die Natur nichtlokale Korrelationen aufweist. Die Interpretation ist weiterhin umstritten. Alle Einwelt-Interpretationen erfordern Fernwirkung[s]. Vielwelten-Interpretationen vermeiden Fernwirkung, führen aber Verzweigungen ein: Messergebnisse existieren in allen Zweigen, wobei Korrelationen erst beim Vergleich sichtbar werden.

Was eindeutig bleibt, ist der operative Gehalt: die nichtlokale Verbindung zwischen Messergebnissen, die sich nachweislich nicht durch lokale verborgene Variablen beseitigen lässt, ist die fundamentale Nichtlokalität von Quantensystemen[s]. Fragen zur Natur der Realität, oder ob die Quantenmechanik selbst eine tiefere deterministische Theorie approximiert, bleiben offen.

Einstein beklagte, dass im EPR-Papier „das Wesentliche sozusagen durch den Formalismus erstickt“ worden sei[s]. Fast einundneunzig Jahre später hat der Formalismus gewonnen.

How was this article?
Share this article

Spot an error? Let us know

Quellen