Geopolitik & Konflikte Nachrichten & Analyse Tech- & KI-Politik 12 Min. Lesezeit

Automatisierte nukleare Vergeltung: Die tödliche 40-jährige Umklammerung von Dead Hand

Dieser Artikel wurde automatisch aus dem Englischen von einer KI übersetzt. Originalversion auf Englisch lesen →
Kalter-Krieg-Raketenkontrollraum als Symbol für Systeme automatisierter nuklearer Vergeltung
🎧 Anhören
Apr 8, 2026
Lesemodus

Irgendwo unter der russischen Steppe läuft noch immer ein System, das in den letzten Jahren der Sowjetunion gebaut wurde. Es lauscht auf seismische Erschütterungen, Strahlungsspitzen und den Zusammenbruch militärischer Kommunikationsnetze. Erkennt es alle drei Signale gleichzeitig und kann es die Generäle nicht erreichen, die eigentlich die Befehle erteilen müssten, startet es eigenständig nukleare Raketen. Ohne menschliches Zutun. Das System heißt Perimeter. Der Westen kennt es als Dead Hand. Es ist die folgenreichste Maschine der Welt, und sie ist bis heute einsatzbereit[s].

Die Existenz automatisierter nuklearer Vergeltung verändert eine grundlegende Annahme der internationalen Beziehungen: dass Kriege mit menschlichen Entscheidungen beginnen. Dead Hand wurde genau dafür konzipiert, diese Annahme zu beseitigen. Es ist eine in Hardware gegossene Garantie, dass ein nuklearer Angriff auf Russland immer eine nukleare Antwort provoziert, selbst wenn jeder russische Offizier mit Abschussbefugnis bereits tot ist.

Wie automatisierte nukleare Vergeltung tatsächlich funktioniert

Das System arbeitet nicht ständig im Abschussmodus. Laut seiner Konstruktion liegt es halb inaktiv, bis es in einer Krise von einem hohen Funktionär aktiviert wird.[s] Sobald es eingeschaltet ist, überwacht es ein Netzwerk aus seismischen, Strahlungs- und Luftdrucksensoren auf Anzeichen nuklearer Detonationen. Bevor es feuern kann, muss es vier Bedingungen nacheinander prüfen.

Erstens: Ist es aktiviert? Zweitens: Bestätigen die Sensordaten, dass nukleare Waffen auf russischem Boden eingeschlagen sind? Drittens: Funktionieren die Kommunikationsverbindungen zum Generalstab noch? Lautet die Antwort auf diese dritte Frage ja und vergeht Zeit ohne weitere Angriffe, geht das System davon aus, dass lebende Kommandeure noch Befehle erteilen können, und schaltet sich ab. Doch wenn die Verbindungen zum Generalstab abbrechen, zieht Perimeter einen Schluss: Die Apokalypse ist eingetreten. Es überträgt die Abschussbefugnis sofort an Bediener tief in einem gehärteten Bunker und umgeht dabei jede Ebene der normalen Kommandostruktur.

Vladimir Yarynich, einer der Entwickler des Systems, verteidigte diese Logik auf überraschende Weise. Er argumentierte, dass Dead Hand tatsächlich die Wahrscheinlichkeit eines durch Panik oder Fehlalarm ausgelösten Abschusses verringere[s]. Ein angegriffener Führer könnte das System aktivieren und dann abwarten. Der Druck, sofort zu reagieren, würde nachlassen, weil die automatisierte nukleare Vergeltung ohnehin garantiert war. Die Maschine sollte den Menschen paradoxerweise mehr Zeit zum Nachdenken geben.

Warum die Sowjets eine Weltuntergangsmaschine bauten

Die Antwort ist ein bestimmtes amerikanisches U-Boot. Die Entwicklung der ballistischen Trident-D5-Rakete reduzierte die verfügbare Vorwarnzeit für Ziele nahe der sowjetischen Küste auf etwa fünf Minuten[s]. Ein U-Boot konnte sich leise nähern, seine hochpräzisen Raketen abfeuern und möglicherweise die sowjetische Kommandozentrale zerstören, bevor ein menschlicher Befehl erteilt werden konnte. Dead Hand war die Gegenmaßnahme: Wenn man die Führung ausschaltet, feuert die Maschine trotzdem.

Diese Logik nennt man „Fail-Deadly“-AbschreckungEine Strategie zur Verhinderung feindlicher Handlungen durch die Androhung glaubwürdiger Vergeltung, die einem Gegner inakzeptable Kosten auferlegen würde.. Sie ist das Gegenteil eines Fail-Safe: Statt bei Fehlfunktionen in Untätigkeit zu verfallen, reagiert sie mit maximaler Gewalt. Der Kalte Krieg brachte viele beunruhigende Doktrinen hervor, doch wenige waren so radikal wie diese.

Der Mann, der tat, was die Maschine nicht konnte

Am 26. September 1983 hatte der sowjetische Oberstleutnant Stanislaw Petrow Dienst in einer Frühwarnanlage für nukleare Angriffe, als sein Computer mit höchster Sicherheit meldete, die USA hätten einen nuklearen Erstschlag gestartet. Petrow war skeptisch: Es wurden nur wenige Raketen gemeldet, doch ein echter amerikanischer Erstschlag wäre überwältigend gewesen. Zudem traute er dem neuen Erkennungssystem nicht. Er meldete den Alarm als Fehlfunktion. Er hatte recht. Die falschen Signale entstanden, weil das System Sonnenlicht, das von Wolken reflektiert wurde, mit Raketenabgasfahnen verwechselte.[s]

Was die Welt in dieser Nacht rettete, war nicht die Prozedur, sondern der Zweifel. Petrow widersetzte sich der Logik der Maschine. Ein vollständig automatisiertes System für automatisierte nukleare Vergeltung hätte keinen Raum für Zweifel gehabt. Es hätte abgeschossen. Michael Horowitz, Professor an der University of Pennsylvania, der militärische Innovationen untersucht, bringt das Risiko auf den Punkt: „In einer Welt mit AutomatisierungsverzerrungDie Neigung von Menschen, sich zu stark auf automatisierte Systeme zu verlassen und deren Ergebnisse unzureichend zu prüfen, besonders unter Zeitdruck und Stress. besteht die Gefahr, dass der Petrow der Zukunft sein Urteilsvermögen nicht einsetzt, oder dass es keinen Petrow mehr gibt.“[s]

Macht Automatisierung Diplomatie überflüssig?

Das Argument, dass automatisierte nukleare Vergeltung Diplomatie überflüssig macht, lautet etwa so: Wenn ein Atomkrieg für jeden Aggressor bereits garantiert katastrophale Kosten verursacht, wird niemand einen beginnen. Die Abschreckung funktioniert. Diplomatie wird auf dieser Sichtweise zur bloßen Fassade, zu einer Inszenierung der Beruhigung für einen Frieden, den die Maschinen bereits garantieren.

Der Rüstungskontrollexperte Michael Krepon, Mitbegründer des Stimson Center, hat Jahrzehnte genau diese Frage untersucht. Seine Antwort ist direkt: „Abschreckung ist extrem gefährlich. Sie soll gefährlich sein. Sie neigt zum Scheitern.“ Er schätzt, dass Diplomatie 90 Cent jedes ausgegebenen Dollars zur Verhinderung nuklearer Konflikte beiträgt, während die Abschreckung nur 10 Cent ausmacht, obwohl die Abschreckung fast das gesamte Budget erhält.[s]

Das Center for Arms Control and Non-Proliferation beschreibt das Verhältnis zwischen beiden präziser: Abschreckung kann Raum für Diplomatie schaffen, aber sie kann sie nicht ersetzen. Automatisierte Abschreckung behebt nicht die Ursachen von Konflikten oder die Möglichkeit, dass Krisen außer Kontrolle geraten, jenseits dessen, was jede Abschreckungslogik vorhersehen kann.[s] Dead Hand garantiert eine Antwort. Es verhindert jedoch nicht die Bedingungen, die jemanden dazu bringen, einen Erstschlag in Betracht zu ziehen.

Was kommt als Nächstes

Die Logik der automatisierten nuklearen Vergeltung breitet sich aus. 2019 schlugen die US-Militäranalysten Adam Lowther und Curtis McGiffin formell vor, dass Amerika eine eigene KI-gesteuerte Version von Dead Hand entwickeln solle[s], da Hyperschallraketen und bewaffnete KI die Entscheidungszeitfenster so stark verkürzt hätten, dass eine menschliche Reaktion nicht mehr möglich sei. Der Vorschlag war umstritten. Er ist jedoch nicht verschwunden.

Das Plädoyer für Diplomatie lautet nicht, dass automatisierte Abschreckung unwirksam sei. Es besagt, dass keine Maschine eine Krise managen, ein Missverständnis verhandeln oder eine Situation vom Abgrund zurückholen kann. Das sind menschliche Aufgaben, und sie bleiben der einzige zuverlässige Kontrollmechanismus für ein System, das niemals zurückweichen soll.

Russlands Perimeter-System, seit 1985 einsatzbereit, ist die vollständigste Umsetzung der Doktrin automatisierter nuklearer Vergeltung, die jemals gebaut wurde. Es handelt sich um eine Fail-Deadly-Architektur: Seismische, photometrische, Strahlungs- und Luftdrucksensoren speisen einen Entscheidungsalgorithmus, der unter bestimmten Bedingungen die gesamte menschliche Kommandokette umgeht und direkt Abschussbefehle an Interkontinentalraketensilos erteilt.[s] Vierzig Jahre später läuft das System noch immer, und die strategische Logik, die es hervorbrachte, beschleunigt sich, statt zu verblassen.

Die algorithmische Architektur automatisierter nuklearer Vergeltung

Perimeters Entscheidungslogik ist eine bedingte Kette, kein simpler Auslöser. Das System muss zunächst in einer Krise von einem hohen Funktionär aktiviert werden. Sobald es aktiv ist, prüft es vier aufeinanderfolgende Bedingungen: Aktivierungsstatus, Sensorbestätigung von Detonationen auf russischem Boden, Integrität der Kommunikationsverbindungen zum Generalstab und verstrichene Zeit ohne weitere Angriffsindikatoren.[s] Nur wenn die Kommunikation unterbrochen ist und kein Stopp-Signal eintrifft, überträgt es die Abschussbefugnis an Bunkerbediener, die dann Raketenstarts ohne weitere Autorisierung von oben einleiten können.

Entwickler Vladimir Yarynich beschrieb eine kontraintuitive Sekundärfunktion: Das System sollte den Druck für übereilte Abschüsse bei mehrdeutigen Warnungen verringern. Durch die Garantie automatisierter nuklearer Vergeltung, unabhängig vom Überleben der Kommandostruktur, gab es der politischen Führung theoretisch die Freiheit, auf BestätigungÜbereinstimmung zwischen mehreren Quellen oder Zeugen. Die Annahme, dass wenn mehrere unabhängige Quellen etwas bestätigen, es wahrscheinlich wahr ist. Bestätigung ist jedoch unzuverlässig, wenn Quellen einen gemeinsamen Ursprung haben. zu warten, statt auf den ersten Sensoralarm zu reagieren. Die Ironie ist präzise: Eine Weltuntergangsmaschine, vermarktet als Instrument der Zurückhaltung.

Die Ursprünge des Systems sind ebenso spezifisch. Die vom U-Boot gestartete ballistische Trident-D5-Rakete mit einer Genauigkeit, die landgestützten Interkontinentalraketen vergleichbar ist, reduzierte die mögliche Vorwarnzeit für sowjetische Küstenziele auf unter drei Minuten.[s] Ein Enthauptungsschlag, der den Generalstab zerstörte, bevor ein Befehl erteilt werden konnte, wurde operativ plausibel. Perimeter war die strukturelle Antwort: Die Abhängigkeit von überlebenden Kommandeuren wurde vollständig beseitigt.

Das amerikanische Nicht-Äquivalent und sein verstecktes Äquivalent

Die USA haben nie einen automatischen Abschussauslöser gebaut. Stattdessen stellten sie sicher, dass Menschen mit Abschussbefugnis einen Erstschlag überleben würden[s], durch U-Boot-gestützte Kommandoposten, luftgestützte Kommandoflugzeuge und geografisch verteilte nukleare Autorität. Die doktrinäre Entscheidung war philosophisch anders: Menschliche Entscheidungsfindung sollte erhalten bleiben, statt umgangen zu werden.

In der Praxis könnte der Unterschied jedoch geringer sein als angenommen. Bruce Blairs maßgebliche Analyse von 2018 in Arms Control Today dokumentiert, was er als „Jamming“ des Präsidenten bezeichnet: Die institutionelle Struktur des US-Nuklearprotokolls drängt den Oberbefehlshaber im Angriffsfall stark dazu, innerhalb eines sechsminütigen Entscheidungsfensters zu starten.[s] General Lee Butler, ehemaliger Chef des US Strategic Command, beschrieb die operative Realität unverblümt: Das System war so konstruiert, dass es den Präsidenten unweigerlich zu einer Entscheidung zum Abschuss drängte, bevor die erste feindliche Sprengkopfe eintraf. Der Mensch ist zwar präsent, doch der Entscheidungsspielraum wurde auf nahezu null komprimiert. Automatisierte nukleare Vergeltung durch institutionelles Design, nicht durch Algorithmen.

Blairs Schlussfolgerung: „Ein sechsminütiges Ultimatum für Überlegung und Entscheidung ist lächerlich.“ Die Risiken von Fehlkalkulationen, irrationalen Entscheidungen und Reaktionen auf Fehlalarme sind seiner Einschätzung nach inakzeptabel hoch.

Das Petrov-Problem und die Grenzen maschineller Zuverlässigkeit

Der klassische Fehlermodus automatisierter Systeme bleibt der Vorfall von 1983 mit Stanislaw Petrow. Das sowjetische Frühwarnsystem meldete mit höchster Sicherheit die Erkennung eines ankommenden US-Nuklearangriffs. Oberstleutnant Stanislaw Petrow bewertete den Alarm als Fehlalarm, basierend auf kontextuellem Denken, das der Computer nicht leisten konnte: Ein echter Erstschlag würde nicht aus einer Handvoll Raketen bestehen, und das neue Erkennungssystem war unter Einsatzbedingungen nicht validiert. Er hatte recht. Die Signale waren Sonnenlicht, das von Wolken reflektiert wurde.[s]

Die strukturelle Lehre lautet nicht einfach, dass Maschinen Fehler machen. Es ist die Erkenntnis, dass Maschinen die Art von höherer Denkleistung nicht erbringen können, die Petrow dazu befähigte, seinem Instrument zu misstrauen. Wie Analysten des Bulletin feststellen, ist ein nuklearer Konflikt in der Geschichte genau zweimal vorgekommen, beide Male 1945. Das Fehlen realer TrainingsdatenDie Sammlung von Informationen, die verwendet wird, um einem KI-System beizubringen, wie Aufgaben ausgeführt werden, und die Grundlage seines Wissens und seiner Fähigkeiten bildet. für nukleare Auseinandersetzungen macht es strukturell unmöglich, eine Maschine zu bauen, die in diesem Bereich zuverlässige Urteile fällen kann.[s] Maschinelles Lernen benötigt Beispiele. Es gibt keine, aus denen es lernen könnte.

Experte Bruce Blair beschrieb die Situation von 1983 so: Die Sowjetunion „als System, nicht nur der Kreml, nicht nur Juri Andropow, nicht nur der KGB, sondern als System war darauf eingestellt, einen Angriff zu erwarten und sehr schnell darauf zu reagieren.“[s] Die Gefahr lag nicht im Urteilsvermögen eines Einzelnen. Sie bestand in der systemischen Automatisierung der Erwartungshaltung, der institutionellen Prägung, die jeden Sensoralarm als Bestätigung einer Bedrohung lesbar machte, auf die alle bereits warteten.

Automatisierte nukleare Vergeltung im Zeitalter der KI

2019 veröffentlichten die US-Verteidigungsforscher Adam Lowther und Curtis McGiffin einen formellen Vorschlag für eine KI-gesteuerte amerikanische Version von Dead Hand. Sie argumentierten, dass Hyperschallraketen und aufkommende KI-Waffen die US-Entscheidungszeitfenster unter die Schwelle einer möglichen menschlichen Reaktion gedrückt hätten.[s] Der Vorschlag stieß auf sofortige Kritik, identifizierte jedoch einen realen strukturellen Druck: Mit der Beschleunigung von Angriffswaffen schrumpft das Entscheidungsfenster, und die institutionelle Logik, die automatisierte nukleare Vergeltung vorantreibt, wird immer schwerer zu widerstehen.

Bis September 2025 hatte sich die Herausforderung weiterentwickelt. Eine wichtige Analyse in Arms Control Today dokumentierte, wie die unverbindliche Xi-Biden-Vereinbarung vom November 2024 gegen KI-gesteuerte Nuklearabschüsse ein noch heimtückischeres Problem verschleierte: KI ist bereits in die Geheimdienstpipelines integriert, die nukleare Kommandentscheidungen speisen.[s] KI-gestützte Überwachungssysteme, die mobile Abschussrampen und ballistische U-Boot-Raketen lokalisieren können, könnten das Vertrauen in Zweitschlagfähigkeiten untergraben und gleichzeitig die Anreize für Erstschläge in mehreren Atommächten erhöhen.

Dieselbe Analyse wies auf Deepfake-Audio und -Video als aufkommenden Angriffsvektor hin: Gegner könnten gefälschte Krisenaussagen hochrangiger Führer fabrizieren und so manipulierte Daten in Entscheidungssysteme einspeisen, die bereits auf automatisierte nukleare Vergeltung eingestellt sind. AutomatisierungsverzerrungDie Neigung von Menschen, sich zu stark auf automatisierte Systeme zu verlassen und deren Ergebnisse unzureichend zu prüfen, besonders unter Zeitdruck und Stress. unter Krisenbedingungen, die Tendenz, Maschinen unter Zeitdruck und hohem Stress übermäßig zu vertrauen, würde jede solche Manipulation in eng gekoppelte Rückkopplungsschleifen verstärken.[s]

STRATCOM-Kommandeur General Anthony Cotton zog im Oktober 2024 eine klare offizielle Linie: „KI wird unsere Entscheidungsfähigkeiten verbessern. Doch wir dürfen niemals zulassen, dass künstliche Intelligenz diese Entscheidungen für uns trifft.“[s] Die Position ist eindeutig. Ob die strukturellen Drücke, die 1985 Dead Hand hervorbrachten, diese Klarheit bis 2035 respektieren werden, ist eine andere Frage.

Die unersetzliche Funktion der Diplomatie

Das Argument gegen die Ansicht, dass automatisierte nukleare Vergeltung Diplomatie überflüssig macht, lautet nicht, dass AbschreckungEine Strategie zur Verhinderung feindlicher Handlungen durch die Androhung glaubwürdiger Vergeltung, die einem Gegner inakzeptable Kosten auferlegen würde. versagt. Es besagt, dass Abschreckung nach einer Logik statischer Kostenzuweisung funktioniert, während Krisen dynamisch sind. Automatisierte Systeme garantieren Reaktionen. Sie können jedoch Missverständnisse nicht deeskalieren, gemeinsame Vorstellungen roter Linien nicht etablieren oder die vertrauliche Kommunikation schaffen, die atomar bewaffnete Staaten historisch vom Abgrund zurückgeführt hat.

Michael Krepons Formulierung ist deutlich: „Abschreckung trägt zehn Cent zu jedem ausgegebenen Dollar für tatsächliche Prävention bei. Diplomatie trägt 90 Cent bei.“[s] Die Budgetverteilung verläuft genau umgekehrt. Was automatisierte Abschreckung erkauft, ist strukturelle Stabilität unter Bedingungen voller Rationalität und genauer Informationen, genau die Bedingungen, die Krisen untergraben. Diplomatie operiert mit unvollständigen Informationen, Fehlkalkulationen und institutionellem Druck, die den tatsächlichen Entscheidungsrahmen definieren. Beide sind keine Alternativen. Die eine ist die Architektur; die andere ist die Wartung.

Wie hat Ihnen dieser Artikel gefallen?
Artikel teilen

Fehler gefunden? Melden Sie ihn

Quellen