En algún lugar bajo las estepas rusas, un sistema construido en los últimos años de la Unión Soviética sigue funcionando. Escucha temblores sísmicos, picos de radiación y el colapso de las comunicaciones militares. Si detecta los tres al mismo tiempo y no logra contactar a los generales que deberían dar las órdenes, lanzará misiles nucleares por su cuenta. Sin intervención humana. El sistema se llama Perímetro. Occidente lo conoce como Mano Muerta. Es la máquina más trascendental del mundo, y sigue operativa hoy[s].
La existencia de la retaliación nuclear automatizada cambia un supuesto fundamental de las relaciones internacionales: que las guerras comienzan con decisiones humanas. La Mano Muerta fue diseñada precisamente para eliminar ese supuesto. Es una garantía escrita en hardware, la garantía de que atacar a Rusia con armas nucleares siempre generará una respuesta nuclear, incluso si todos los oficiales rusos con autoridad de lanzamientoPoder oficial o permiso legal para ordenar el disparo de armas nucleares, típicamente en manos del liderazgo político o militar superior. ya están muertos.
Cómo funciona realmente la retaliación nuclear automatizada
El sistema no opera constantemente en modo de lanzamiento. Según su diseño, permanece en estado semidormido hasta que un alto funcionario lo activa durante una crisis.[s] Una vez activado, monitorea una red de sensores sísmicos, de radiación y de presión atmosférica en busca de señales de detonaciones nucleares. Antes de disparar, debe verificar cuatro condiciones en secuencia.
Primero: ¿ha sido encendido? Segundo: ¿los datos de los sensores confirman que armas nucleares han impactado en suelo ruso? Tercero: ¿las comunicaciones con el Estado Mayor siguen funcionando? Si la respuesta a esa tercera pregunta es sí, y pasa el tiempo sin nuevos ataques, el sistema asume que los comandantes vivos aún pueden dar órdenes y se apaga. Pero si las comunicaciones con el Estado Mayor se interrumpen, Perímetro saca una conclusión: ha llegado el apocalipsis. Inmediatamente transfiere la autoridad de lanzamiento a operadores en un búnker reforzado, evitando todos los niveles de la estructura de mando normal.
Vladimir Yarynich, uno de los desarrolladores del sistema, ofreció una defensa inesperada de esta lógica. Argumentó que la Mano Muerta en realidad reduce la probabilidad de un lanzamiento precipitado por una falsa alarma[s]. Un líder bajo ataque podría activar el sistema y luego esperar. La presión por retaliar de inmediato disminuiría, porque la retaliación nuclear automatizada ya estaba garantizada. La máquina, paradójicamente, estaba diseñada para dar a los humanos más tiempo para pensar.
Por qué los soviéticos construyeron una máquina del fin del mundo
La respuesta es un submarino estadounidense específico. El desarrollo del misil balísticoArma propulsada por cohete lanzada en trayectoria de arco alto; tras el agotamiento de combustible, sigue una trayectoria balística (sin propulsión) hacia su objetivo, transportando típicamente ojivas convencionales o nucleares a grandes distancias. Trident D5 redujo el tiempo de advertencia disponible a aproximadamente cinco minutos[s] para objetivos cerca de la costa soviética. Un submarino podía acercarse en silencio, lanzar sus misiles de alta precisión y potencialmente destruir el mando y control soviéticos antes de que se pudiera emitir ninguna orden humana. La Mano Muerta fue la contramedida: si eliminas al liderazgo, la máquina dispara de todos modos.
Esta lógica se llama disuasiónUna estrategia para prevenir acciones hostiles amenazando con represalias creíbles que impondrían costos inaceptables a un adversario. “fallo mortal”. Es la imagen especular de un sistema a prueba de fallos: en lugar de optar por la inacción cuando algo sale mal, opta por la fuerza máxima. La Guerra Fría produjo muchas doctrinas perturbadoras, pero pocas tan crudas como esta.
El hombre que hizo lo que la máquina no pudo
El 26 de septiembre de 1983, el teniente coronel soviético Stanislav Petrov estaba de servicio en una instalación de alerta temprana nuclear cuando su computadora reportó, con máxima confianza, que Estados Unidos había lanzado un ataque nuclear. Petrov desconfió: solo se reportaban unos pocos misiles en camino, pero un primer ataque estadounidense real sería abrumador. Tampoco confiaba en el nuevo sistema de detección. Reportó la alerta como un mal funcionamiento. Tenía razón. Las falsas señales provenían de que el sistema confundió la luz solar reflejada en las nubes con estelas de misiles.[s]
Lo que salvó al mundo esa noche no fue el procedimiento, sino la duda. Petrov desobedeció la lógica de la máquina. Un sistema de retaliación nuclear automatizada no habría tenido capacidad de dudar. Habría lanzado. El profesor de la Universidad de Pensilvania Michael Horowitz, quien estudia la innovación militar, define el riesgo con precisión: “Un peligro en un mundo de sesgo de automatizaciónTendencia humana a depender excesivamente de sistemas automatizados y examinar insuficientemente sus resultados, especialmente bajo presión temporal y estrés. es que el Petrov del futuro no use su juicio, o que no exista un Petrov”.[s]
¿La automatización hace obsoleta la diplomacia?
El argumento de que la retaliación nuclear automatizada elimina la necesidad de diplomacia es más o menos el siguiente: si la guerra nuclear ya está garantizada como catastróficamente costosa para cualquier agresor, ningún agresor la iniciará. La disuasión funciona. En esta visión, la diplomacia se convierte en un adorno, una actuación de tranquilidad para una paz que las máquinas ya garantizan.
El experto en control de armas Michael Krepon, cofundador del Centro Stimson, dedicó décadas a estudiar exactamente esta pregunta. Su respuesta es directa: “La disuasión es extremadamente peligrosa. Está hecha para ser peligrosa. Es propensa al fracaso”. Estima que la diplomacia aporta 90 centavos de cada dólar gastado en prevenir conflictos nucleares, mientras que la disuasión representa los 10 centavos restantes, a pesar de que la disuasión recibe casi todo el presupuesto.[s]
El Centro para el Control de Armas y la No Proliferación enmarca la relación entre ambas de manera más precisa: la disuasión puede crear espacio para la diplomacia, pero no puede reemplazarla. La retaliación nuclear automatizada no aborda las causas del conflicto, ni la posibilidad de que las crisis escalen más allá de lo que cualquier cálculo de disuasión anticipó.[s] La Mano Muerta garantiza una respuesta. No previene las condiciones que llevan a alguien a considerar un primer ataque.
Qué sigue
La lógica de la retaliación nuclear automatizada se está expandiendo. En 2019, los analistas militares estadounidenses Adam Lowther y Curtis McGiffin propusieron formalmente que Estados Unidos construya su propia versión de la Mano Muerta impulsada por inteligencia artificial[s], citando misiles hipersónicos y armas con IA como factores que han comprimido los plazos de decisión más allá de lo que los humanos pueden manejar. La propuesta fue controvertida. No ha desaparecido.
El argumento a favor de la diplomacia no es que la disuasión automatizada sea ineficaz. Es que ninguna máquina puede gestionar una crisis, negociar un malentendido o retroceder ante el abismo. Esas son tareas humanas, y siguen siendo el único freno confiable para un sistema diseñado para no retroceder jamás.
El sistema Perímetro de Rusia, operativo desde 1985, representa la implementación más completa de la doctrina de retaliación nuclear automatizada jamás construida. Es una arquitectura de fallo mortal: sensores sísmicos, fotométricos, de radiación y de presión atmosférica alimentan un algoritmo de decisión que, bajo condiciones específicas, evita toda la cadena de mando humana y emite órdenes de lanzamiento directamente a silos de misiles balísticos intercontinentales.[s] Cuarenta años después, el sistema sigue funcionando, y la lógica estratégica que lo produjo se acelera en lugar de desvanecerse.
La arquitectura algorítmica de la retaliación nuclear automatizada
La lógica de decisión de Perímetro es una cadena condicional, no un simple disparador. El sistema debe ser activado primero por un alto funcionario durante una crisis. Una vez activo, verifica cuatro condiciones secuenciales: estado de activación, confirmación por sensores de detonaciones en suelo ruso, integridad de las comunicaciones con el Estado Mayor y tiempo transcurrido sin nuevas señales de ataque.[s] Solo si las comunicaciones se interrumpen y no llega ninguna señal de detención, transfiere la autoridad de lanzamientoPoder oficial o permiso legal para ordenar el disparo de armas nucleares, típicamente en manos del liderazgo político o militar superior. a operadores en un búnker, quienes pueden entonces iniciar lanzamientos de misiles sin más autorización.
El desarrollador Vladimir Yarynich describió una función secundaria contraintuitiva: el sistema fue diseñado para reducir la presión de lanzamientos apresurados bajo advertencias ambiguas. Al garantizar la retaliación nuclear automatizada independientemente de la supervivencia de la cadena de mando, teóricamente liberó al liderazgo político para esperar confirmación en lugar de reaccionar a la primera alerta de los sensores. La ironía es precisa: una máquina del fin del mundo comercializada como herramienta de contenciónEstrategia de política exterior que busca limitar la expansión de un adversario manteniendo presión en sus fronteras mediante alianzas..
Los orígenes del sistema son igualmente específicos. El misil balísticoArma propulsada por cohete lanzada en trayectoria de arco alto; tras el agotamiento de combustible, sigue una trayectoria balística (sin propulsión) hacia su objetivo, transportando típicamente ojivas convencionales o nucleares a grandes distancias. lanzado desde submarino Trident D5, con una precisión comparable a los misiles intercontinentales basados en tierra, redujo los posibles tiempos de advertencia cerca de objetivos costeros soviéticos a aproximadamente cinco minutos.[s] Un ataque de decapitación que destruyera al Estado Mayor antes de que se pudiera emitir ninguna orden se volvió operativamente plausible. Perímetro fue la respuesta estructural: eliminar la dependencia de comandantes supervivientes por completo.
El equivalente no estadounidense y su equivalente oculto
Estados Unidos nunca construyó un disparador de lanzamiento automático. En su lugar, se aseguró de que los humanos con autoridad de lanzamiento sobrevivieran a un primer ataque[s] mediante puestos de mando en submarinos, aviones de mando aerotransportados y autoridad nuclear distribuida geográficamente. La elección doctrinal fue filosóficamente diferente: preservar la toma de decisiones humana en lugar de evitarla.
Sin embargo, en la práctica, la distinción puede ser más estrecha de lo que parece. El análisis definitivo de Bruce Blair en Arms Control Today de 2018 documenta lo que él llama “presionar” al presidente: la estructura institucional del protocolo nuclear estadounidense sesga poderosamente al comandante en jefe hacia el lanzamiento bajo ataque dentro de una ventana de decisión de seis minutos.[s] El general Lee Butler, exjefe del Comando Estratégico de EE. UU., describió la realidad operativa sin rodeos: el sistema estaba estructurado para llevar al presidente invariablemente hacia una decisión de lanzar antes de la llegada del primer misil enemigo. El humano está presente, pero el espacio de decisión se ha comprimido casi a cero. Retaliación nuclear automatizada por diseño institucional, en lugar de algorítmica.
La conclusión de Blair: “Un plazo de seis minutos para la deliberación y la decisión es ridículo”. Los riesgos de mala interpretación, toma de decisiones irracionales y respuesta a falsos positivos son, en su evaluación, inaceptablemente altos.
El problema Petrov y los límites de la confianza en las máquinas
El modo de fallo canónico para los sistemas automatizados sigue siendo el incidente de Petrov de 1983. La computadora de alerta temprana soviética reportó con máxima confianza la detección de un ataque nuclear estadounidense entrante. El teniente coronel Stanislav Petrov evaluó la alerta como un falso positivo basado en razonamiento contextual que la computadora no podía realizar: un primer ataque genuino no consistiría en un puñado de misiles, y el nuevo sistema de detección no había sido validado en condiciones operativas. Tenía razón. Las señales eran luz solar reflejada en las nubes.[s]
La lección estructural no es simplemente que las máquinas cometen errores. Es que las máquinas no pueden realizar el tipo de razonamiento de orden superior que permitió a Petrov desconfiar de su instrumento. Como señalan los analistas del Bulletin, el conflicto nuclear ha ocurrido precisamente dos veces en la historia, ambas en 1945. La ausencia de datos de entrenamientoLa colección de información utilizada para enseñar a un sistema de IA cómo realizar tareas, formando la base de su conocimiento y capacidades. del mundo real para un intercambio nuclear hace estructuralmente imposible construir una máquina capaz de un juicio confiable en este dominio.[s] El aprendizaje automático requiere ejemplos. No hay ninguno para aprender.
El experto Bruce Blair describió el entorno de 1983: la Unión Soviética “como sistema, no solo el Kremlin, no solo Yuri Andropov, no solo la KGB, sino como sistema, estaba preparada para esperar un ataque y retaliar muy rápidamente”.[s] El peligro no era el juicio de ningún individuo. Era la automatización sistémica de la expectativa, el condicionamiento institucional que hacía que cada alerta de sensor fuera legible como confirmación de una amenaza que todos ya esperaban.
La retaliación nuclear automatizada en la era de la IA
En 2019, los investigadores de defensa estadounidenses Adam Lowther y Curtis McGiffin publicaron una propuesta formal para una Mano Muerta estadounidense impulsada por IA, argumentando que los misiles hipersónicos y las armas emergentes con IA habían comprimido los plazos de decisión de EE. UU. por debajo del umbral de respuesta humana viable.[s] La propuesta recibió críticas inmediatas, pero identificó una presión estructural real: a medida que los sistemas de ataque se aceleran, la ventana de decisión se reduce, y la lógica institucional que impulsa la retaliación nuclear automatizada se vuelve más difícil de resistir.
Para septiembre de 2025, el desafío había evolucionado. Un importante análisis de Arms Control Today documentó cómo el consenso no vinculante Xi-Biden de noviembre de 2024 contra la autoridad de lanzamiento nuclear con IA ocultaba un problema más insidioso: la IA ya está integrada en los canales de inteligencia que alimentan las decisiones de mando nuclear.[s] Los sistemas de vigilancia mejorados con IA capaces de localizar lanzadores móviles y submarinos con misiles balísticos podrían erosionar la confianza en un segundo ataque, aumentando los incentivos para un primer ataque en múltiples estados nucleares simultáneamente.
El mismo análisis señaló los deepfakes de audio y video como un vector de ataque emergente: los adversarios podrían fabricar declaraciones de crisis de líderes senior, alimentando datos corruptos en sistemas de decisión ya preparados para la retaliación nuclear automatizada. El sesgo de automatizaciónTendencia humana a depender excesivamente de sistemas automatizados y examinar insuficientemente sus resultados, especialmente bajo presión temporal y estrés. en condiciones de crisis, la tendencia a confiar demasiado en las máquinas cuando el tiempo es escaso y el estrés es alto, amplificaría cualquier manipulación de este tipo en bucles de retroalimentación estrechamente acoplados.[s]
El comandante de STRATCOM, general Anthony Cotton, trazó una línea oficial firme en octubre de 2024: “La IA mejorará nuestras capacidades de toma de decisiones. Pero nunca debemos permitir que la inteligencia artificial tome esas decisiones por nosotros”.[s] La posición es clara. Si las presiones estructurales que produjeron la Mano Muerta en 1985 respetarán esa claridad en 2035 es otra pregunta.
La función irremplazable de la diplomacia
El argumento en contra de la idea de que la retaliación nuclear automatizada hace obsoleta la diplomacia no es que la disuasiónUna estrategia para prevenir acciones hostiles amenazando con represalias creíbles que impondrían costos inaceptables a un adversario. falle en disuadir. Es que la disuasión opera bajo una lógica de imposición estática de costos, mientras que las crisis son dinámicas. Los sistemas automatizados garantizan respuestas. No pueden desescalar malentendidos, establecer entendimientos compartidos de líneas rojas o crear la comunicación de canal secundario que históricamente ha alejado a los estados con armas nuclearesLos cinco países formalmente reconocidos bajo el TNP como potencias nucleares antes de 1967: EE.UU., Rusia, Reino Unido, Francia, China. del abismo.
La formulación de Michael Krepon es contundente: “La disuasión aporta diez centavos por cada dólar gastado en prevención real. La diplomacia aporta noventa centavos”.[s] La asignación presupuestaria va exactamente en la dirección opuesta. Lo que compra la disuasión automatizada es estabilidad estructural bajo condiciones de racionalidad plena e información precisa, precisamente las condiciones que las crisis erosionan. La diplomacia opera con información degradada, mala interpretación y presión institucional que definen el entorno real de decisión. Las dos no son alternativas. Una es la arquitectura; la otra es el mantenimiento.



