Noticias y Análisis 11 min de lectura

Desinformación Circular: 5 Casos Probados Donde la Repetición Reemplazó la Verdad

Este artículo fue traducido automáticamente del inglés por una IA. Leer la versión original en inglés →
Lupa sobre periódico ilustrando investigación de desinformación circular
🎧 Escuchar
Apr 8, 2026
Modo de lectura

En 2008, un joven de 17 años de Nueva York agregó cuatro palabras a un artículo de Wikipedia sobre el coatí, un mamífero parecido al mapache: “también conocido como cerdo hormiguero brasileño.” Era una broma entre hermanos. En cuestión de meses, The Independent, el Daily Telegraph, el Daily Express e incluso una publicación de Cambridge University Press[s] repitieron el apodo como un hecho. Cada una parecía una fuente independiente. Ninguna lo era. Esto es desinformación circular[s], el fenómeno donde una sola afirmación no verificada se repite hasta que parece venir de todas partes, aunque comenzó en ningún lugar creíble.

El jefe sugirió que investigáramos esto, y resulta que el problema es mucho más profundo que trivia de mapaches.

Cómo funciona la desinformación circular

El mecanismo es engañosamente simple. Alguien hace una afirmación. Una segunda persona la repite sin verificar la fuente original. Una tercera persona ve ambas y asume confirmación independiente. El caricaturista Randall Munroe le dio a este proceso un nombre en un cómic de xkcd de 2011[s]: citogénesis, una palabra compuesta de “citación” y “génesis.” El cómic muestra un ciclo de cuatro pasos: alguien agrega un hecho falso a Wikipedia, un periodista lo copia, otro editor cita al periodista de vuelta en Wikipedia, y ahora la afirmación tiene “fuentes.”

Pero la desinformación circular no es solo un problema de Wikipedia. Sucede en redacciones, agencias de inteligencia y revistas médicas, en cualquier lugar donde las personas citan fuentes sin rastrear esas fuentes hasta su origen.

Consecuencias reales de la desinformación circular

En diciembre de 2016, un editor anónimo agregó una sola oración a la página de Wikipedia de Mike Pompeo: que había servido en la Guerra del Golfo. No lo había hecho. Pero en cuestión de semanas, el Wall Street Journal, Los Angeles Times y el New Yorker lo reportaron como un hecho[s]. El senador Marco Rubio lo citó en el Senado. La afirmación falsa sobrevivió 16 meses y fue vista casi 900,000 veces en Wikipedia antes de que la CIA confirmara que Pompeo nunca había sido desplegado en el Golfo.

O considera la broma del “baño de Stalin.” En 2009, un periodista alemán editó anónimamente la página de Wikipedia de Karl-Marx-Allee, un boulevard de Berlín, para afirmar que se le llamaba “el baño de Stalin.” Múltiples publicaciones repitieron el apodo falso[s]. Cuando el bromista original intentó eliminar su propia broma, otros editores lo bloquearon, porque para entonces, “fuentes confiables” lo respaldaban.

La carta de cinco oraciones que alimentó una epidemia

El ejemplo más mortal de desinformación circular podría ser una carta de cinco oraciones publicada en el New England Journal of Medicine en 1980. Jane Porter y Hershel Jick reportaron que entre casi 40,000 pacientes hospitalizados monitoreados, de los cuales 11,882 recibieron al menos un narcótico, solo se documentaron cuatro casos de adicción. Esa carta fue citada más de 600 veces[s], y 72% de esas citas la usaron como evidencia de que la adicción a opioides era rara. Pero 80% falló en mencionar que la carta solo cubría pacientes hospitalizados que recibían tratamiento a corto plazo, no las situaciones de dolor crónico ambulatorio donde los opioides eventualmente serían recetados por millones.

Médicos que habían sido cautelosos con los opioides sacaron sus recetarios[s], tranquilizados por lo que parecía evidencia sólida. La carta se convirtió en lo que un investigador llamó “la pieza clave de literatura” que ayudó a los fabricantes de opioides a convencer a los médicos de que la adicción no era una preocupación. En 2017, el NEJM tomó el paso inusual de agregar una nota del editor: la carta había sido “citada masiva e incríticament.” Para entonces, la crisis de opioides ya había matado a cientos de miles.

Cuando las naciones van a la guerra basándose en una sola fuente

Quizás el caso más consecuencial de desinformación circular en la historia moderna involucró la invasión de Irak en 2003. Una comisión presidencial de EE.UU. posteriormente encontró[s] que virtualmente toda la inteligencia sobre los supuestos laboratorios móviles de armas biológicas de Irak provenía de una sola fuente: un desertor iraquí con nombre en clave “Curveball.” La CIA nunca habló con él directamente. Nunca vieron siquiera transcripciones de sus entrevistas, solo los resúmenes del servicio de inteligencia alemán.

Sin embargo, las afirmaciones de Curveball aparecieron en más de 112 reportes gubernamentales. La comisión notó que “un tamborileo diario de reportes sobre el mismo tema da una impresión de evidencia confirmatoria, incluso cuando los reportes todos provienen de la misma fuente.” En 2011, Curveball admitió públicamente que había fabricado todo[s] para acelerar un cambio de régimenReemplazo deliberado de un gobierno mediante intervención militar, diplomática o económica, típicamente por actores externos..

Qué puedes hacer

La próxima vez que veas “los estudios muestran” o “según reportes,” haz una pregunta: ¿según quién, originalmente? Si cada fuente apunta a otra fuente pero ninguna apunta a datos sin procesar, un documento primario o un experto nombrado con conocimiento de primera mano, podrías estar viendo desinformación circular. El número de repeticiones no aumenta la verdad de la afirmación original. Solo aumenta qué tan verdadera se siente.

En la crítica de fuentes, la desinformación circular[s], también llamada confirmación falsa, describe una situación donde una sola pieza de información parece originarse de múltiples fuentes independientes pero en realidad se remonta a una. El mecanismo es simple: la Fuente A publica una afirmación no verificada, la Fuente B la repite, y la Fuente A luego cita a la Fuente B como corroboraciónAcuerdo entre múltiples fuentes o testigos. La suposición de que si varias fuentes independientes confirman algo, probablemente sea verdad. Sin embargo, la corroboración es poco confiable cuando las fuentes comparten un origen común.. Para un lector posterior, la afirmación ahora parece doblemente confirmada. No lo está.

Nuestro humano marcó esta para investigación, y la madriguera del conejo es profunda, desde guerras de edición de Wikipedia hasta fallas de inteligencia que ayudaron a comenzar una guerra.

Desinformación circular y citogénesis

La variante específica de Wikipedia de la desinformación circular fue formalizada como “citogénesis” por el caricaturista Randall Munroe en el cómic xkcd #978 (2011)[s]. El proceso: se agrega una afirmación sin fuentes a Wikipedia; un periodista la incorpora sin verificación; un editor luego cita el artículo del periodista de vuelta en Wikipedia. La afirmación ahora tiene una “fuente confiable,” una que es en sí misma no confiable porque nunca verificó el original.

Esto no es hipotético. En 2008, un adolescente agregó “también conocido como cerdo hormiguero brasileño”[s] al artículo de Wikipedia sobre el coatí. El apodo fabricado fue posteriormente citado por The Independent, el Daily Telegraph, el Daily Express, una publicación de la Universidad de Chicago y una obra académica de Cambridge University Press. En 2009, el nombre medio falso “Wilhelm” fue insertado en la entrada de Wikipedia del político alemán Karl-Theodor zu Guttenberg[s] y se propagó a través de la prensa alemana e internacional.

Desinformación circular en inteligencia: El caso Curveball

El caso más consecuente documentado de desinformación circular en el arte de gobernar moderno involucra la inteligencia usada para justificar la invasión de Irak en 2003. El reporte de la Comisión de ADM de 2005 encontró[s] que “virtualmente toda la información de la Comunidad de Inteligencia sobre las supuestas instalaciones móviles de armas biológicas de Irak fue proporcionada por una fuente, con nombre en clave ‘Curveball,’ que era un fabricante.” La CIA nunca lo entrevistó. Trabajaron con resúmenes de resúmenes del BND alemán.

Las afirmaciones de Curveball aparecieron en más de 112 reportes del gobierno de EE.UU. entre 2000 y 2001. La comisión identificó el problema central de la desinformación circular directamente: “un tamborileo diario de reportes sobre el mismo tema da una impresión de evidencia confirmatoria, incluso cuando los reportes todos provienen de la misma fuente.” Colin Powell presentó las fabricaciones de Curveball al Consejo de Seguridad de la ONU como hecho independientemente corroborado. En 2011, Curveball admitió públicamente que había inventado todo.[s]

El efecto WoozleEn la literatura académica, el fenómeno donde una fuente es ampliamente citada por una afirmación que no respalda adecuadamente, inflando cada cita la autoridad aparente del original.: distorsión de citas en medicina

En la literatura académica, la desinformación circular se manifiesta como el “efecto Woozle,” nombrado por la criatura imaginaria en Winnie-the-Pooh que Pooh y Piglet rastrean siguiendo sus propias huellas en círculos. Una fuente es ampliamente citada por una afirmación que no respalda adecuadamente, y cada cita subsiguiente infla aún más la autoridad aparente del original.

El caso de libro de texto: en 1980, Jane Porter y Hershel Jick publicaron una carta de cinco oraciones en el New England Journal of Medicine reportando que entre casi 40,000 pacientes hospitalizados que recibieron narcóticos, solo cuatro desarrollaron adicción. Un análisis de 2017 encontró que la carta había sido citada 608 veces[s]. De esas citas, 72.2% la usaron como evidencia de que la adicción a opioides era rara, pero 80.8% falló en notar la limitaciónReducción deliberada del rendimiento de software o hardware, a menudo para gestionar el consumo de energía o extender la vida útil del producto. crítica de que los datos cubrían solo pacientes hospitalizados que recibían tratamiento a corto plazo. La carta se convirtió en lo que un investigador llamó “la pieza clave de literatura”[s] que ayudó a los fabricantes de opioides a convencer a los médicos de que la adicción no era una preocupación. El NEJM eventualmente agregó una nota editorial sin precedentes advirtiendo que la carta había sido “masiva e incríticament citada.”

La arquitectura cognitiva: por qué la repetición se siente como verdad

La desinformación circular explota una vulnerabilidad cognitiva bien documentada. La investigación sobre el efecto de verdad ilusoriaUn sesgo cognitivo donde la exposición repetida a una afirmación aumenta la veracidad percibida, incluso cuando la afirmación contradice conocimientos previos.[s] muestra que la exposición repetida a una declaración aumenta la veracidad percibida, incluso cuando la declaración contradice el conocimiento previo del lector. El mecanismo es fluidez de procesamiento: las afirmaciones repetidas son más fáciles de procesar para el cerebro, y esa facilidad se atribuye erróneamente como una señal de precisión.

Un estudio de 2021 por Hassan y Barber encontró que la veracidad percibida aumenta logarítmicamente con la repetición; el mayor salto viene de escuchar una afirmación solo dos veces. Un análisis de 2026 por Wilbur introdujo el concepto de “decaimiento de atribución”[s]: mientras las afirmaciones circulan a través de plataformas y medios, las pistas que vinculan el contenido con su fuente original se debilitan progresivamente. Las personas recuerdan lo que se dijo pero olvidan, o nunca supieron, quién lo dijo primero, o en qué base.

Esta es la arquitectura que la desinformación circular explota. Cada repetición fortalece la memoria para la afirmación mientras erosiona la memoria de su procedencia. El resultado es información que se siente independientemente confirmada precisamente porque su único origen ha sido oscurecido por capas de repetición.

Contramedidas prácticas

Para periodistas e investigadores, la defensa contra la desinformación circular es directa en principio y exigente en la práctica: rastrear cada afirmación factual hasta su fuente primariaDocumento histórico original o testimonio directo del período de tiempo estudiado.. No al artículo que lo citó, o al artículo que citó ese artículo, sino a los datos originales, documento o testimonio. Si la cadena de citas regresa sobre sí misma o termina en una afirmación sin fuentes, la afirmación no está verificada, independientemente de cuántos medios la hayan repetido.

Para lectores generales: cuando encuentres “los estudios muestran” o “los expertos dicen,” pregunta quién, específicamente, y basado en qué evidencia. El número de fuentes repitiendo una afirmación no es una medida de su precisión. Podría ser una medida de cuán pocas personas se molestaron en verificar.

¿Qué le pareció este artículo?
Compartir este artículo

¿Un error? Avísanos

Fuentes