Atemporal 15 min de lectura

Cómo funciona la memoria humana y por qué los testimonios de testigos oculares son poco fiables

Este artículo fue traducido automáticamente del inglés por una IA. Leer la versión original en inglés →
testimonio ocular
🎧 Escuchar
Mar 13, 2026

Su memoria no funciona como una cámara de vídeo. Nunca lo ha hecho. No es una metáfora ni una simplificación: las neurociencias son inequívocas. La memoria humana es un proceso reconstructivo que ensambla fragmentos de experiencias pasadas, rellena los vacíos con suposiciones y se reescribe cada vez que recuerda algo. Las implicaciones para la justicia penal son graves. El testimonio de testigos oculares sigue siendo la principal causa de condenas erróneas en Estados Unidos, y el mecanismo detrás de sus fallos no es la negligencia ni la deshonestidad. Es la arquitectura fundamental con la que el cerebro almacena y recupera información.

Este artículo examina cómo funciona realmente la memoria a nivel biológico, por qué la investigación de Elizabeth Loftus sobre el efecto de desinformaciónFenómeno en el cual la información posterior a un evento altera el recuerdo de una persona sobre lo que originalmente experimentó. La información nueva se integra en la memoria y puede sobrescribir o hacer inaccesible la huella de memoria original. transformó el campo, qué revelan los datos del Innocence Project sobre las consecuencias en el mundo real, y por qué el sistema legal todavía no ha asimilado plenamente la ciencia.

La memoria es reconstrucción, no reproducción

La comprensión moderna de la memoria comienza con Frederic Bartlett, un psicólogo de Cambridge que publicó Remembering: A Study in Experimental and Social Psychology en 1932. Bartlett pidió a participantes británicos que recordaran un cuento popular nativo americano llamado «La guerra de los fantasmas» a intervalos de semanas y meses. Lo que observó fue sistemático: los participantes no se limitaban a olvidar detalles. Reformaban activamente el relato para ajustarlo a sus propias expectativas culturales. Las referencias a elementos sobrenaturales desaparecían. Las estructuras narrativas desconocidas se reorganizaban siguiendo patrones narrativos occidentales más convencionales. El recuerdo no era una reproducción degradada. Era una reconstrucción creativa.

Bartlett introdujo el concepto de «esquemasMarcos mentales de representaciones comprimidas y expectativas que el cerebro utiliza para codificar, almacenar y recuperar información. Cuando recuerdas algo, tu cerebro lo reconstruye usando esquemas más cualquier indicio contextual presente.», que definió como «una organización activa de reacciones pasadas, o de experiencias pasadas». La idea es que el cerebro no almacena datos sensoriales en bruto como un disco duro. Almacena representaciones comprimidas, y cuando recuerda algo, reconstruye la experiencia utilizando esas huellas comprimidas más los esquemas (expectativas, conocimientos, contexto cultural) que están activos en el momento de la recuperación. Imagínelo menos como abrir un archivo guardado y más como pedirle a un generador de imágenes de inteligencia artificial que recree una escena a partir de una descripción textual: el resultado es plausible, internamente coherente, y a veces completamente errado en los detalles concretos.

Los trabajos de Bartlett quedaron en gran medida relegados durante décadas. El conductismo dominaba la psicología de mediados del siglo XX, y el estudio de los procesos mentales internos se consideraba acientífico. Fue necesaria la revolución cognitiva de los años sesenta y setenta para devolver la memoria reconstructiva al primer plano, y fue el trabajo de Elizabeth Loftus el que hizo imposible ignorar las consecuencias prácticas.

El efecto de desinformación de Loftus

En 1974, Elizabeth Loftus y John Palmer publicaron un experimento que se convertiría en uno de los estudios más citados de la psicología. Mostraron a los participantes imágenes de accidentes de tráfico y les pidieron que estimaran la velocidad de los vehículos. La manipulación decisiva consistía en una sola palabra. Cuando la pregunta utilizaba el verbo «se estrellaron» (smashed), los participantes estimaban una velocidad media de 66 km/h. Con «chocaron» (hit), la estimación bajaba a 55 km/h. Cuando se les preguntó una semana después si habían visto cristales rotos en las imágenes (no había ninguno), los participantes de la condición «se estrellaron» respondieron afirmativamente con una frecuencia significativamente mayor.

Una sola palabra en una pregunta, formulada después del evento, alteró tanto la estimación cuantitativa como el contenido factual del recuerdo.

Loftus siguió con decenas de estudios que refinaron el principio. En el experimento de la señal de tráfico, los participantes vieron un vídeo de un accidente ocurrido junto a una señal de stop. Cuando un entrevistador mencionó después una señal de ceda el paso, el 41 % de los participantes «recordó» posteriormente haber visto esa señal. Entre quienes no recibieron información engañosa, el 75 % identificó correctamente la señal de stop. La sugerencia posterior al evento no solo los confundió. Sobreescribió el recuerdo original.

El mecanismo identificado por Loftus, conocido actualmente como efecto de desinformación, opera a través de lo que ella denominó el «principio de detección de discrepancias»: si una persona no advierte inmediatamente el conflicto entre la nueva información y su recuerdo original, la nueva información se integra sin fricción. La huella original no se borra (puede seguir existiendo de forma degradada), pero se vuelve inaccesible, enterrada bajo la reconstrucción más reciente y más coherente.

Perdido en el centro comercial: cuando se fabrican recuerdos enteros

El efecto de desinformación había demostrado que los recuerdos existentes podían alterarse. Loftus planteó entonces una pregunta aún más inquietante: ¿podían implantarse recuerdos completamente falsos desde cero?

En el estudio conocido como «perdido en el centro comercial» (lost in the mall), los investigadores entregaron a los participantes resúmenes escritos de cuatro eventos de su infancia: tres reales (confirmados por familiares) y uno completamente inventado, haberse perdido en un centro comercial a los cinco años. En entrevistas realizadas semanas después, el 25 % de los participantes informaba de recuerdos nítidos del evento ficticio, con detalles sensoriales y respuestas emocionales que nunca habían ocurrido. Algunos confiaban más en el recuerdo fabricado que en sus recuerdos reales.

Este resultado se replicó y amplió. Estudios posteriores lograron implantar falsos recuerdos de ataques de animales, de casi ahogarse y de presenciar posesiones demoníacas. El porcentaje de participantes que desarrollan falsos recuerdos varía según el estudio y la metodología, pero se sitúa de forma sistemática entre el 20 % y el 40 %. No son personas confundidas a quienes se manipula para que digan algo en lo que no creen. Los estudios de neuroimagen muestran que los falsos recuerdos genuinamente vivenciados activan los mismos patrones neuronales que los recuerdos reales. La persona que experimenta el falso recuerdo no dispone de ninguna señal interna que le permita distinguirlo de uno auténtico.

ReconsolidaciónProceso mediante el cual una memoria se vuelve temporalmente inestable cuando se recupera y debe almacenarse nuevamente mediante nueva síntesis de proteínas. Durante esta ventana, los recuerdos pueden modificarse por información nueva del entorno.: por qué recordar reescribe la memoria

La explicación biológica de la vulnerabilidad de los recuerdos ante la alteración provino de un estudio fundamental publicado en 2000 por Karim Nader, Glenn Schafe y Joseph LeDoux en Nature. Durante décadas, las neurociencias habían asumido que, una vez que un recuerdo estaba «consolidado» (transferido de la memoria a corto plazo a la memoria a largo plazo mediante la síntesis de proteínas en el cerebro), era estable. El experimento de Nader demostró que esta suposición era falsa.

El experimento utilizó ratas entrenadas para asociar un tono con una leve descarga eléctrica, creando así un recuerdo de miedo. Una vez consolidado el recuerdo, los investigadores lo reactivaron emitiendo el tono. Inmediatamente después de la reactivación, inyectaron un inhibidor de la síntesis de proteínas (anisomicina) en la amígdala. El resultado: el recuerdo de miedo consolidado quedó borrado. La misma inyección sin reactivación previa no tuvo ningún efecto. El recuerdo solo era vulnerable durante la ventana en que estaba siendo recordado activamente.

Este proceso, denominado reconsolidación, implica que cada vez que recupera un recuerdo, este entra en un estado temporal de inestabilidad y debe volver a almacenarse mediante nueva síntesis de proteínas. Durante esa ventana, el recuerdo puede modificarse, reforzarse, debilitarse o contaminarse con cualquier información presente en el entorno en el momento del recuerdo. No es un fallo del sistema. Parece ser una función adaptativa: la reconsolidación permite actualizar los recuerdos con nueva información, lo que resulta útil para la supervivencia. El problema es que «nueva información» incluye las preguntas sugestivas de los agentes de policía, la cobertura mediática de un evento, las conversaciones con otros testigos y el estado emocional en que se recuerda.

Cada acto de recordar es un acto de reescritura.

Testimonios de testigos oculares y condenas erróneas

El Innocence Project, que utiliza pruebas de ADN para exonerar a personas condenadas injustamente, ha documentado las consecuencias reales de la falta de fiabilidad de la memoria. Hasta la fecha, la organización ha participado en la anulación de 254 condenas mediante exoneraciones basadas en ADN. En esos casos, la identificación errónea por testigos oculares fue un factor contribuyente en aproximadamente el 69 % de ellos, lo que la convierte en la principal causa de condenas erróneas, por encima de las confesiones falsas (29 %), la ciencia forense inválida y la mala conducta gubernamental.

Las identificaciones erróneas entre grupos raciales distintos representan el 42 % de estos casos, y reflejan un fenómeno bien documentado llamado efecto de raza cruzada: las personas identifican con una precisión notablemente menor los rostros de individuos pertenecientes a grupos raciales distintos al propio. No se trata de prejuicios. Parece ser un efecto de pericia perceptiva: el cerebro se especializa en distinguir los rostros que encuentra con mayor frecuencia.

Los exonerados pasaron en prisión una media de 14 años. El diez por ciento cumplió 25 años o más. No son casos límite ni anomalías estadísticas. Son el resultado predecible de un sistema que trata el testimonio de testigos oculares como prueba fiable, a pesar de que la ciencia lleva décadas demostrando que no lo es.

Por qué los testigos seguros suelen equivocarse

La confianza es quizás la variable más peligrosa en los testimonios de testigos oculares, pues es la que más influye en los jurados y la que menos se correlaciona de manera fiable con la exactitud en condiciones reales.

El Tribunal Supremo de Estados Unidos estableció el marco jurídico para evaluar las identificaciones de testigos en los casos Neil v. Biggers (1972) y Manson v. Brathwaite (1977). Los criterios Biggers incluyen la oportunidad del testigo de ver al autor, su grado de atención, la exactitud de la descripción previa, el nivel de certeza en el momento de la identificación, y el tiempo transcurrido entre el delito y el careo. El Tribunal declaró que «la fiabilidad es el eje central» de la admisibilidad, y la confianza del testigo se enumeró expresamente como indicador de fiabilidad.

La ciencia no respalda esto. Una síntesis de 2017 realizada por John Wixted y Gary Wells, publicada en Psychological Science in the Public Interest, concluyó que la confianza y la exactitud solo se correlacionan razonablemente en lo que ellos llamaron «condiciones ideales»: una rueda de reconocimiento con un único sospechoso y figurantes inocentes conocidos, en la que el sospechoso no destaque visualmente y no se proporcione retroalimentación alguna. En condiciones reales, esa correlación se deteriora con rapidez.

Lo que la deteriora: La retroalimentación confirmatoria («Bien, ha identificado al sospechoso») infla la confianza de forma retroactiva sin modificar la exactitud. Los interrogatorios repetidos producen el mismo efecto: cada nueva repetición de la identificación consolida la certeza del testigo y, al mismo tiempo, puede alterar el recuerdo subyacente mediante la reconsolidación. La exposición a la cobertura mediática, las conversaciones con otros testigos o ver al sospechoso en la sala del tribunal contaminan el recuerdo dejando la confianza intacta o incluso aumentándola. Cuando un testigo se sienta en el estrado y declara «Estoy absolutamente seguro de que esa es la persona que vi», esa certeza es real, profundamente sentida, y potencialmente sin relación con la exactitud de la percepción original.

No es un problema de testigos deshonestos. Es un problema relacionado con el modo en que los sistemas cognitivos procesan la incertidumbre. El cerebro no asigna niveles de confianza a los recuerdos en función de su exactitud. Los asigna en función de la fluidez: con qué facilidad y viveza acude el recuerdo a la mente. Un recuerdo que se ha repasado muchas veces, reforzado con retroalimentación e integrado en una narrativa coherente parecerá más seguro que un recuerdo genuinamente exacto pero codificado bajo estrés, recuperado con poca frecuencia y nunca validado.

Lo que el sistema legal ha hecho y lo que no

La ciencia sobre los testimonios de testigos ha influido en la reforma legal, pero de forma desigual. En 2011, el Tribunal Supremo de Nueva Jersey dictó la sentencia State v. Henderson, un fallo histórico que reformó los procedimientos del estado para evaluar las identificaciones por testigos. El tribunal reconoció décadas de investigación científica y exigió instrucciones ampliadas al jurado que explicasen los factores que afectan a la fiabilidad de los testimonios, entre ellos el efecto del arma (los testigos fijan la atención en el arma y codifican menos detalles del rostro), el estrés (el estrés extremo perjudica la codificación) y el efecto de raza cruzada.

Varios estados y muchos departamentos de policía han adoptado reformas: la administración de ruedas de reconocimiento con doble ciego (donde el agente que conduce el procedimiento no sabe quién es el sospechoso), la presentación secuencial (las fotografías se muestran de una en una en lugar de simultáneamente) y el registro del nivel de confianza del testigo en el momento de la identificación inicial, antes de que cualquier retroalimentación pueda inflarlo.

Pero los criterios Biggers siguen siendo el estándar federal. La confianza del testigo aún se trata como indicador de fiabilidad en la mayoría de los tribunales. Y en muchas jurisdicciones, el testimonio pericial sobre la psicología de los testimonios de testigos sigue excluido o restringido, dejando a los jurados que evalúen la confianza del testigo con sus propias intuiciones, que son sistemáticamente erróneas sobre cómo funciona la memoria.

La brecha entre la ciencia y el derecho no se debe a que la ciencia sea demasiado reciente o demasiado incierta. Loftus publicó el estudio del accidente de coche en 1974. Nader publicó los hallazgos sobre la reconsolidación en 2000. El Innocence Project lleva documentando condenas erróneas desde 1992. La brecha entre lo que la investigación muestra y lo que las instituciones hacen es un patrón recurrente en los campos donde los procedimientos establecidos acumulan su propia inercia.

Lo que esto significa en la práctica

Nada de esto significa que el testimonio de testigos oculares carezca de valor. Los testigos aportan pistas de investigación cruciales, y las identificaciones iniciales realizadas en buenas condiciones con alta confianza tienen un valor diagnóstico real. El problema no es que los testigos sean inútiles. El problema es que el sistema legal trata la memoria como si funcionara del modo en que la gente cree intuitivamente que funciona: como una grabación que se degrada de forma gradual, donde la confianza refleja la exactitud y donde un relato vívido y detallado tiene más probabilidades de ser correcto.

El mecanismo real se aproxima más a esto: el cerebro codifica una instantánea escasa y comprimida en condiciones de atención limitada y alto estrés. Cada vez que se recupera esa instantánea, se desestabiliza temporalmente y se reconstruye usando la información disponible en ese momento, incluida información que no estaba presente durante el evento original. La confianza es una medida de la fluidez narrativa, no de la fidelidad de la codificación. Y todo el proceso es invisible para quien lo experimenta. No se puede notar que la memoria se reescribe, del mismo modo que no se puede percibir el punto ciego de la propia visión.

La implicación práctica no es que debamos desconfiar de toda memoria. Es que debemos tratar la memoria como tratamos cualquier otra forma de evidencia: con un conocimiento de sus modos de fallo conocidos, sus condiciones de fiabilidad y las formas específicas en que puede contaminarse. Los procedimientos policiales deben minimizar la contaminación posterior al evento. Los tribunales deben permitir el testimonio experto sobre la ciencia de la memoria. Los jurados deben recibir instrucciones de que la confianza no es un indicador fiable de exactitud. Y nadie debe ser condenado únicamente sobre la base de un único testimonio ocular.

La ciencia al respecto no es ambigua. Su memoria no es una grabación. Es una historia que su cerebro se cuenta a sí mismo, revisada con cada repetición, y no viene con ninguna advertencia.

Fuentes

¿Ha detectado un error factual? Contáctenos: contact@artoftruth.org

Compartir
Facebook Email