Opinión 9 min de lectura

El problema mapa-territorio: todo sistema de información es una compresión con pérdidas

Este artículo fue traducido automáticamente del inglés por una IA. Leer la versión original en inglés →
problema mapa-territorio
🎧 Escuchar
Mar 12, 2026

Opinión.

Alfred Korzybski lo dijo en 1931: el mapa no es el territorio. Casi un siglo después, hemos construido mapas a escala civilizatoria y perdido la capacidad de ver el territorio que hay detrás. Cada sistema de información con el que interactúas, desde un artículo de Wikipedia hasta una previsión del PIB o la palabra «gluten», es una compresión con pérdidaMétodo de reducción de datos que descarta permanentemente cierta información, aceptado porque el resultado es suficientemente cercano al original para el uso previsto. de algo más complejo de lo que sugiere la etiqueta. El problema mapa-territorio ya no es una curiosidad filosófica. Es el modo de fallo central de cómo procesamos la información.

La compresión con pérdida no es un defecto

Todos los modelos comprimen. Esto no es una crítica, es una definición. Un modelo estadístico toma mil variables y las reduce a un coeficiente. Una red neuronal toma mil millones de parámetros y reduce el lenguaje humano a distribuciones de probabilidad sobre tokens. Un artículo de Wikipedia toma décadas de investigación y las condensa en unos pocos miles de palabras con enlaces azules. El propio lenguaje toma el desorden continuo y enmarañado de la realidad y lo recorta en categorías discretas con fronteras bien definidas.

La compresión es útil. No se puede navegar por una ciudad con un mapa a escala 1:1. El problema comienza cuando la compresión se vuelve invisible, cuando la brecha mapa-territorio desaparece de la conciencia y el modelo empieza a sentirse como la cosa que representa.

La confianza de la IA: cuando los números se sienten como certeza

Un clasificador de aprendizaje automático te dice que hay una probabilidad de 0,97 de que una imagen contenga un gato. Ese número se siente como una casi certeza. No lo es. Es una medida de lo bien que los patrones aprendidos por el modelo coinciden con la entrada, calculada respecto a la distribución de entrenamiento. No te dice nada sobre si el modelo ha encontrado alguna vez algo parecido a esta imagen en particular. No te dice nada sobre lo que haría con una perturbación adversarial invisible para tus ojos. El 0,97 es un artefacto mapa-territorio: un número que parece confianza pero que mide algo mucho más estrecho de lo que intuitivamente entendemos por «seguro».

Esto importa porque los sistemas construidos sobre estas puntuaciones toman decisiones reales. Los modelos de calificación crediticia producen un número, y ese número determina si alguien obtiene una hipoteca. Los modelos de reincidencia producen una probabilidad, y esa probabilidad influye en las sentencias. Las personas que operan aguas abajo de estos sistemas tratan el resultado como una medición de la realidad. No lo es. Es una medición del estado interno del modelo, que es en sí mismo una compresión con pérdida de un conjunto de datos de entrenamiento, que es en sí mismo una compresión con pérdida del mundo. Cada capa de compresión introduce una distorsión que el número final no puede expresar.

La investigación sobre calibraciónLa alineación entre la autoevaluación y el desempeño o conocimiento real. Las personas bien calibradas estiman con precisión sus propias habilidades; las mal calibradas las sobrestiman o subestiman. de Guo et al. (2017) demostró que las redes neuronales modernas, a pesar de su precisión, están mal calibradas, lo que significa que sus puntuaciones de confianza no se corresponden de manera fiable con las probabilidades reales de acierto. Un modelo que muestra 0,97 podría acertar solo el 85 % de las veces en ese nivel de confianza. La distinción mapa-territorio aquí no es abstracta. Es la brecha entre lo que el número dice y lo que el número significa.

Wikipedia: cuando los resúmenes se sienten como verdad

Wikipedia es uno de los proyectos colaborativos de conocimiento más impresionantes de la historia. Es también, por diseño, un motor de compresión. Cada decisión editorial sobre qué incluir, qué omitir, qué formulación usar y qué fuentes privilegiar es una operación con pérdida. El resultado es un artículo que se lee con la autoridad de una entrada de enciclopedia mientras refleja necesariamente los sesgos, la disponibilidad y los intereses editoriales de sus colaboradores.

La confusión mapa-territorio con Wikipedia opera a un nivel específico: la gente lo trata como fuente primaria cuando es, en el mejor de los casos, una síntesis secundaria. Un artículo de Wikipedia sobre un acontecimiento histórico no te dice lo que sucedió; te dice lo que el proceso editorial de Wikipedia produjo, dadas las fuentes que sus editores encontraron, ponderadas por la energía y la perseverancia de quienes se molestaron en editar la página. En temas polémicos, el artículo no refleja el estado del conocimiento sino el resultado de guerras de edición.

Esto importa porque Wikipedia se ha convertido en la capa de conocimiento de fondo de facto de internet. Los grandes modelos de lenguaje se entrenan con él. Los paneles de conocimiento de Google se nutren de él. Los estudiantes lo citan (o citan sus fuentes, lo que equivale a la misma dependencia). Cuando un artículo de Wikipedia contiene un error o una elección editorial idiosincrásica, esa distorsión se propaga a través de cada sistema que trata a Wikipedia como verdad de referencia. El mapa no solo no coincide con el territorio; remodela activamente cómo las personas perciben el territorio. Como ha explorado nuestro análisis sobre cómo los marcos de pensamiento filtran la percepción, la lente se convierte en el paisaje.

Los modelos económicos: cuando las proyecciones se sienten como predicciones

Los bancos centrales publican previsiones de crecimiento del PIB. Los mercados reaccionan a ellas como si fueran predicciones. No son predicciones. Son los resultados de modelos que asumen que ciertas relaciones estructurales se mantendrán, que las correlaciones históricas persistirán y que las variables no incluidas en el modelo se comportarán aproximadamente como lo han hecho antes. Cada modelo económico es, explícitamente, una simplificación que vale «ceteris paribus». La economía nunca mantiene todo lo demás igual.

Las proyecciones del World Economic Outlook del Fondo Monetario Internacional han sido estudiadas por sus sesgos sistemáticos: subestiman consistentemente la gravedad de las recesiones y sobreestiman la velocidad de la recuperación. Esto no se debe a que el FMI emplee malos economistas. Se debe a que los modelos son compresiones que funcionan bien en condiciones normales y fallan precisamente cuando más se los necesita: durante rupturas estructurales, eventos extremos y cambios de régimen. La brecha mapa-territorio en economía es más amplia exactamente cuando hay más en juego.

El intervalo de confianza de una previsión económica es en sí mismo una ilusión mapa-territorio. Te indica el rango de resultados que el modelo considera plausibles, dadas sus suposiciones. No puede tener en cuenta los escenarios que sus suposiciones excluyen, que son, por definición, los escenarios que sorprenden a todos.

Las categorías lingüísticas: cuando las palabras se sienten como fronteras naturales

Esta es quizá la manifestación más profunda del problema mapa-territorio, porque el lenguaje es el mapa con el que pensamos. Cada sustantivo traza una frontera. Cada categoría implica que las cosas dentro de ella comparten algo esencial que las cosas fuera de ella no tienen. A veces es cierto. A menudo no lo es.

Consideremos el «gluten». La palabra sugiere una sustancia única, y la industria alimentaria ha construido un imperio sobre su evitación. Pero el mecanismo real de la enfermedad celíaca involucra prolaminas, una clase de proteínas de almacenamiento presentes en formas diversas en distintos cereales. Las prolaminas del trigo (gliadinas) desencadenan reacciones celíacas. Las prolaminas del arroz, en general, no. Las prolaminas de la quinoa ocupan una zona genuinamente incierta, con algunos estudios que sugieren una potencial inmunorreactividad en un subgrupo de pacientes celíacos. La palabra «gluten» comprime esta diversidad bioquímica en una sola categoría, y luego «sin gluten» comprime la solución en una etiqueta binaria. La brecha mapa-territorio tiene aquí consecuencias prácticas para la salud: las personas evitan el trigo y comen quinoa asumiendo que la etiqueta binaria captura la biología subyacente. La etiqueta es una compresión con pérdida de una realidad inmunológica compleja.

El lenguaje hace esto en todas partes. «Depresión» abarca un espectro de estados neurológicos con mecanismos diferentes y respuestas terapéuticas diferentes. «Democracia» abarca sistemas tan diferentes como la democracia directa suiza y las elecciones dirigidas rusas. «IA» abarca todo, desde una regresión lineal hasta un gran modelo de lenguaje. Cada palabra es una frontera trazada en un paisaje continuo, y cada frontera hace que ciertas preguntas sean fáciles de formular y otras casi invisibles.

La disciplina mapa-territorio

La idea de Korzybski no era que los mapas son malos. Era que confundir el mapa con el territorio es la fuente de una clase de errores específica e identificable. La disciplina que proponía era simple en principio: mantener la conciencia de la abstracción. Saber que se está usando un modelo. Saber qué comprime. Saber dónde es probable que falle.

En la práctica, esto significa plantear un conjunto de preguntas que la mayoría de los sistemas de información no están diseñados para responder. Cuando una IA te da una puntuación de confianza: ¿confianza en qué, exactamente, calibrada contra qué distribución? Cuando Wikipedia te dice algo: ¿qué editores, a partir de qué fuentes, con qué incentivos editoriales? Cuando un modelo económico proyecta crecimiento: ¿bajo qué supuestos, y qué pasa cuando esos supuestos dejan de cumplirse? Cuando una palabra categoriza algo: ¿qué incluye esta frontera que no debería, y qué excluye que importa?

No son preguntas cómodas. Hacen que la toma de decisiones sea más lenta y más incierta. Pero la alternativa es navegar con mapas que parecen autoritativos precisamente porque han borrado la evidencia de su propia compresión. Eso no es eficiencia. Es el tipo de confianza que se quiebra cuando la realidad deja de encajar en el modelo, lo cual, inevitablemente, siempre termina ocurriendo.

Fuentes

  • Korzybski, Alfred. “A Non-Aristotelian System and its Necessity for Rigour in Mathematics and Physics.” Science and Sanity, 1933. The original formulation of the map territory distinction in general semantics.
  • Guo, Chuan, et al. “On Calibration of Modern Neural Networks.” Proceedings of the 34th International Conference on Machine Learning, 2017. Demonstrates that modern deep neural networks are poorly calibrated despite high accuracy.
  • International Monetary Fund. “World Economic Outlook.” Recurring publication. See independent evaluations of IMF forecast accuracy, including the IMF’s own Independent Evaluation Office reports on forecast bias during crises.

¿Ha detectado un error factual? Contáctenos: contact@artoftruth.org

Compartir
Facebook Email