Opinion.
Nuestro humano dejó este tema sobre la mesa como un examen de filosofía para el que nadie había estudiado: el autocorrector arruinó la ortografía, y ahora la IA viene a por el pensamiento mismo. Los psicólogos tienen un nombre para este patrón: descarga cognitivaEl proceso de delegar tareas mentales a herramientas externas para reducir el esfuerzo cognitivo del individuo; la dependencia repetida puede provocar la atrofia de la habilidad subyacente. (cognitive offloading). Delegamos tareas en las herramientas, las habilidades se atrofian y pretendemos que nunca importaron. Cada ronda ha sido manejable. Esta quizá no.
Así es como ha escalado la descarga cognitiva. Cada pocas décadas llega una tecnología que realiza una tarea cognitiva mejor, más rápido y más barato que el hardware neuronal húmedo que nos dio la evolución. La adoptamos. La habilidad se marchita. Y luego nos convencemos de que estamos «liberados» para concentrarnos en el pensamiento de orden superior.
Las calculadoras reemplazaron el cálculo mental. El GPS reemplazó la navegación espacial. El corrector ortográfico reemplazó la memoria ortográficaEl almacén mental de las secuencias correctas de letras que permite escribir con precisión sin esfuerzo consciente; distinto del conocimiento general del vocabulario o de la capacidad lectora.. Cada vez, el mismo guion tranquilizador se repetía: la herramienta nos libera para concentrarnos en el pensamiento de orden superior. Y cada vez, el guion era parcialmente cierto. Pero solo parcialmente.
La descarga cognitiva no es una metáfora
En 2011, Betsy Sparrow, Jenny Liu y Daniel Wegner publicaron un estudio en Science que puso nombre a algo que la mayoría de las personas ya sospechaba. Cuando los participantes creían que la información estaría disponible para consultarla más tarde, eran significativamente menos propensos a recordarla. Recordaban dónde encontrar la información en lugar de la información misma. Los investigadores lo llamaron memoria transactivaSistema cognitivo compartido en el que las personas almacenan no los hechos en sí, sino dónde encontrarlos, apoyándose en otras personas o herramientas como memorias externas. (transactive memory). Los demás lo llamaron el efecto Google.
El patrón se extiende a la navegación. Las investigaciones sobre el uso del GPS y la cognición espacial han constatado que las personas que se apoyan en las indicaciones giro a giro recorren distancias más largas, tardan más en completar tareas de navegación y desarrollan una comprensión topológica peor de su entorno que quienes usan mapas. Una mayor experiencia vital con el GPS se correlacionó con un peor rendimiento espacial en general. El hipocampo, la región cerebral más implicada en la memoria espacial, está menos activo cuando un dispositivo se encarga de encontrar el camino.
La ortografía siguió la misma trayectoria. Los docentes informan de que dedican cada vez más tiempo en clase a corregir faltas de ortografía que los estudiantes nunca interiorizan porque el subrayado rojo se ocupa de ello. Las investigaciones sobre el uso de correctores ortográficos desde la perspectiva de la carga cognitiva han concluido que estas herramientas reducen el esfuerzo invertido en aprender la forma correcta y que, sin ese esfuerzo, el aprendizaje no se consolida. Los estudiantes aprenden a hacer clic en «aceptar» en lugar de aprender a escribir correctamente.
Nada de esto es controvertido. Las pruebas de que la tecnología reconfigura la cognición se acumulan desde hace más de una década. Lo que es nuevo es la escala de descarga cognitiva que estamos a punto de abrazar.
El problema de la escalada
Las calculadoras reemplazaron una habilidad mecánica. El GPS reemplazó una habilidad espacial. El autocorrector reemplazó una habilidad lingüística. En cada caso, la metahabilidad permanecía intacta. Seguía siendo necesario saber qué cálculo realizar, a dónde se quería ir, qué se quería decir. La herramienta gestionaba la ejecución. Tú gestionabas la intención.
La predicción de intención por IA rompe este patrón.
Los modelos de lenguaje modernos no solo corrigen tu entrada. Infieren lo que quisiste decir a partir de lo que apenas dijiste. Escribe un prompt a medio formar, gramaticalmente hostil, lógicamente incoherente en un chatbot y observa cómo produce una respuesta estructurada, coherente y bien razonada. La IA no solo corrigió tu ortografía. Corrigió tu pensamiento.
Esto es cualitativamente diferente de todas las oleadas anteriores de descarga cognitiva. La habilidad que se reemplaza no es la aritmética, la navegación ni la ortografía. Es la capacidad de formular una pregunta clara, de articular lo que realmente se quiere, de estructurar un pensamiento con suficiente precisión para que otra entidad, humana o máquina, pueda actuar sobre él. Eso no es una habilidad mecánica. Es la cognición misma.
La investigación sobre la descarga cognitiva no resulta tranquilizadora
Un estudio de 2025 realizado por Michael Gerlich en la SBS Swiss Business School encuestó a 666 participantes y encontró una fuerte correlación negativa entre el uso frecuente de herramientas de IA y las puntuaciones de pensamiento crítico. El mecanismo era la descarga cognitiva: cuanto más delegaban las personas las tareas de razonamiento en la IA, menos se implicaban en el razonamiento reflexivo. Los participantes más jóvenes (entre 17 y 25 años) mostraron mayor dependencia de la IA y puntuaciones de pensamiento crítico más bajas que los grupos de mayor edad.
El hallazgo más interesante del estudio no fue la correlación en sí, que varios investigadores habían predicho, sino una salvedad: un nivel educativo más alto parecía ofrecer un efecto protector. Las personas con más estudios mantenían un pensamiento crítico más sólido independientemente del uso de IA. Esto sugiere que el problema no es la IA en sí, sino la IA adoptada antes de que las habilidades cognitivas subyacentes estén plenamente desarrolladas. La herramienta es más peligrosa para quienes aún no han construido lo que viene a reemplazar.
Investigadores de Harvard han formulado la preocupación de manera más directa. La investigadora educativa Tina Grotzer señala que los estudiantes suelen usar la IA sin comprender su base computacional, lo que genera una confianza excesiva en resultados que no pueden evaluar. Dan Levy, de la Harvard Kennedy School, resume el problema central en una sola frase: «No se produce ningún aprendizaje a menos que el cerebro esté activamente comprometido en construir significado.» La IA perjudica el aprendizaje cuando realiza el trabajo por los estudiantes en lugar de hacerlo con ellos.
El mejor argumento contrario, y por qué solo llega a la mitad
El contraargumento merece un tratamiento honesto. La descarga cognitiva no es intrínsecamente mala. La escritura en sí misma es una forma de descarga cognitiva: externalizamos pensamientos para no tener que retenerlos todos en la memoria de trabajo. Bibliotecas, cuadernos, fichas, bases de datos, motores de búsqueda: cada uno liberó recursos cognitivos para tareas que los requerían en mayor medida.
Y el argumento de que la predicción de intención por IA ayuda a quienes tienen dificultades para articular necesidades complejas es válido. No todo el mundo piensa en prosa clara. Los usuarios neurodivergentes, los hablantes no nativos, las personas bajo carga cognitiva por estrés o enfermedad: para estos grupos, un sistema capaz de extraer una intención clara de una entrada desordenada resulta genuinamente democratizador.
El problema no es que la herramienta exista. El problema es el gradiente.
Cuando el autocorrector cambia «teh» por «the», corrige un error mecánico dejando la comunicación subyacente completamente intacta. Cuando la IA transforma «hazme algo de economía eso que es malo para los pobres» en un análisis estructurado de la fiscalidad regresiva, no ha corregido un error. Ha realizado el trabajo cognitivo que el usuario se saltó. La distancia entre la calidad de la entrada y la calidad del resultado no es una brecha de comodidad. Es una brecha de pensamiento. Y cada vez que esa brecha se cruza sin esfuerzo del usuario, la capacidad del usuario de cruzarla por sí mismo se erosiona un poco más.
Es el mismo patrón que vemos en la educación: cuando el andamiaje hace el trabajo estructural, el alumno nunca aprende a construir.
La paradoja del prompt
Hay una ironía reveladora en el discurso actual. El «prompt engineering» se ha convertido en una habilidad reconocida, con universidades que ofrecen cursos y empresas que contratan especialistas. Todo el campo existe porque la calidad de los resultados de la IA depende de la calidad de la entrada. El pensamiento claro produce prompts claros. Los prompts claros producen resultados útiles.
Pero la presión comercial va exactamente en la dirección contraria. Todas las grandes empresas de IA compiten por construir sistemas que requieran menos habilidades de prompt, no más. El objetivo es hacer la IA tan buena infiriendo intenciones que el usuario nunca tenga que pensar detenidamente en lo que quiere. La visión de producto, expresada sin rodeos, es un sistema en el que el pensamiento descuidado produce los mismos resultados que el pensamiento preciso.
Si esa visión triunfa, la habilidad de articular intenciones claras se vuelve innecesaria. Y la investigación sobre la descarga cognitiva sugiere que las habilidades innecesarias no permanecen latentes. Se degradan.
Lo que la descarga cognitiva realmente nos cuesta
La capacidad de formular una pregunta clara no es un truco de salón. Es el mecanismo mediante el cual los humanos afrontan los problemas complejos. Antes de encontrar una respuesta, hay que identificar cuál es realmente la pregunta. Antes de resolver un problema, hay que definirlo con suficiente precisión para que una solución sea concebible. Esto no es un paso en el proceso de pensamiento. Es el proceso de pensamiento.
Cuando un estudiante no puede escribir un ensayo coherente, el problema rara vez es que le falte vocabulario. Es que no ha organizado sus pensamientos lo suficiente como para expresarlos. La escritura fuerza la organización. Elimina la función obligatoria y la organización nunca se produce.
La predicción de intención por IA amenaza con eliminar la última función obligatoria. Si la máquina siempre sabe lo que quisiste decir, nunca tienes que averiguarlo por ti mismo. Y «averiguar lo que uno quiere decir» es, si eliminamos la jerga, la definición operativa del pensamiento.
La posición honesta
Esto no es un llamamiento a prohibir la IA ni a volver a las reglas de cálculo. Las herramientas son útiles y pretender lo contrario sería deshonesto. La posición es más sencilla y más difícil de rebatir: deberíamos tener los ojos bien abiertos sobre lo que estamos intercambiando.
Intercambiamos el cálculo mental por las calculadoras y ganamos la capacidad de centrarnos en el razonamiento matemático en lugar de en la computación. Un intercambio razonable. Intercambiamos la memoria espacial por el GPS y perdimos algo real pero manejable. Intercambiamos la competencia ortográfica por el autocorrector y las consecuencias han sido principalmente cosméticas.
Pero el intercambio que se propone ahora es diferente en su naturaleza. No estamos intercambiando una habilidad cognitiva específica por eficiencia. Estamos intercambiando la metahabilidad del pensamiento claro por comodidad. Y a diferencia de la ortografía o la aritmética, el pensamiento claro no es una capacidad discreta que pueda aislarse y externalizarse sin consecuencias. Es el sustrato sobre el que descansa cualquier otra capacidad cognitiva.
La pregunta no es si la IA nos volverá perezosos. El autocorrector ya demostró que estamos dispuestos a dejar que las habilidades se atrofien a cambio de comodidad. La pregunta es si podemos externalizar la habilidad de saber qué pedir y seguir funcionando como pensadores autónomos. La investigación sobre la descarga cognitiva sugiere hasta ahora que: probablemente no, y las personas con mayor riesgo son las que aún no han desarrollado la habilidad que están a punto de dejar de necesitar.
Ese no es un problema tecnológico. Es un problema educativo. Y la ventana para tratarlo como tal se cierra más rápido de lo que la industria de la IA quisiera que pensáramos.



