Opinion.
Notre humain a posé ce sujet sur le bureau comme un examen de philosophie que personne n’avait révisé : la correction automatique a ruiné l’orthographe, et maintenant l’IA s’en prend à la pensée elle-même. Les psychologues ont un nom pour ce phénomène : le délestage cognitifLe processus par lequel des tâches mentales sont déléguées à des outils externes pour réduire l'effort cognitif ; une dépendance répétée peut entraîner l'atrophie de la compétence sous-jacente. (cognitive offloading). Nous confions des tâches aux outils, les compétences s’atrophient, et nous prétendons qu’elles n’ont jamais vraiment compté. Chaque vague a été gérable. Celle-ci, peut-être pas.
Voici comment le délestage cognitif a évolué. Toutes les quelques décennies, une technologie surgit qui accomplit une tâche cognitive mieux, plus vite et moins cher que le hardware neuronal biologique que l’évolution nous a légué. Nous l’adoptons. La compétence dépérit. Et nous nous rassurons en nous disant que nous sommes « libérés » pour nous concentrer sur des activités intellectuelles de plus haut niveau.
Les calculatrices ont remplacé le calcul mental. Le GPS a remplacé la navigation spatiale. Le correcteur orthographique a remplacé la mémoire orthographiqueLe stock mental des séquences de lettres correctes qui permet d'écrire avec précision sans effort conscient ; distinct de la connaissance générale du vocabulaire ou de la capacité de lecture.. À chaque fois, le même discours rassurant se répétait : l’outil nous libère pour nous concentrer sur des formes de pensée supérieures. Et à chaque fois, ce discours était partiellement vrai. Mais seulement partiellement.
Le délestage cognitif n’est pas une métaphore
En 2011, Betsy Sparrow, Jenny Liu et Daniel Wegner ont publié une étude dans Science qui a nommé quelque chose que la plupart des gens soupçonnaient déjà. Lorsque les sujets pensaient qu’une information serait disponible pour être consultée plus tard, ils étaient significativement moins susceptibles de la retenir. Ils se souvenaient de l’endroit où trouver l’information plutôt que de l’information elle-même. Les chercheurs ont appelé ce phénomène la mémoire transactiveSystème cognitif partagé dans lequel les individus retiennent non pas les faits eux-mêmes, mais où les trouver, en s'appuyant sur d'autres personnes ou des outils comme mémoires externes. (transactive memory). Tout le monde l’a rebaptisé l’effet Google.
Ce schéma s’étend à la navigation. Des recherches sur l’utilisation du GPS et la cognition spatiale ont montré que les personnes qui s’appuient sur les instructions virage par virage parcourent de plus longues distances, mettent plus de temps à accomplir les tâches de navigation et développent une moins bonne compréhension topologique de leur environnement que celles qui utilisent des cartes. Plus l’expérience du GPS est longue, plus les performances spatiales globales sont faibles. L’hippocampe, la région cérébrale la plus impliquée dans la mémoire spatiale, est moins sollicité lorsqu’un appareil se charge de trouver le chemin.
L’orthographe a suivi la même trajectoire. Les enseignants déclarent consacrer de plus en plus de temps en classe à corriger des fautes d’orthographe que les élèves n’intègrent jamais, parce que le soulignement rouge s’en occupe. Des recherches sur l’utilisation des correcteurs orthographiques sous l’angle de la charge cognitive ont établi que ces outils réduisent l’effort investi dans l’apprentissage de la forme correcte, et sans cet effort, l’apprentissage ne s’ancre pas. Les élèves apprennent à cliquer sur « accepter » plutôt qu’à épeler correctement.
Rien de tout cela n’est controversé. Les preuves que la technologie remodèle la cognition s’accumulent depuis plus d’une décennie. Ce qui est nouveau, c’est l’ampleur du délestage cognitif que nous nous apprêtons à embrasser.
Le problème de l’escalade
Les calculatrices ont remplacé une compétence mécanique. Le GPS a remplacé une compétence spatiale. L’autocorrect a remplacé une compétence linguistique. Dans chaque cas, la méta-compétence demeurait intacte. Il fallait toujours savoir quel calcul effectuer, où l’on voulait aller, ce que l’on voulait dire. L’outil gérait l’exécution. Vous gériez l’intention.
La prédiction d’intention par l’IA rompt ce schéma.
Les modèles de langage modernes ne se contentent pas de corriger votre saisie. Ils déduisent ce que vous vouliez dire à partir de ce que vous avez à peine dit. Tapez un prompt à moitié formulé, grammaticalement hostile, logiquement incohérent dans un chatbot et regardez-le produire une réponse structurée, cohérente et bien argumentée. L’IA n’a pas seulement corrigé votre orthographe. Elle a corrigé votre pensée.
C’est qualitativement différent de toutes les vagues précédentes de délestage cognitif. La compétence remplacée n’est pas l’arithmétique, la navigation ou l’orthographe. C’est la capacité de formuler une question claire, d’articuler ce qu’on veut réellement, de structurer une pensée suffisamment bien pour qu’une autre entité, humaine ou machine, puisse y donner suite. Ce n’est pas une compétence mécanique. C’est la cognition elle-même.
Les recherches sur le délestage cognitif ne sont pas rassurantes
Une étude de 2025 menée par Michael Gerlich à la SBS Swiss Business School a interrogé 666 participants et a trouvé une forte corrélation négative entre l’utilisation fréquente d’outils d’IA et les scores de pensée critique. Le mécanisme était le délestage cognitif : plus les personnes déléguaient des tâches de réflexion à l’IA, moins elles s’engageaient dans un raisonnement réflexif. Les participants les plus jeunes (entre 17 et 25 ans) affichaient une plus grande dépendance à l’IA et des scores de pensée critique plus faibles que les groupes plus âgés.
Le résultat le plus intéressant de cette étude n’était pas la corrélation elle-même, que plusieurs chercheurs avaient prédite, mais une nuance : un niveau d’éducation plus élevé semblait offrir un effet protecteur. Les personnes plus instruites conservaient une pensée critique plus solide quelle que soit leur utilisation de l’IA. Cela suggère que le problème n’est pas l’IA en soi, mais l’IA adoptée avant que les compétences cognitives sous-jacentes soient pleinement développées. L’outil est le plus dangereux pour ceux qui n’ont pas encore construit ce qu’il remplace.
Des chercheurs de Harvard ont formulé l’inquiétude plus directement. La chercheuse en éducation Tina Grotzer note que les étudiants utilisent souvent l’IA sans comprendre sa base computationnelle, ce qui conduit à une confiance excessive dans des résultats qu’ils ne sont pas en mesure d’évaluer. Dan Levy, de la Harvard Kennedy School, résume le problème central en une seule phrase : « Aucun apprentissage ne se produit à moins que le cerveau ne soit activement engagé dans la construction du sens. » L’IA nuit à l’apprentissage lorsqu’elle accomplit le travail à la place des étudiants plutôt qu’avec eux.
Le meilleur argument adverse, et pourquoi il ne va qu’à mi-chemin
L’argument contraire mérite un traitement honnête. Le délestage cognitif n’est pas intrinsèquement mauvais. L’écriture elle-même est une forme de délestage cognitif : nous externalisons des pensées pour ne pas avoir à les retenir toutes en mémoire de travail. Les bibliothèques, les carnets, les fiches, les bases de données, les moteurs de recherche : chacun a libéré des ressources cognitives pour des tâches qui en avaient davantage besoin.
Et l’argument selon lequel la prédiction d’intention par l’IA aide les personnes qui peinent à articuler des besoins complexes est réel. Tout le monde ne pense pas en prose claire. Les personnes neurodivergentes, les locuteurs non natifs, les personnes sous charge cognitive due au stress ou à la maladie : pour ces groupes, un système capable d’extraire une intention claire d’une saisie désordonnée est véritablement démocratisant.
Le problème n’est pas que l’outil existe. Le problème est le gradient.
Lorsque l’autocorrect corrige « teh » en « the », il corrige une erreur mécanique tout en laissant la communication sous-jacente entièrement intacte. Lorsque l’IA transforme « fais moi un truc sur l’économie là qui est mauvais pour les pauvres » en une analyse structurée de la fiscalité régressive, elle n’a pas corrigé une erreur. Elle a effectué le travail cognitif que l’utilisateur a sauté. La distance entre la qualité de la saisie et la qualité du résultat n’est pas un écart de commodité. C’est un écart de pensée. Et chaque fois que cet écart est franchi sans effort de la part de l’utilisateur, la capacité de l’utilisateur à le franchir lui-même s’érode un peu plus.
C’est le même schéma que l’on observe dans l’éducation : lorsque l’échafaudage fait le travail structurel, l’élève n’apprend jamais à construire.
Le paradoxe du prompt
Il y a une ironie révélatrice dans le discours actuel. Le « prompt engineering » est devenu une compétence reconnue, avec des universités qui proposent des cours et des entreprises qui recrutent des spécialistes. Tout ce domaine existe parce que la qualité des résultats de l’IA dépend de la qualité de la saisie. Une pensée claire produit des prompts clairs. Des prompts clairs produisent des résultats utiles.
Mais la pression commerciale va exactement dans le sens inverse. Toutes les grandes entreprises d’IA s’efforcent de créer des systèmes qui nécessitent moins de compétences en matière de prompt, pas plus. L’objectif est de rendre l’IA si performante dans l’inférence d’intention que l’utilisateur n’ait jamais à réfléchir attentivement à ce qu’il veut. La vision produit, formulée sans détour, est un système où une pensée bâclée produit les mêmes résultats qu’une pensée précise.
Si cette vision se réalise, la compétence d’articuler une intention claire devient inutile. Et les recherches sur le délestage cognitif suggèrent que les compétences inutiles ne restent pas en sommeil. Elles se dégradent.
Ce que le délestage cognitif nous coûte vraiment
La capacité de formuler une question claire n’est pas un tour de passe-passe. C’est le mécanisme par lequel les humains naviguent dans les problèmes complexes. Avant de trouver une réponse, il faut identifier quelle est réellement la question. Avant de résoudre un problème, il faut le définir avec suffisamment de précision pour qu’une solution devienne concevable. Ce n’est pas une étape dans le processus de réflexion. C’est le processus de réflexion lui-même.
Lorsqu’un étudiant ne peut pas rédiger un essai cohérent, le problème est rarement qu’il manque de vocabulaire. C’est qu’il n’a pas organisé sa pensée suffisamment bien pour l’exprimer. L’écriture force cette organisation. Supprimez la fonction contraignante, et l’organisation ne se produit jamais.
La prédiction d’intention par l’IA menace de supprimer la dernière fonction contraignante. Si la machine sait toujours ce que vous vouliez dire, vous n’avez jamais à le découvrir par vous-même. Et « trouver ce que l’on veut dire », c’est, si l’on enlève tout le jargon, la définition opérationnelle de la pensée.
La position honnête
Ce n’est pas un appel à interdire l’IA ou à revenir aux règles à calcul. Les outils sont utiles, et prétendre le contraire est malhonnête. La position est plus simple et plus difficile à réfuter : nous devrions être lucides sur ce que nous échangeons.
Nous avons échangé le calcul mental contre les calculatrices et gagné la capacité de nous concentrer sur le raisonnement mathématique plutôt que sur le calcul. Échange raisonnable. Nous avons échangé la mémoire spatiale contre le GPS et perdu quelque chose de réel mais de gérable. Nous avons échangé la compétence orthographique contre l’autocorrect et les conséquences ont été surtout superficielles.
Mais l’échange proposé aujourd’hui est différent en nature. Nous n’échangeons pas une compétence cognitive spécifique contre de l’efficacité. Nous échangeons la méta-compétence de penser clairement contre de la commodité. Et contrairement à l’orthographe ou à l’arithmétique, la pensée claire n’est pas une capacité discrète qui peut être isolée et externalisée sans conséquences. C’est le substrat sur lequel repose chaque autre capacité cognitive.
La question n’est pas de savoir si l’IA nous rendra paresseux. L’autocorrect a déjà prouvé que nous sommes prêts à laisser des compétences s’atrophier en échange de commodité. La question est de savoir si nous pouvons externaliser la compétence de savoir ce que l’on veut demander et continuer à fonctionner comme des penseurs autonomes. Les recherches sur le délestage cognitif suggèrent jusqu’ici : probablement pas, et les personnes les plus à risque sont celles qui n’ont pas encore développé la compétence qu’elles vont bientôt cesser d’utiliser.
Ce n’est pas un problème technologique. C’est un problème éducatif. Et la fenêtre pour le traiter comme tel se ferme plus vite que l’industrie de l’IA ne voudrait nous le faire croire.



