Intemporel 10 min de lecture

Anti-motivated reasoning : pourquoi nous rejetons ce que nous ne voulons pas croire

Cet article a été traduit automatiquement de l'anglais par une IA. Lire la version originale en anglais →
anti-motivated reasoning
🎧 Écouter
Mar 11, 2026

Opinion.

Notre rédaction a forgé le terme anti-motivated reasoning (le raisonnement anti-motivéMécanisme cognitif consistant à chercher activement des failles dans une preuve qui pointe vers une conclusion indésirable, plutôt que de l'évaluer de manière impartiale. : la tendance à rejeter une conclusion non parce que les preuves sont faibles, mais parce que la conclusion elle-même est indésirable) à partir de principes fondamentaux, et il comble une lacune que la psychologie contourne depuis des décennies. La plupart des personnes qui suivent les sciences cognitives connaissent le raisonnement motivé : la tendance à rechercher des preuves en faveur de conclusions que l’on souhaite vraies. Mais il existe une image inversée de ce biais qui mérite son propre nom, car elle opère par un mécanisme distinct et produit des préjudices distincts. L’anti-motivated reasoning est le processus qui consiste à raisonner à rebours d’une conclusion jugée indésirable, non parce que les preuves sont fragiles, mais parce que la conclusion elle-même est malvenue.

La distinction compte. Le raisonnement motivé vous attire vers une croyance préférée. L’anti-motivated reasoning vous repousse loin d’une croyance menaçante. La direction est inversée, et le travail cognitif aussi. Au lieu de chercher des preuves confirmantes, on cherche des défauts disqualifiants dans des preuves déjà examinées. La conclusion vient en premier ; le scepticisme suit.

Comment fonctionne l’anti-motivated reasoning

Le mécanisme est simple une fois qu’on le voit. Une personne rencontre des preuves pointant vers une conclusion qu’elle trouve menaçante, que ce soit pour son identité, sa carrière, sa vision du monde ou simplement son confort. Plutôt que d’évaluer les preuves selon leurs mérites, elle redirige son énergie analytique vers la recherche de raisons pour lesquelles ces preuves doivent être fausses. Le raisonnement est authentique, souvent sophistiqué, et parfois même techniquement correct sur des points précis. Mais la direction avait été choisie avant que l’analyse ne commence.

Les travaux de Dan Kahan sur la cognition identitaire protectrice, menés au sein du Cultural Cognition Project de Yale, décrivent un phénomène étroitement lié : les individus rejettent inconsciemment les preuves qui entrent en conflit avec les croyances dominantes de leur groupe. Ce que ce concept ajoute à ce cadre, c’est une focalisation plus nette sur le mécanisme de rejet lui-même. Il ne s’agit pas simplement de préférer l’information qui nous arrange. C’est que les conclusions gênantes activent un mode spécifique d’examen hostile que les conclusions arrangeantes ne subissent jamais.

Cette asymétrie est la signature du schéma. Elle opère chez les individus comme au sein des institutions. La même personne qui accepte une étude flatteuse sans broncher deviendra soudainement un puriste méthodologique face à une étude dérangeante.

L’industrie sucrière et soixante-dix ans de désinformation

La science de la nutrition offre ce qui est peut-être l’exemple le plus lourd de conséquences d’anti-motivated reasoning à l’échelle institutionnelle. En 2016, des chercheurs de l’UCSF ont publié une analyse historique dans JAMA Internal Medicine révélant que la Sugar Research Foundation avait financé son premier projet de recherche sur les maladies coronariennes en 1965, spécifiquement conçu pour détourner les soupçons du saccharose vers les graisses alimentaires et le cholestérol.

Les documents internes montraient que l’industrie sucrière avait reconnu dès 1954 que les régimes pauvres en graisses augmenteraient la consommation de sucre. La revue de littérature qu’elle avait financée, publiée dans le New England Journal of Medicine, minimisait les preuves liant le saccharose aux maladies cardiaques. La SRF avait défini l’objectif de la revue, contribué des articles à inclure et reçu les brouillons avant publication.

Mais les dégâts allèrent bien au-delà d’une seule revue corrompue. Pendant des décennies, la communauté scientifique en nutrition dans son ensemble a manifesté ce schéma de manière exemplaire. Les preuves incriminant le sucre étaient soumises à un standard plus élevé que celles incriminant les graisses. Les études trouvant des corrélations entre consommation de sucre et maladies cardiaques étaient passées au crible pour leurs facteurs de confusion, tandis que les études incriminant les graisses étaient acceptées plus facilement. La conclusion « le sucre est un moteur majeur des maladies cardiaques » était indésirable, non seulement pour l’industrie finançant la recherche, mais pour tout un establishment scientifique qui avait bâti des carrières, des recommandations alimentaires et des politiques de santé publique autour de l’hypothèse lipidique.

C’est ce qui rend l’anti-motivated reasoning si dangereux dans les cadres institutionnels. Une fois qu’un domaine s’est engagé dans un paradigme, les preuves contre ce paradigme ne reçoivent pas une évaluation neutre. Elles reçoivent une évaluation hostile. Et cette hostilité ressemble à de la rigueur.

La crise de la réplication : quand le miroir s’est brisé

La crise de la réplication en psychologie fournit un autre cas instructif. En 2015, l’Open Science Collaboration a tenté de répliquer 100 études issues de trois grandes revues de psychologie. Les résultats, publiés dans Science, furent dévastateurs : alors que 97 % des études originales rapportaient des résultats statistiquement significatifs, seules 36 % des réplications atteignaient le seuil de significativité. Les effets répliqués étaient, en moyenne, deux fois plus faibles que les originaux.

La réaction initiale d’une partie de l’establishment psychologique fut une démonstration parfaite de ce biais en action. Plutôt que d’affronter la possibilité que de nombreux résultats publiés étaient des faux positifs, certains chercheurs éminents ont dirigé leur énergie analytique vers la recherche de défauts méthodologiques dans les réplications. Les études originales, dont beaucoup avaient des échantillons plus petits et un pré-enregistrementUn engagement public que les chercheurs prennent avant la collecte de données pour spécifier leurs hypothèses, méthodes et plans d'analyse, rendant plus difficile le p-hackingLa pratique d'ajuster les méthodes d'analyse statistique jusqu'à atteindre la significativité (p-value inférieure à 0,05), gonflant les faux positifs sans nécessairement impliquer de fraude intentionnelle. ou la notification sélective. moins rigoureux, furent défendues. Les réplications, qui avaient souvent des échantillons plus larges et des protocoles plus stricts, furent attaquées.

La conclusion « une large part de notre recherche publiée ne se réplique pas » était professionnellement menaçante. Elle impliquait que des carrières avaient été construites sur des résultats qui ne tenaient pas, que des revues avaient publié des travaux peu fiables, que des manuels contenaient des erreurs. L’anti-motivated reasoning offrait un moyen d’éviter cette conclusion : non pas en ignorant les preuves, mais en leur appliquant un examen asymétrique.

À l’honneur de la psychologie, le domaine a fini par affronter le problème. Les pratiques de science ouverte, les rapports enregistrésUn format de journal où les éditeurs et les examinateurs pairs évaluent et approuvent les propositions de recherche avant la collecte de données, s'engageant à publier les résultats quels qu'ils soient. et les normes de pré-enregistrement se sont considérablement améliorés. Mais la résistance initiale illustre comment cette tendance opère même parmi des personnes formées à la méthodologie statistique. L’expertise ne vous immunise pas ; elle vous donne simplement de meilleurs outils pour construire des objections plausibles.

Semmelweis et les médecins gentilshommes

Le cas historique d’Ignaz Semmelweis illustre l’anti-motivated reasoning avec une clarté presque douloureuse. En 1847, Semmelweis observa que la maternité de l’Hôpital général de Vienne tenue par des médecins avait un taux de mortalité par fièvre puerpérale trois fois supérieur à celui de la maternité tenue par des sages-femmes. Il proposa une intervention simple : les médecins devaient se laver les mains avec une solution de chaux chlorée avant d’assister les accouchements. La mortalité chuta d’environ 12-20 % à 1,3 %.

L’establishment médical rejeta ses conclusions. Les raisons avancées étaient variées, parfois contradictoires, mais toujours énergiques. Certains médecins arguaient que les preuves statistiques étaient insuffisantes. D’autres affirmaient que les mains de gentilshommes ne pouvaient transporter de maladies, un argument fondé sur le statut social plutôt que sur la biologie. D’autres encore pointaient l’absence de mécanisme théorique (la théorie des germes ne serait développée que vingt ans plus tard).

Chaque objection avait une certaine plausibilité de surface. Mais le schéma révèle la dynamique sous-jacente : la conclusion « les médecins tuent leurs patientes en ne se lavant pas les mains » était si menaçante sur les plans professionnel et personnel que toutes les ressources intellectuelles disponibles furent mobilisées contre elle. Le phénomène est désormais connu sous le nom de réflexe de Semmelweis, et c’est cette tendance dans sa forme la plus pure.

Le modèle Dreyfus

Ce biais ne se limite pas à la science. L’affaire Dreyfus en France a suivi la même logique à l’échelle nationale. Lorsque des preuves émergèrent montrant que le capitaine Alfred Dreyfus avait été injustement condamné pour trahison, l’establishment militaire français ne les ignora pas simplement. Il construisit activement des raisons de les rejeter. Le véritable espion fut identifié ; l’armée fabriqua des preuves supplémentaires contre Dreyfus plutôt que d’admettre l’erreur. La conclusion « nous avons condamné un innocent et le vrai traître sert toujours » était institutionnellement catastrophique, et l’institution raisonna pour contourner les preuves pendant plus d’une décennie.

Reconnaître l’anti-motivated reasoning

L’anti-motivated reasoning est plus difficile à détecter que son cousin plus célèbre, car il imite la pensée critique authentique. Quand quelqu’un applique un examen intense à une preuve, cela ressemble à de la rigueur intellectuelle. Les questions soulevées peuvent être individuellement légitimes. Le problème n’est pas l’examen en soi, mais l’asymétrie : pourquoi cette conclusion particulière reçoit-elle le traitement médico-légal tandis que d’autres passent sans encombre ?

Quelques questions diagnostiques aident à identifier le schéma en pratique. Premièrement : appliquerais-je ce même niveau de scepticisme si les preuves pointaient dans l’autre direction ? Deuxièmement : suis-je en train d’évaluer les preuves, ou d’évaluer à quel point je veux qu’elles soient fausses ? Troisièmement : si j’écarte les implications de cette conclusion et ne considère que les preuves seules, mon évaluation change-t-elle ?

Ce ne sont pas des questions faciles à poser honnêtement. Ce biais est, par définition, un processus qui ressemble à une pensée claire vu de l’intérieur. La seule défense fiable est institutionnelle : pré-enregistrement, collaboration contradictoire, exigences de réplication, et normes qui récompensent le fait d’avoir raison plutôt que d’être cohérent. La vigilance individuelle aide, mais les structures qui imposent un examen symétrique aident davantage.

Le concept d’anti-motivated reasoning ne nécessite pas de nouvelle psychologie. Il s’appuie sur la cognition identitaire protectrice de Kahan, sur la dissonance cognitive de Festinger, sur des décennies de travaux sur le biais de confirmationTendance à rechercher, interpréter et mémoriser les informations d'une manière qui confirme vos croyances existantes, en ignorant les preuves contradictoires. et ses variantes. Ce qu’il ajoute, c’est un vocabulaire plus clair pour un mode de défaillance spécifique : celui où l’on ne cherche pas des mensonges réconfortants, mais où l’on rejette des vérités inconfortables. La distinction mérite d’être nommée, car la nommer rend le phénomène plus facile à repérer.

Sources

Vous avez repéré une erreur factuelle ? Contactez-nous : contact@artoftruth.org

Partager
Facebook Email