Opinion 16 min de lecture

La Psychologie de la Radicalisation Numérique : Comment les Algorithmes de Recommandation Imitent les Mécanismes de Recrutement des Sectes

Cet article a été traduit automatiquement de l'anglais par une IA. Lire la version originale en anglais →
Visualisation abstraite de la psychologie de la radicalisation numérique via les flux algorithmiques
🎧 Écouter
Apr 14, 2026
Mode de lecture

Les tactiques que les sectes utilisent pour recruter et contrôler leurs membres ont été étudiées pendant des décennies. Isolement des perspectives extérieures. Contrôle des informations qui parviennent à une personne. Création d’une dépendance émotionnelle. Suppression de la pensée critique. Ces techniques fonctionnent parce qu’elles exploitent des vulnérabilités fondamentales de la psychologie humaine. Ce que les chercheurs reconnaissent maintenant, c’est que les algorithmes de recommandation des plateformes de médias sociaux peuvent produire des effets étonnamment similaires, même sans aucun recruteur humain tirant les ficelles. L’étude de la psychologie de la radicalisation numérique révèle une vérité troublante : les mêmes mécanismes qui rendent les sectes efficaces sont intégrés dans la conception de votre fil d’actualité.

Cela ne signifie pas que les ingénieurs de la Silicon Valley se sont assis et ont étudié les manuels de sectes. Le parallèle a émergé d’un impératif plus simple : maximiser l’engagement. Mais l’optimisation de l’engagement, poursuivie sans relâche par l’apprentissage automatique, a convergé de manière indépendante vers des techniques que les psychologues ont longtemps identifiées comme des outils d’influence indue. Comprendre la psychologie de la radicalisation numérique nécessite de saisir cette convergence entre les tactiques de manipulation ancestrales et la conception algorithmique moderne.

Le Modèle BITEUn cadre développé par le chercheur Steven Hassan qui catégorise les tactiques de manipulation psychologique en contrôle du Comportement, de l'Information, de la Pensée et Émotionnel. Rencontre l’Algorithme

Dans les années 1980, le chercheur spécialisé dans les sectes Steven Hassan a développé le modèle BITE pour décrire comment les groupes destructeurs maintiennent le contrôle sur leurs membres. BITE signifie Behavior (Comportement), Information, Thought (Pensée) et Emotional (Émotionnel) control[s]. Le modèle s’appuie sur les recherches des psychiatres Robert Jay Lifton et Louis Jolyon West, qui ont étudié les techniques de lavage de cerveau utilisées dans les régimes totalitaires[s]. Chaque composant cible un aspect différent de la façon dont les humains traitent la réalité et prennent des décisions.

Les algorithmes de recommandation touchent les quatre composants. Ils façonnent le comportement en déterminant quel contenu apparaît et quand, créant des schémasCadres mentaux de représentations compressées et d'attentes que le cerveau utilise pour encoder, stocker et récupérer les informations. Lorsque vous vous souvenez de quelque chose, votre cerveau la reconstruit en utilisant des schémas plus tous les indices contextuels présents. de vérification compulsive. Ils contrôlent l’information en filtrant ce qui atteint les utilisateurs et ce qui est supprimé. Ils influencent la pensée en renforçant certaines visions du monde par la répétition. Ils manipulent l’émotion en priorisant le contenu qui déclenche des réactions fortes. Les plateformes n’ont pas conçu ces systèmes pour radicaliser qui que ce soit. Elles les ont conçus pour maintenir les gens en train de faire défiler. La radicalisation est un effet secondaire.

Contrôle de l’Information : La Bulle de Filtre comme Chambre d’Isolement

Les sectes restreignent l’accès aux informations extérieures. Les membres sont découragés de lire du matériel critique ou de parler avec d’anciens membres[s]. L’objectif est de s’assurer que les seules informations qui parviennent à quelqu’un renforcent la vision du monde du groupe.

Les algorithmes de recommandation accomplissent quelque chose de fonctionnellement similaire par la personnalisation. Quand l’algorithme de YouTube apprend qu’un utilisateur répond à certain contenu, il en sert davantage du même type. Une recherche de l’Internet Policy Review a trouvé que YouTube amplifie le contenu extrême et marginal après que les utilisateurs interagissent avec du matériel d’extrême droite[s]. Les utilisateurs ne sont pas enfermés dans une chambre et on ne leur donne pas de la propagande. On leur donne un fil qui ressemble de plus en plus à de la propagande.

L’effet se compose au fil du temps. Les plateformes de médias sociaux « poussent les utilisateurs vers des gammes de contenu idéologique de plus en plus étroites dans ce que nous pourrions appeler la preuve d’une chambre d’écho idéologique douce », selon une recherche de l’Université de New York et Vanderbilt[s]. Le rétrécissement est suffisamment graduel pour que les utilisateurs ne le remarquent souvent pas.

Manipulation Émotionnelle : Le Piège à Dopamine

Les sectes utilisent des techniques appelées « bombardement d’amour » au début, puis la culpabilité, la peur et la honte pour maintenir le contrôle[s]. Les montagnes russes émotionnelles créent une dépendance et font que les membres craignent de partir.

Les plateformes de médias sociaux créent leur propre dépendance émotionnelle à travers des horaires de récompense variable, le même mécanisme qui rend les machines à sous addictives. Les utilisateurs deviennent « victimes d’un cycle de dopamine implacable créé dans une boucle de désir induite par des fils de médias sociaux sans fin, cherchant et anticipant des récompenses sous forme de marquage de photos, de likes et de commentaires », selon une recherche publiée dans Cureus[s]. L’imprévisibilité du moment où le prochain hit de dopamine viendra maintient les utilisateurs engagés bien plus longtemps que toute récompense cohérente le ferait.

Les algorithmes font remonter de préférence le contenu qui déclenche des réponses émotionnelles fortes. « Les algorithmes font généralement la promotion de matériel émotionnellement provocateur ou controversé en se concentrant sur des métriques telles que les likes et les partages, créant des boucles de rétroaction qui amplifient les récits polarisants », note une analyse de l’Observer Research Foundation[s]. La peur et l’indignation stimulent plus d’engagement que l’analyse calme. L’algorithme apprend cela et optimise en conséquence.

La Vitesse de la Radicalisation Numérique Moderne

Le recrutement traditionnel des sectes prenait des mois ou des années. Un recruteur devait établir la confiance, introduire des idées progressivement et isoler lentement la cible des influences extérieures. La psychologie de la radicalisation numérique opère sur une chronologie compressée.

« Un processus de radicalisation qui se déroulait autrefois sur des mois ou des années prend maintenant typiquement des jours ou même des heures, largement à cause de la prévalence de la propagande extrémiste en format court en ligne », rapporte le Centre Soufan[s]. Le même rapport note que les plateformes de médias sociaux « permettent aux extrémistes violents de recruter les jeunes plus rapidement qu’en personne ; les algorithmes dirigent ces jeunes vers du contenu plus chargé émotionnellement ».

Cette accélération se produit parce que les algorithmes peuvent traiter le comportement et ajuster les recommandations en temps réel, beaucoup plus rapidement que tout recruteur humain ne pourrait répondre. Le système remarque ce qui retient l’attention, ce qui est partagé, ce qui provoque une réaction, et sert immédiatement plus de la même chose.

Le Contre-Argument : La Plupart des Utilisateurs Vont Bien

Les critiques de la théorie de la radicalisation algorithmiqueLe processus par lequel les algorithmes de recommandation conduisent graduellement les utilisateurs vers un contenu de plus en plus extrême par la curation de contenu personnalisée. pointent vers des recherches montrant que l’effet est limité. Une étude de l’Université de New York et Vanderbilt a trouvé que seulement 3% des participants ont vécu un véritable « terrier de lapin » où les recommandations ont mené vers du contenu progressivement plus extrême[s]. La plupart des utilisateurs reçoivent des recommandations qui reflètent leurs préférences existantes plutôt que de les pousser vers les extrêmes.

Une recherche de l’Université de Nottingham Trent conclut que « bien que la radicalisation en ligne se produise, avec et sans référence aux processus hors ligne, la menace résultante n’est pas excessivement élevée »[s]. La majorité de la consommation de contenu extrémiste semble être motivée par des utilisateurs qui le cherchent activement plutôt que d’y être poussés par des algorithmes.

Ce contre-argument mérite une considération sérieuse. Mais il rate un point important sur l’échelle. Trois pour cent des deux milliards d’utilisateurs mensuels de YouTube, c’est encore soixante millions de personnes. Et la recherche note spécifiquement que l’évaluation « se réfère au présent seulement et est peu probable qu’elle tienne pour l’avenir, étant donné la croissance générale et l’accélération de l’activité en ligne parmi les acteurs terroristes ».

Ce Qui Devrait Changer

Le parallèle entre la psychologie de la radicalisation numérique et le recrutement des sectes ne signifie pas que les plateformes créent délibérément des extrémistes. Cela signifie qu’optimiser purement pour l’engagement, sans tenir compte des dommages psychologiques, produit des systèmes qui exploitent les mêmes vulnérabilités que les leaders de sectes ont toujours exploitées. La différence est l’échelle et l’automatisation.

Comprendre ce parallèle pointe vers des solutions. La transparence sur la façon dont les algorithmes sélectionnent le contenu permettrait aux chercheurs d’identifier des schémas nuisibles avant qu’ils ne causent des dommages. Concevoir des systèmes qui optimisent pour le bien-être des utilisateurs plutôt que pour l’engagement pur pourrait réduire les effets d’amplification les plus nuisibles. Enseigner l’alphabétisation médiatique qui inclut la sensibilisation algorithmique aiderait les utilisateurs à reconnaître quand leur environnement d’information est rétréci.

Les plateformes elles-mêmes ont commencé à reconnaître le problème. Le Conseil pour les Médias Sociaux Responsables d’Issue One a rassemblé des experts en sécurité nationale et en technologie qui ont conclu que « les plateformes de médias sociaux sont conçues pour maximiser notre attention, nous aspirer et nous maintenir accrochés » en « gardant le public dans l’obscurité sur la façon dont les algorithmes élèvent certain contenu, poussant les gens de plus en plus profondément dans des chambres d’écho »[s].

La psychologie de la radicalisation numérique n’est pas une conspiration. C’est une propriété émergente de systèmes conçus pour capturer et retenir l’attention à tout prix. Le fait que ces systèmes aient découvert indépendamment des techniques que les sectes utilisent depuis des siècles devrait nous donner une pause. Cela devrait aussi nous donner une direction : la recherche psychologique sur la récupération et la prévention des sectes peut offrir des insights pour concevoir des environnements numériques plus sains.

Le Modèle BITEUn cadre développé par le chercheur Steven Hassan qui catégorise les tactiques de manipulation psychologique en contrôle du Comportement, de l'Information, de la Pensée et Émotionnel. de Contrôle Autoritaire, développé par le chercheur spécialisé dans les sectes Steven Hassan, fournit un cadre pour comprendre comment les groupes de haut contrôle maintiennent l’influence sur les membres à travers la manipulation du Comportement, de l’Information, de la Pensée et Émotionnelle[s]. S’appuyant sur les recherches des psychiatres Robert Jay Lifton et Louis Jolyon West sur les techniques de lavage de cerveau communistes[s], le modèle identifie des mécanismes spécifiques de manipulation psychologique. Examiner la psychologie de la radicalisation numérique à travers cette lentille révèle des similitudes structurelles entre les schémasCadres mentaux de représentations compressées et d'attentes que le cerveau utilise pour encoder, stocker et récupérer les informations. Lorsque vous vous souvenez de quelque chose, votre cerveau la reconstruit en utilisant des schémas plus tous les indices contextuels présents. de recrutement des sectes et les effets comportementaux des algorithmes de recommandation, même si les systèmes opèrent à travers des mécanismes entièrement différents.

La thèse ici n’est pas que les ingénieurs de plateforme ont étudié les techniques des sectes et les ont implémentées délibérément. Plutôt, que l’optimisation pour les métriques d’engagement a convergé de manière indépendante vers des stratégies de manipulation psychologique qui exploitent les mêmes vulnérabilités cognitives. Comprendre la psychologie de la radicalisation numérique nécessite d’examiner cette convergence au niveau mécanistique.

Cartographie des Composants BITE aux Fonctions Algorithmiques

Contrôle du Comportement : Le modèle BITE identifie le contrôle du comportement à travers la régulation de la réalité physique, des règles rigides et des systèmes de récompense/punition[s]. Les algorithmes de recommandation accomplissent la régulation comportementale à travers des horaires de renforcement à ratio variableUn programme de renforcement où la récompense survient après un nombre imprévisible d'actions, rendant le comportement très résistant à l'arrêt — le mécanisme des machines à sous.. Une recherche publiée dans Cureus documente que les utilisateurs deviennent piégés dans « un cycle de dopamine implacable créé dans une boucle de désir induite par des fils de médias sociaux sans fin, cherchant et anticipant des récompenses »[s]. L’impact neurophysiologique inclut des voies de dopamine altérées, « favorisant une dépendance analogue à l’addiction aux substances ».

Contrôle de l’Information : Les sectes restreignent l’accès aux informations extérieures et encouragent les membres à se méfier des critiques[s]. Le filtrage algorithmique crée une restriction d’information fonctionnelle à travers la personnalisation. Une analyse empirique dans l’Internet Policy Review a examiné les systèmes de recommandationSystèmes algorithmiques qui suggèrent automatiquement du contenu, des produits ou des informations aux utilisateurs basés sur leur comportement passé, leurs préférences ou les modèles d'utilisateurs similaires. sur YouTube, Reddit et Gab, trouvant que « YouTube amplifie effectivement le contenu extrême et marginal » après l’interaction avec du matériel d’extrême droite[s]. L’effet crée ce que les chercheurs appellent « la radicalisation algorithmiqueLe processus par lequel les algorithmes de recommandation conduisent graduellement les utilisateurs vers un contenu de plus en plus extrême par la curation de contenu personnalisée., qui montre comment les plateformes de médias sociaux attirent les utilisateurs dans des terriers de lapin idéologiques »[s].

Contrôle de la Pensée : Les sectes exigent que les membres internalisent la doctrine comme vérité et adoptent une pensée en noir et blanc[s]. Les algorithmes de recommandation ne mandatent pas la croyance, mais ils façonnent l’environnement d’information de manières qui renforcent les biais cognitifs existants. Une recherche de NYU et Vanderbilt a trouvé que « l’algorithme de recommandation de YouTube pousse effectivement les utilisateurs vers des gammes de contenu idéologique de plus en plus étroites dans ce que nous pourrions appeler la preuve d’une chambre d’écho idéologique (très) douce »[s].

Contrôle Émotionnel : Le modèle BITE documente comment les sectes manipulent les émotions à travers des « extrêmes de hauts et de bas émotionnels » et l’« induction de phobies »[s]. Les algorithmes optimisent pour l’engagement émotionnel parce qu’il stimule les métriques. « Les algorithmes font généralement la promotion de matériel émotionnellement provocateur ou controversé en se concentrant sur des métriques telles que les likes et les partages, créant des boucles de rétroaction qui amplifient les récits polarisants »[s].

Compression Temporelle dans la Psychologie de la Radicalisation Numérique

La radicalisation traditionnelle à travers les groupes extrémistes suit le modèle psychosocial de recrutement et de mobilisation violente, qui identifie des phases de radicalisation émotionnelle, de radicalisation doctrinale et de désinhibition violente[s]. Une recherche sur la cellule 17-A qui a mené les attaques de Barcelone a trouvé que « certaines techniques semblent être comme celles utilisées par les sectes totalitaires et visent à éliminer l’identité personnelle de la cible en renforçant une nouvelle identité sociale avec le groupe extrémiste ».

Les environnements numériques compriment cette chronologie dramatiquement. Le Centre Soufan rapporte qu’« un processus de radicalisation qui se déroulait autrefois sur des mois ou des années prend maintenant typiquement des jours ou même des heures »[s]. Cette accélération se produit parce que les algorithmes traitent les signaux comportementaux et ajustent les recommandations en temps réel. « Les plateformes de médias sociaux comme TikTok, X et Facebook permettent aux extrémistes violents de recruter les jeunes plus rapidement qu’en personne ; les algorithmes dirigent ces jeunes vers du contenu plus chargé émotionnellement ».

LimitationsRéduction délibérée des performances logicielles ou matérielles, souvent pour gérer la consommation d'énergie ou prolonger la durée de vie du produit. Méthodologiques et Preuves Contraires

L’hypothèse de la radicalisation algorithmique a fait face à des défis empiriques significatifs. Une recherche examinant le comportement réel des utilisateurs, plutôt que les sorties algorithmiques en isolation, trouve des effets plus limités. L’analyse de 527 utilisateurs YouTube avec des historiques de navigation réels a trouvé que bien que l’algorithme « pousse effectivement les utilisateurs vers des gammes idéologiques de plus en plus étroites », seule une petite proportion vit de véritables terriers de lapin menant au contenu extrémiste[s].

Des chercheurs de l’Université de Nottingham Trent, examinant les preuves quantitatives sur la radicalisation en ligne dans des contextes de terrorisme, ont conclu que « bien que la radicalisation en ligne se produise, avec et sans référence aux processus hors ligne, la menace résultante n’est pas excessivement élevée »[s]. Importamment, ils notent que cette évaluation « se réfère au présent seulement et est peu probable qu’elle tienne pour l’avenir, étant donné la croissance générale et l’accélération de l’activité en ligne parmi les acteurs terroristes ».

La distinction entre la consommation de contenu menée par l’utilisateur et menée par l’algorithme est méthodologiquement critique. Une grande partie de la consommation de contenu extrémiste peut refléter la demande plutôt que l’offre, avec les utilisateurs cherchant activement du matériel que les algorithmes amplifient ensuite. Cela n’élimine pas le rôle de la psychologie de la radicalisation numérique, mais cela complique l’attribution causale.

Implications Politiques et Directions de Recherche

Les panels d’experts rassemblés par le Conseil pour les Médias Sociaux Responsables d’Issue One ont identifié le problème central comme l’opacité : « Les plateformes de médias sociaux sont conçues pour maximiser notre attention, nous aspirer et nous maintenir accrochés » en « gardant le public dans l’obscurité sur la façon dont les algorithmes élèvent certain contenu »[s]. Cette opacité empêche la vérification indépendante des effets de radicalisation et limite la capacité à concevoir des interventions.

Le parallèle structurel entre la psychologie de la radicalisation numérique et la manipulation des sectes suggère que la recherche psychologique sur l’influence indue peut informer la conception de plateformes. Le modèle BITE a été développé spécifiquement pour aider les individus à reconnaître quand ils sont soumis à une influence manipulatrice[s]. L’éducation à l’alphabétisation algorithmique pourrait incorporer des cadres similaires pour aider les utilisateurs à identifier quand leur environnement d’information est artificiellement rétréci.

La convergence entre l’optimisation de l’engagement et la manipulation psychologique n’est pas une conspiration mais une propriété émergente de systèmes conçus sans considération adéquate des vulnérabilités cognitives. La même recherche psychologique qui illumine la dynamique des sectes peut s’avérer essentielle pour concevoir des systèmes de recommandation qui informent plutôt qu’ils ne manipulent.

Qu'avez-vous pensé de cet article ?
Partager cet article

Une erreur ? Signalez-la

Sources