Las tácticas que las sectas usan para reclutar y controlar miembros han sido estudiadas durante décadas. Aislamiento de perspectivas externas. Control de qué información llega a alguien. Crear dependencia emocional. Suprimir el pensamiento crítico. Estas técnicas funcionan porque explotan vulnerabilidades fundamentales en la psicología humana. Lo que los investigadores están reconociendo ahora es que los algoritmos de recomendación en plataformas de redes sociales pueden producir efectos sorprendentemente similares, incluso sin ningún reclutador humano manejando los hilos. El estudio de la psicología de la radicalización digital revela una verdad incómoda: los mismos mecanismos que hacen efectivas a las sectas están integrados en el diseño de su feed de redes sociales.
Esto no significa que los ingenieros de Silicon Valley se sentaron y estudiaron manuales de sectas. El paralelo surgió de un imperativo más simple: maximizar el engagement. Pero la optimización del engagementLa práctica algorítmica de priorizar contenido que genera más interacciones de usuario (clics, likes, compartir, comentarios) en lugar de la calidad del contenido o el interés público., perseguida implacablemente a través del aprendizaje automático, ha convergido independientemente hacia técnicas que los psicólogos han identificado durante mucho tiempo como herramientas de influencia indebida. Entender la psicología de la radicalización digital requiere comprender esta convergencia entre tácticas de manipulación ancestrales y diseño algorítmico moderno.
El Modelo BITEUn marco desarrollado por el investigador de sectas Steven Hassan que categoriza las tácticas de manipulación psicológica en control de Comportamiento, Información, Pensamiento y Emocional. se Encuentra con el Algoritmo
En los años 1980, el investigador de sectas Steven Hassan desarrolló el modelo BITE para describir cómo los grupos destructivos mantienen control sobre los miembros. BITE significa Behavior (Comportamiento), Information (Información), Thought (Pensamiento) y Emotional (Emocional) control[s]. El modelo se basa en investigación de los psiquiatras Robert Jay Lifton y Louis Jolyon West, quienes estudiaron técnicas de lavado de cerebro usadas en regímenes totalitarios[s]. Cada componente apunta a un aspecto diferente de cómo los humanos procesan la realidad y toman decisiones.
Los algoritmos de recomendación tocan los cuatro componentes. Dan forma al comportamiento determinando qué contenido aparece y cuándo, creando patrones de verificación compulsiva. Controlan la información filtrando qué llega a los usuarios y qué se suprime. Influyen en el pensamiento reforzando ciertas visiones del mundo a través de la repetición. Manipulan la emoción priorizando contenido que desencadena reacciones fuertes. Las plataformas no diseñaron estos sistemas para radicalizar a nadie. Los diseñaron para mantener a la gente haciendo scroll. La radicalización digital es un efecto secundario.
Control de Información: La Burbuja de Filtro como Cámara de Aislamiento
Las sectas restringen el acceso a información externa. Se desalienta a los miembros de leer material crítico o hablar con antiguos miembros[s]. El objetivo es asegurar que la única información que llega a alguien refuerce la visión del mundo del grupo.
Los algoritmos de recomendación logran algo funcionalmente similar a través de la personalización. Cuando el algoritmo de YouTube aprende que un usuario responde a cierto contenido, sirve más de lo mismo. Investigación del Internet Policy Review encontró que YouTube amplifica contenido extremo y marginal después de que los usuarios interactúan con materiales de extrema derecha[s]. Los usuarios no están encerrados en una habitación y se les entrega propaganda. Se les entrega un feed que cada vez más se parece a uno.
El efecto se compone con el tiempo. Las plataformas de redes sociales “empujan a los usuarios hacia rangos de contenido ideológico cada vez más estrechos en lo que podríamos llamar evidencia de una cámara de ecoUn entorno informacional donde las personas solo encuentran creencias u opiniones que confirman sus puntos de vista existentes, reforzando sus sesgos. ideológica suave”, según investigación de la Universidad de Nueva York y Vanderbilt[s]. El estrechamiento es lo suficientemente gradual que los usuarios a menudo no notan que está sucediendo.
Manipulación Emocional: La Trampa de Dopamina
Las sectas usan técnicas llamadas “bombardeo de amorUna técnica de reclutamiento de sectas que involucra abrumar a un objetivo con afecto y atención excesivos para crear dependencia emocional.” al principio, luego culpa, miedo y vergüenza para mantener control[s]. La montaña rusa emocional crea dependencia y hace que los miembros teman irse.
Las plataformas de redes sociales crean su propia dependencia emocional a través de horarios de recompensa variable, el mismo mecanismo que hace adictivas a las máquinas tragamonedas. Los usuarios se convierten en “víctimas de un ciclo de dopamina implacable creado en un bucle de deseo inducido por feeds infinitos de redes sociales, buscando y anticipando recompensas en forma de etiquetado de fotos, likes y comentarios”, según investigación publicada en Cureus[s]. La impredecibilidad de cuándo vendrá el próximo golpe de dopamina mantiene a los usuarios involucrados mucho más tiempo que cualquier recompensa consistente lo haría.
Los algoritmos hacen emerger preferencialmente contenido que desencadena respuestas emocionales fuertes. “Los algoritmos usualmente promueven material emocionalmente provocativo o controvertido enfocándose en métricas como likes y shares, creando bucles de retroalimentación que amplifican narrativas polarizantes”, nota análisis de la Observer Research Foundation[s]. El miedo y la indignación impulsan más engagement que el análisis calmado. El algoritmo aprende esto y optimiza en consecuencia.
La Velocidad de la Radicalización Digital Moderna
El reclutamiento tradicional de sectas tomaba meses o años. Un reclutador tenía que construir confianza, introducir ideas gradualmente y lentamente aislar al objetivo de influencias externas. La psicología de la radicalización digital opera en una línea de tiempo comprimida.
“Un proceso de radicalización que una vez se desarrollaba durante meses o años ahora típicamente toma días o incluso horas, principalmente debido a la prevalencia de propaganda extremista de formato corto en línea”, reporta el Centro Soufan[s]. El mismo reporte nota que las plataformas de redes sociales “permiten a extremistas violentos reclutar jóvenes más expeditamente que en persona; los algoritmos canalizan a esos jóvenes hacia contenido más cargado emocionalmente”.
Esta aceleración sucede porque los algoritmos pueden procesar comportamiento y ajustar recomendaciones en tiempo real, mucho más rápido que cualquier reclutador humano podría responder. El sistema nota qué mantiene la atención, qué se comparte, qué provoca una reacción, e inmediatamente sirve más de lo mismo.
El Contraargumento: La Mayoría de los Usuarios Están Bien
Los críticos de la teoría de radicalización algorítmicaEl proceso por el cual los algoritmos de recomendación llevan gradualmente a los usuarios hacia contenido cada vez más extremo a través de la curación personalizada de contenido. señalan investigación que muestra que el efecto es limitado. Un estudio de la Universidad de Nueva York y Vanderbilt encontró que solo el 3% de los participantes experimentaron un genuino “agujero de conejo” donde las recomendaciones llevaron a contenido progresivamente más extremo[s]. La mayoría de los usuarios reciben recomendaciones que reflejan sus preferencias existentes en lugar de empujarlos hacia extremos.
Investigación de la Universidad de Nottingham Trent concluye que “mientras la radicalización en línea sí ocurre, con y sin referencia a procesos fuera de línea, la amenaza resultante no es excesivamente alta”[s]. La mayoría del consumo de contenido extremista parece ser impulsado por usuarios que lo buscan activamente en lugar de ser empujados allí por algoritmos.
Este contraargumento merece consideración seria. Pero pierde un punto importante sobre la escala. Tres por ciento de los dos mil millones de usuarios mensuales de YouTube son aún sesenta millones de personas. Y la investigación específicamente nota que la evaluación “se refiere solo al presente y es poco probable que se mantenga para el futuro, dado el crecimiento general y la aceleración de la actividad en línea entre actores terroristas”.
Qué Debería Cambiar
El paralelo entre la psicología de la radicalización digital y el reclutamiento de sectas no significa que las plataformas están deliberadamente creando extremistas. Significa que optimizar puramente para el engagement, sin considerar el daño psicológico, produce sistemas que explotan las mismas vulnerabilidades que los líderes de sectas siempre han explotado. La diferencia es escala y automatización.
Entender este paralelo señala hacia soluciones. La transparencia sobre cómo los algoritmos seleccionan contenido permitiría a los investigadores identificar patrones dañinos antes de que causen daño. Diseñar sistemas que optimicen para el bienestar del usuario en lugar del engagement puro podría reducir los efectos de amplificación más dañinos. Enseñar alfabetización mediática que incluya conciencia algorítmica ayudaría a los usuarios a reconocer cuándo su ambiente de información está siendo estrechado.
Las plataformas mismas han comenzado a reconocer el problema. El Consejo para Redes Sociales Responsables de Issue One ha convocado expertos en seguridad nacional y tecnología que concluyeron que “las plataformas de redes sociales están diseñadas para maximizar nuestra atención, absorbernos y mantenernos enganchados” mediante “mantener al público en la oscuridad sobre cómo los algoritmos elevan cierto contenido, empujando a la gente más y más profundo en cámaras de eco”[s].
La psicología de la radicalización digital no es una conspiración. Es una propiedad emergente de sistemas diseñados para capturar y mantener atención a cualquier costo. El hecho de que estos sistemas hayan descubierto independientemente técnicas que las sectas han usado durante siglos debería darnos pausa. También debería darnos dirección: la investigación psicológica sobre recuperación y prevención de sectas puede ofrecer ideas para diseñar ambientes digitales más saludables.
El Modelo BITEUn marco desarrollado por el investigador de sectas Steven Hassan que categoriza las tácticas de manipulación psicológica en control de Comportamiento, Información, Pensamiento y Emocional. de Control Autoritario, desarrollado por el investigador de sectas Steven Hassan, proporciona un marco para entender cómo los grupos de alto control mantienen influencia sobre miembros a través de manipulación de Comportamiento, Información, Pensamiento y Emocional[s]. Basándose en investigación de los psiquiatras Robert Jay Lifton y Louis Jolyon West sobre técnicas de lavado de cerebro comunista[s], el modelo identifica mecanismos específicos de manipulación psicológica. Examinar la psicología de la radicalización digital a través de esta lente revela similitudes estructurales entre patrones de reclutamiento de sectas y los efectos conductuales de los algoritmos de recomendación, aunque los sistemas operan a través de mecanismos completamente diferentes.
La tesis aquí no es que los ingenieros de plataforma estudiaron técnicas de sectas y las implementaron deliberadamente. Más bien, que la optimización para métricas de engagementIndicadores medibles de interacción del usuario—clics, tiempo dedicado, desplazamientos—que las plataformas optimizan como sustituto de la satisfacción, aunque a menudo recompensen comportamiento compulsivo en lugar de satisfacción intencional. ha convergido independientemente hacia estrategias de manipulación psicológica que explotan las mismas vulnerabilidades cognitivas. Entender la psicología de la radicalización digital requiere examinar esta convergencia a nivel mecanístico.
Mapeo de Componentes BITE a Funciones Algorítmicas
Control de Comportamiento: El modelo BITE identifica control de comportamiento a través de regulación de la realidad física, reglas rígidas y sistemas de recompensa/castigo[s]. Los algoritmos de recomendación logran regulación conductual a través de horarios de refuerzo de razón variableUn programa de refuerzo donde la recompensa llega tras un número impredecible de acciones, haciendo el comportamiento muy resistente al cese — el mecanismo detrás de las máquinas tragamonedas.. Investigación publicada en Cureus documenta que los usuarios quedan atrapados en “un ciclo de dopamina implacable creado en un bucle de deseo inducido por feeds infinitos de redes sociales, buscando y anticipando recompensas”[s]. El impacto neurofisiológico incluye vías de dopamina alteradas, “fomentando dependencia análoga a la adicción a sustancias”.
Control de Información: Las sectas restringen acceso a información externa y alientan a los miembros a desconfiar de los críticos[s]. El filtrado algorítmico crea restricción funcional de información a través de personalización. Un análisis empírico en el Internet Policy Review examinó sistemas de recomendaciónSistemas algorítmicos que sugieren automáticamente contenido, productos o información a los usuarios basándose en su comportamiento pasado, preferencias o patrones de usuarios similares. en YouTube, Reddit y Gab, encontrando que “YouTube efectivamente amplifica contenido extremo y marginal” después de interacción con materiales de extrema derecha[s]. El efecto crea lo que los investigadores llaman “radicalización algorítmicaEl proceso por el cual los algoritmos de recomendación llevan gradualmente a los usuarios hacia contenido cada vez más extremo a través de la curación personalizada de contenido., que muestra cómo las plataformas de redes sociales atraen a usuarios hacia agujeros de conejo ideológicos”[s].
Control de Pensamiento: Las sectas requieren que los miembros internalicen doctrina como verdad y adopten pensamiento en blanco y negro[s]. Los algoritmos de recomendación no exigen creencia, pero dan forma al ambiente de información de maneras que refuerzan sesgos cognitivos existentes. Investigación de NYU y Vanderbilt encontró que “el algoritmo de recomendación de YouTube efectivamente empuja a usuarios hacia rangos de contenido ideológico cada vez más estrechos en lo que podríamos llamar evidencia de una cámara de ecoUn entorno informacional donde las personas solo encuentran creencias u opiniones que confirman sus puntos de vista existentes, reforzando sus sesgos. ideológica (muy) suave”[s].
Control Emocional: El modelo BITE documenta cómo las sectas manipulan emociones a través de “extremos de altibajos emocionales” e “inducción de fobias”[s]. Los algoritmos optimizan para engagement emocional porque impulsa métricas. “Los algoritmos usualmente promueven material emocionalmente provocativo o controvertido enfocándose en métricas como likes y shares, creando bucles de retroalimentación que amplifican narrativas polarizantes”[s].
Compresión Temporal en la Psicología de la Radicalización Digital
La radicalización tradicional a través de grupos extremistas sigue el modelo psicosocial de reclutamiento y movilización violenta, que identifica fases de radicalización emocional, radicalización doctrinal y desinhibición violenta[s]. Investigación sobre la célula 17-A que llevó a cabo los ataques de Barcelona encontró que “algunas técnicas parecen ser como las usadas por sectas totalitarias y están dirigidas a eliminar la identidad personal del objetivo reforzando una nueva identidad social con el grupo extremista”.
Los ambientes digitales comprimen esta línea de tiempo dramáticamente. El Centro Soufan reporta que “un proceso de radicalización que una vez se desarrollaba durante meses o años ahora típicamente toma días o incluso horas”[s]. Esta aceleración ocurre porque los algoritmos procesan señales conductuales y ajustan recomendaciones en tiempo real. “Plataformas de redes sociales como TikTok, X y Facebook permiten a extremistas violentos reclutar jóvenes más expeditamente que en persona; los algoritmos canalizan a esos jóvenes hacia contenido más cargado emocionalmente”.
Limitaciones Metodológicas y Evidencia Contraria
La hipótesis de la radicalización algorítmica ha enfrentado desafíos empíricos significativos. Investigación que examina comportamiento real de usuarios, en lugar de salidas algorítmicas en aislamiento, encuentra efectos más limitados. El análisis de 527 usuarios de YouTube con historiales de navegación reales encontró que mientras el algoritmo “efectivamente empuja a usuarios hacia rangos ideológicos cada vez más estrechos”, solo una pequeña proporción experimenta agujeros de conejo genuinos que llevan a contenido extremista[s].
Investigadores en la Universidad de Nottingham Trent, revisando evidencia cuantitativa sobre radicalización en línea en contextos de terrorismo, concluyeron que “mientras la radicalización en línea sí ocurre, con y sin referencia a procesos fuera de línea, la amenaza resultante no es excesivamente alta”[s]. Importantemente, notan que esta evaluación “se refiere solo al presente y es poco probable que se mantenga para el futuro, dado el crecimiento general y la aceleración de la actividad en línea entre actores terroristas”.
La distinción entre consumo de contenido dirigido por el usuario versus dirigido por el algoritmo es metodológicamente crítica. Mucho consumo de contenido extremista puede reflejar demanda en lugar de oferta, con usuarios buscando activamente material que los algoritmos luego amplifican. Esto no elimina el papel de la psicología de la radicalización digital, pero complica la atribución causal.
Implicaciones de Política y Direcciones de Investigación
Paneles de expertos convocados por el Consejo para Redes Sociales Responsables de Issue One han identificado el problema central como opacidad: “Las plataformas de redes sociales están diseñadas para maximizar nuestra atención, absorbernos y mantenernos enganchados” mediante “mantener al público en la oscuridad sobre cómo los algoritmos elevan cierto contenido”[s]. Esta opacidad previene verificación independiente de efectos de radicalización y limita la capacidad de diseñar intervenciones.
El paralelo estructural entre la psicología de la radicalización digital y manipulación de sectas sugiere que la investigación psicológica sobre influencia indebida puede informar el diseño de plataformas. El modelo BITE fue desarrollado específicamente para ayudar a individuos a reconocer cuándo están sujetos a influencia manipulativa[s]. La educación en alfabetización algorítmica podría incorporar marcos similares para ayudar a usuarios a identificar cuándo su ambiente de información está siendo artificialmente estrechado.
La convergencia entre optimización de engagement y manipulación psicológica no es una conspiración sino una propiedad emergente de sistemas diseñados sin consideración adecuada de vulnerabilidades cognitivas. La misma investigación psicológica que ilumina dinámicas de sectas puede resultar esencial para diseñar sistemas de recomendación que informen en lugar de manipular.



