Atemporal 15 min de lectura

La moderación de contenidos en Reddit: de premiar a los depredadores a una multa de 14,47 millones de libras

Este artículo fue traducido automáticamente del inglés por una IA. Leer la versión original en inglés →
Logo de Reddit
🎧 Escuchar
Mar 29, 2026
Modo de lectura

Reddit se fundó en 2005 como una plataforma con casi ninguna regla. Dos décadas después, la moderación de contenidos en Reddit se ha convertido en uno de los sistemas más elaborados de internet. El camino entre esos dos estados no es una historia de deriva ideológica o madurez corporativa. Es una historia de explotación sexual infantil y de los reiterados y documentados fracasos de la plataforma para afrontarla, hasta que se le obligó a hacerlo.

Nuestro periodista humano lleva un tiempo rumiando este agravio concreto, y el momento es difícil de rebatir: en febrero de 2026, la Oficina del Comisionado de Información del Reino Unido (ICO) multó a Reddit con 14,47 millones de libras esterlinas por no proteger los datos de los menores. La defensa de la empresa: no recoge información sobre la edad de los usuarios porque respeta su privacidad. El organismo regulador no se dejó convencer.

El mito fundacional

Steve Huffman y Alexis Ohanian lanzaron Reddit en junio de 2005 tras el rechazo de su propuesta original para Y Combinator (una aplicación móvil para pedir comida). Aaron Swartz fusionó su empresa Infogami con Reddit ese noviembre, convirtiéndose en copropietario. El sitio creció rápidamente porque tenía una sola regla que importaba: casi nada estaba prohibido.

La filosofía era genuina, al menos al principio. Ohanian describió Reddit como «un bastión de la libertad de expresión» en una entrevista de 2012. Huffman lo matizó posteriormente, afirmando que «ni Alexis ni yo creamos Reddit para que fuera un bastión de la libertad de expresión», pero las políticas reales de la plataforma durante sus primeros seis años contaban una historia diferente. Reddit no moderaba contenidos. Reddit no quería moderar contenidos. La comunidad se gobernaría a sí misma, y los administradores construirían infraestructura.

Este enfoque tuvo una consecuencia previsible.

El problema de Jailbait

En 2007, un usuario llamado Violentacrez creó r/jailbait, un subreddit dedicado a imágenes sexualizadas de chicas menores de edad. Las imágenes eran técnicamente legales (con ropa, sin desnudos explícitos), y procedían mayoritariamente de las cuentas de Facebook y Photobucket de adolescentes que no tenían ni idea de que sus fotos estaban siendo recopiladas y resubidas para satisfacción sexual ajena.

r/jailbait se convirtió en una de las comunidades más populares de Reddit. Atraía cientos de miles de visitas. La respuesta de Reddit no fue prohibirlo, investigarlo ni siquiera desalentarlo. Reddit envió a Violentacrez un muñeco cabezón bañado en oro como recompensa por el tráfico que generaba.

No fue un descuido. Chris Slowe, programador principal de Reddit hasta 2010, explicó después la relación sin rodeos: «Simplemente nos mantuvimos al margen y le dejamos hacer lo suyo, y sabíamos que al menos se estaba deshaciendo de mucho material que no era precisamente legal.» La empresa que no quería moderar su plataforma externalizaba la detección de contenido ilegal al hombre que gestionaba el foro de explotación infantil. Violentacrez moderaba cerca de 400 subreddits, entre ellos r/chokeabitch, r/misogyny, r/incest y r/creepshots (dedicado a fotografiar mujeres en público sin su consentimiento). Era, según el propio reconocimiento implícito de Reddit, demasiado útil para perderlo.

Anderson Cooper fuerza el asunto

En octubre de 2011, Anderson Cooper emitió en CNN un segmento que ponía en evidencia a Reddit por alojar r/jailbait. El efecto inmediato fue contraproducente: el subreddit ganó más de 1.000 nuevos suscriptores y casi cuatro millones de visitas el fin de semana siguiente. Pero la presión mediática se mantuvo, y cuando los usuarios empezaron a compartir lo que parecía ser pornografía infantil real a través del sistema de mensajería privada del subreddit, Reddit prohibió r/jailbait el 11 de octubre de 2011.

La prohibición fue limitada. Reddit modificó sus políticas para prohibir «contenido sugerente o sexual con menores», pero el compromiso general de la plataforma con una moderación mínima permaneció intacto. Violentacrez siguió moderando sus otros 399 subreddits. Reddit describió la eliminación de r/jailbait como una decisión difícil, no como algo obvio.

El desenmascaramiento

En octubre de 2012, el periodista de Gawker Adrian Chen identificó a Violentacrez como Michael Brutsch, un desarrollador de software de 49 años de Arlington, Texas. El artículo reveló el alcance completo de su actividad en Reddit y la complicidad de la plataforma en ella.

Brutsch fue despedido de su trabajo como programador. Apareció en el programa de Anderson Cooper ofreciendo lo que describió como una disculpa parcial: «Me disculpo hasta cierto punto por lo que hice.» Cuando le preguntaron por qué solo había parado después de ser expuesto, respondió sencillamente: «Ya no necesito relajarme por las noches, porque ya no tengo trabajo.»

La respuesta de Reddit al reportaje fue prohibir todos los enlaces a Gawker en la plataforma. La empresa dijo después que «lamenta haber enviado el trofeo» y «no haber tomado medidas más contundentes antes». Este es el patrón: lamentos, expresados retroactivamente, después de que la presión externa hiciera la inacción más costosa que la acción.

La retirada de la libertad de expresión

Entre 2012 y 2015, Reddit comenzó, lenta y a regañadientes, a moderar. El CEO Yishan Wong, que dirigió el sitio de 2012 a 2014, admitió posteriormente que había formalizado las permisivas políticas de libertad de expresión de Reddit y consideraba que tolerar subreddits como r/creepshots era «un pequeño precio a pagar» por posicionar a Reddit como acogedor con puntos de vista diversos.

Cuando Ellen Pao se convirtió en CEO interina en 2014, el consejo la presionó repetidamente para que prohibiera todos los subreddits de odio. Wong reveló después que Pao en realidad se resistió, prefiriendo mantener el marco existente de libertad de expresión. Prohibió r/fatpeoplehate en junio de 2015 por acoso fuera de la plataforma (no por el contenido) y fue expulsada de la empresa por el rechazo de los usuarios. El ciclo de degradación de la plataforma ya estaba bien avanzado.

Steve Huffman volvió como CEO en julio de 2015 y, como Wong había predicho, inició la purga de contenidos más amplia que los usuarios habían votado sin saberlo al expulsar a Pao. Reddit introdujo cuarentenas y amplió las prohibiciones. En junio de 2020, la plataforma prohibió aproximadamente 2.000 subreddits en un solo día, entre ellos r/The_Donald y r/GenderCritical. En agosto de 2020, casi 7.000 subreddits habían sido eliminados bajo las nuevas políticas contra el discurso de odio.

El problema que no desapareció

La moderación de contenidos en Reddit se expandió. El problema concreto que la desencadenó no se resolvió.

En marzo de 2021, Reddit contrató a Aimee Challenor (también conocida como Aimee Knight) como administradora. Challenor había sido suspendida de dos partidos políticos británicos: el Partido Verde, tras nombrar a su padre agente electoral mientras estaba acusado de violar y torturar a una niña de 10 años (fue condenado posteriormente a 22 años), y los Liberales Demócratas, tras publicar su pareja presuntamente fantasías de abuso sexual infantil en internet. Cuando un moderador publicó un artículo periodístico que mencionaba el historial públicamente conocido de Challenor, Reddit prohibió al moderador y eliminó el contenido invocando las reglas contra el doxing.

Más de 200 subreddits se pusieron en modo privado en protesta. El CEO Huffman despidió a Challenor y admitió que Reddit «no había verificado adecuadamente sus antecedentes antes de contratarla formalmente». No era una moderadora voluntaria. Era una empleada remunerada.

En abril de 2021, una mujer presentó una demanda colectiva contra Reddit alegando que la plataforma había permitido conscientemente la distribución de material de abuso sexual infantil. Su exnovio había publicado imágenes explícitas de ella tomadas cuando tenía 16 años. Reddit tardó «varios días» en eliminar el contenido tras su denuncia. El exnovio creó nuevas cuentas y volvió a publicar. Ella se vio obligada a vigilar 36 subreddits por su cuenta. La demanda acusaba a Reddit de violar el Trafficking Victims Protection Act (Ley de Protección de Víctimas de Trata). Fue desestimada por el tribunal de distrito, una decisión confirmada por el Noveno Circuito, antes de que el Tribunal Supremo rechazara escucharla en mayo de 2023.

En marzo de 2024, Reddit salió a bolsa con una valoración de 6.400 millones de dólares. Investigadores del National Center on Sexual Exploitation (Centro Nacional contra la Explotación Sexual) comprobaron que incluso con los filtros de contenido sensible de Reddit activados, las búsquedas devolvían enlaces etiquetados como «teen nudes», incluido material con menores de tan solo diez años. Un estudio de Thorn de 2022 reveló que entre los menores que usaban Reddit a diario, el 34 % había compartido CSAM autogenerado, el 26 % había redistribuido CSAM de otros y el 23 % había recibido contenido íntimo no consensual. Estas cifras describen una plataforma donde la explotación infantil no es un caso marginal de moderación. Es una regularidad estadística.

En marzo de 2026, un moderador de r/MTF, r/LGBT y r/egg_IRL fue expuesto como delincuente sexual registrado condenado por posesión de material de abuso sexual infantil. Otros moderadores de esos subreddits conocían las acusaciones desde finales de 2025, pero las descartaron inicialmente como trolling. El moderador eliminó su cuenta tras hacerse pública su exposición.

La multa británica y la defensa de la privacidad

El 24 de febrero de 2026, la Oficina del Comisionado de Información del Reino Unido multó a Reddit con 14,47 millones de libras por no verificar la edad de los usuarios, lo que significó que menores de 13 años vieron sus datos personales tratados sin base legal y quedaron expuestos a contenidos que nunca deberían haber visto. El comisionado John Edwards declaró: «Confiar en que los usuarios declaren su propia edad no es suficiente cuando los menores pueden estar en riesgo.»

La defensa de Reddit fue reveladora. Un portavoz afirmó que la plataforma no exige que los usuarios compartan «información sobre su identidad, independientemente de su edad, porque estamos profundamente comprometidos con su privacidad y seguridad». El argumento es, en otras palabras, que negarse a verificar si los usuarios son menores es en sí mismo una forma de protección infantil. Reddit planea recurrir la decisión.

Moderación de contenidos en Reddit: balance final

El relato habitual sobre la moderación de contenidos en Reddit la presenta como el proceso de madurez de una plataforma: el idealismo juvenil cediendo paso a la responsabilidad corporativa. El historial real no respalda esta lectura.

Reddit no decidió moderar porque llegara a la conclusión de que el absolutismo de la libertad de expresión era filosóficamente insostenible. Moderó porque CNN emitió un reportaje, porque Gawker nombró a un cómplice de un pedófilo, porque cientos de subreddits se pusieron en modo privado, porque se presentaron demandas judiciales, porque los reguladores impusieron multas. Cada cambio de política significativo fue reactivo, impuesto por actores externos que hicieron que el coste de la inacción fuera mayor que el de la acción.

La plataforma que envió un trofeo al creador de r/jailbait opera hoy sistemas automatizados de detección de CSAM. La plataforma que prohibió los enlaces de Gawker para proteger el anonimato de un cómplice de explotación infantil tiene ahora una política de contenidos de 38 páginas. El progreso es real. Pero en febrero de 2024, los investigadores seguían identificando a Reddit como una de las ocho principales plataformas utilizadas por los agresores para encontrar y compartir material de abuso sexual infantil. En marzo de 2026, un moderador de grandes comunidades seguía siendo un delincuente sexual registrado cuyo estatus era conocido por otros moderadores y fue ignorado.

La moderación de contenidos en Reddit no es una historia de éxito contada demasiado pronto. Es un patrón compartido en toda la industria: las plataformas generan engagement, descubren que ese engagement incluye explotación, y moderan solo en la medida en que la presión externa lo exige. La libertad de expresión fue real. La explotación fue real. La moderación es real. La explotación también sigue siendo real.

Fechas clave

Junio de 2005: Steve Huffman y Alexis Ohanian lanzan Reddit. La política de contenidos es, en la práctica: «no publiques contenido ilegal.» Casi todo lo demás está permitido.

Noviembre de 2005: Aaron Swartz fusiona su empresa Infogami con Reddit y se convierte en copropietario. Contribuye al desarrollo del sitio hasta que lo abandona en 2007.

2007: El usuario Violentacrez crea r/jailbait, un subreddit para imágenes sexualizadas de chicas menores de edad vestidas, obtenidas sin consentimiento de sus cuentas en redes sociales. El subreddit se convierte en una de las comunidades más visitadas de Reddit. Reddit envía a Violentacrez un muñeco cabezón bañado en oro como recompensa por el tráfico. Acaba moderando cerca de 400 subreddits.

Octubre de 2011: Anderson Cooper cubre r/jailbait en CNN. El subreddit gana más de 1.000 nuevos suscriptores y casi cuatro millones de visitas el fin de semana siguiente. Tras aflorar pornografía infantil real a través de mensajes privados, Reddit prohíbe r/jailbait el 11 de octubre. La política se actualiza para prohibir «contenido sugerente o sexual con menores». Violentacrez sigue moderando todos sus otros subreddits.

Octubre de 2012: El periodista de Gawker Adrian Chen identifica a Violentacrez como Michael Brutsch, 49 años, programador de Texas. Brutsch es despedido. Reddit prohíbe todos los enlaces de Gawker y afirma después «lamentar» el trofeo y «no haber actuado con más contundencia antes».

2012-2014: El CEO Yishan Wong formaliza las políticas de libertad de expresión de Reddit, considerando el contenido de explotación como «un pequeño precio a pagar» por el posicionamiento ideológico de la plataforma.

Junio de 2015: La CEO interina Ellen Pao prohíbe r/fatpeoplehate por acoso fuera de la plataforma. El rechazo de los usuarios la lleva a dimitir. Steve Huffman regresa como CEO.

2015-2020: Reddit introduce cuarentenas. La moderación de contenidos se amplía gradualmente. En junio de 2020, se prohíben aproximadamente 2.000 subreddits en un solo día. En agosto, casi 7.000 han desaparecido.

Marzo de 2021: Reddit contrata a Aimee Challenor, suspendida de dos partidos políticos británicos por la condena de su padre por violación y abuso infantil y por las presuntas fantasías de abuso sexual publicadas por su pareja. Cuando un moderador publica un artículo público sobre su historial, Reddit le prohíbe. Más de 200 subreddits se ponen en modo privado. Challenor es despedida. El CEO Huffman admite que Reddit «no verificó adecuadamente sus antecedentes».

Abril de 2021: Se presenta una demanda colectiva alegando que Reddit permitió conscientemente la distribución de CSAM. La demandante, víctima a los 16 años, declara haber esperado «varios días» para que retiraran el contenido y haber tenido que vigilar 36 subreddits por su cuenta.

2022 (estudio publicado): La investigación de Thorn revela que el 34 % de los menores que usaban Reddit a diario habían compartido CSAM autogenerado, y el 26 % había redistribuido CSAM de otros.

Febrero de 2024: Investigadores identifican a Reddit como una de las ocho principales plataformas donde los agresores buscan y comparten material de abuso sexual infantil.

Marzo de 2024: Reddit sale a bolsa con una valoración de 6.400 millones de dólares.

Febrero de 2026: La Oficina del Comisionado de Información del Reino Unido multa a Reddit con 14,47 millones de libras por no verificar la edad de los usuarios, exponiendo a menores a contenidos dañinos.

Marzo de 2026: Un moderador de r/MTF, r/LGBT y r/egg_IRL es expuesto como delincuente sexual registrado. Otros moderadores lo sabían desde finales de 2025 y habían ignorado las denuncias. Elimina su cuenta.

El patrón

Cada cambio significativo en la política de moderación de Reddit fue precedido por la misma secuencia: exposición externa (medios, demandas judiciales, reguladores), reacción pública, cambio de política reactivo, declaración de lamentos y fracaso continuado para evitar la recurrencia. La plataforma que envió un trofeo al hombre que construyó r/jailbait cuenta ahora con sistemas automatizados de detección de CSAM. Los investigadores siguen encontrando material de explotación infantil a través de su función de búsqueda con los filtros de contenido activados.

Reddit no evolucionó hacia la moderación. Fue arrastrado hasta ella, un escándalo tras otro, y el problema que motivó ese arrastre sigue presente.

¿Qué le pareció este artículo?
Compartir este artículo

¿Un error? Avísanos

Fuentes