Intemporel 16 min de lecture

La modération des contenus sur Reddit : des récompenses aux prédateurs à 14,47 millions de livres d’amende

Cet article a été traduit automatiquement de l'anglais par une IA. Lire la version originale en anglais →
Logo Reddit
🎧 Écouter
Mar 29, 2026
Mode de lecture

Reddit a été fondé en 2005 comme une plateforme avec presque aucune règle. Deux décennies plus tard, la modération des contenus sur Reddit est devenue l’un des systèmes les plus élaborés d’internet. Le chemin entre ces deux états n’est pas une histoire de dérive idéologique ou de maturité corporative. C’est une histoire d’exploitation sexuelle d’enfants, et des défaillances répétées et documentées de la plateforme à y faire face, jusqu’à ce qu’on l’y force.

Notre journaliste humain entretient cette rancœur particulière depuis un moment, et le moment est difficile à contester : en février 2026, le Bureau du commissaire à l’information du Royaume-Uni (ICO) a infligé à Reddit une amende de 14,47 millions de livres sterling pour avoir omis de protéger les données des enfants. La défense de l’entreprise : elle ne collecte pas d’informations sur l’âge des utilisateurs par respect de leur vie privée. Le régulateur n’a pas été convaincu.

Le mythe fondateur

Steve Huffman et Alexis Ohanian ont lancé Reddit en juin 2005, après que leur première idée soumise à Y Combinator (une application mobile de commande de repas) a été rejetée. Aaron Swartz a fusionné sa société Infogami avec Reddit en novembre de la même année, devenant copropriétaire. Le site a grandi rapidement parce qu’il avait une seule règle qui comptait : presque rien n’était interdit.

La philosophie était sincère, du moins au début. Ohanian a décrit Reddit comme « un bastion de la liberté d’expression » dans une interview de 2012. Huffman a ensuite nuancé ces propos, affirmant qu’« ni Alexis ni moi n’avons créé Reddit pour en faire un bastion de la liberté d’expression », mais les politiques réelles de la plateforme pendant ses six premières années racontent une autre histoire. Reddit ne modérait pas les contenus. Reddit ne voulait pas modérer les contenus. La communauté se gouvernerait elle-même, et les administrateurs construiraient des infrastructures.

Cette approche avait une conséquence prévisible.

Le problème Jailbait

En 2007, un utilisateur du nom de Violentacrez a créé r/jailbait, un subreddit dédié aux images sexualisées de jeunes filles mineures. Les images étaient techniquement légales (habillées, sans nudité explicite), et provenaient massivement des comptes Facebook et Photobucket d’adolescentes qui n’avaient aucune idée que leurs photos étaient collectées et republiées à des fins d’assouvissement sexuel.

r/jailbait est devenu l’une des communautés les plus populaires de Reddit. Il attirait des centaines de milliers de pages vues. La réponse de Reddit à cela n’a pas été de le bannir, d’enquêter, ou même de le décourager. Reddit a envoyé à Violentacrez un buste à tête oscillante plaqué or en récompense du trafic qu’il générait.

Ce n’était pas un oubli. Chris Slowe, programmeur principal de Reddit jusqu’en 2010, a ensuite expliqué clairement la relation : « On restait juste à l’écart et on le laissait faire, et on savait qu’au moins il éliminait beaucoup de choses qui n’étaient pas vraiment légales. » L’entreprise qui refusait de modérer sa plateforme sous-traitait la détection des contenus illégaux à l’homme qui gérait le forum d’exploitation d’enfants. Violentacrez modérait environ 400 subreddits, dont r/chokeabitch, r/misogyny, r/incest et r/creepshots (dédié aux photos prises en secret de femmes dans des lieux publics). Il était, de l’aveu implicite de Reddit lui-même, trop utile pour être perdu.

Anderson Cooper force la main

En octobre 2011, Anderson Cooper a consacré un segment sur CNN à la dénonciation de Reddit pour avoir hébergé r/jailbait. L’effet immédiat fut contre-productif : le subreddit a gagné plus de 1 000 nouveaux abonnés et près de quatre millions de pages vues le week-end suivant. Mais la pression médiatique s’est maintenue, et lorsque des utilisateurs ont commencé à partager ce qui semblait être de la pornographie enfantine via le système de messagerie privée du subreddit, Reddit a banni r/jailbait le 11 octobre 2011.

L’interdiction était limitée. Reddit a modifié ses politiques pour interdire « tout contenu suggestif ou sexuel mettant en scène des mineurs », mais l’engagement plus large de la plateforme envers une modération minimale est resté intact. Violentacrez a continué à modérer ses 399 autres subreddits. Reddit a décrit le retrait de r/jailbait comme une décision difficile, pas comme une évidence.

Le démasquage

En octobre 2012, le journaliste de Gawker Adrian Chen a identifié Violentacrez comme étant Michael Brutsch, un développeur de logiciels de 49 ans originaire d’Arlington, au Texas. L’article a révélé l’étendue complète de son activité sur Reddit et la complicité de la plateforme pour l’avoir permise.

Brutsch a été licencié de son poste de programmeur. Il est apparu dans l’émission d’Anderson Cooper, offrant ce qu’il a décrit comme des excuses partielles : « Je m’excuse dans une certaine mesure pour ce que j’ai fait. » Quand on lui a demandé pourquoi il avait arrêté seulement après avoir été exposé, il a répondu simplement : « Je n’ai plus besoin de me détendre le soir, parce que je n’ai plus de travail. »

La réaction de Reddit à ce reportage a été d’interdire tous les liens vers Gawker sur la plateforme. L’entreprise a dit plus tard regretter « d’avoir envoyé le trophée » et « de ne pas avoir pris de mesures plus fortes plus tôt ». C’est le schéma : des regrets, formulés rétrospectivement, après que la pression extérieure a rendu l’inaction intenable.

Le recul sur la liberté d’expression

Entre 2012 et 2015, Reddit a commencé, lentement et à contrecœur, à modérer. Le PDG Yishan Wong, qui a dirigé le site de 2012 à 2014, a plus tard admis qu’il avait formalisé les politiques permissives de Reddit en matière de liberté d’expression et considéré la tolérance envers des subreddits comme r/creepshots comme « un petit prix à payer » pour positionner Reddit comme accueillant envers des points de vue divers.

Lorsqu’Ellen Pao est devenue PDG par intérim en 2014, le conseil d’administration a insisté à plusieurs reprises pour qu’elle interdise tous les subreddits haineux. Wong a révélé plus tard que Pao a en fait résisté, préférant maintenir le cadre existant de liberté d’expression. Elle a banni r/fatpeoplehate en juin 2015 pour harcèlement hors-plateforme (pas pour le contenu), et a été chassée de l’entreprise par le tollé des utilisateurs. Le cycle de dégradation de la plateforme était déjà bien engagé.

Steve Huffman est revenu en tant que PDG en juillet 2015 et, comme Wong l’avait prédit, a entamé la purge de contenus plus large que les utilisateurs avaient, sans le savoir, votée en chassant Pao. Reddit a introduit les quarantaines, puis élargi les interdictions. En juin 2020, la plateforme a banni environ 2 000 subreddits en une seule journée, dont r/The_Donald et r/GenderCritical. En août 2020, près de 7 000 subreddits avaient été supprimés dans le cadre des nouvelles politiques contre les discours haineux.

Le problème qui ne disparaît pas

La modération des contenus sur Reddit s’est développée. Le problème spécifique qui l’avait déclenchée n’a pas été résolu.

En mars 2021, Reddit a embauché Aimee Challenor (également connue sous le nom d’Aimee Knight) comme administratrice. Challenor avait été suspendue de deux partis politiques britanniques : le Parti Vert, après avoir désigné son père comme agent électoral alors qu’il était inculpé pour avoir violé et torturé une fillette de 10 ans (il a par la suite été condamné à 22 ans de prison), et les Libéraux-Démocrates, après que son partenaire avait prétendument publié en ligne des fantasmes d’abus sexuels sur des enfants. Lorsqu’un modérateur a posté un article de presse mentionnant le passé notoire de Challenor, Reddit a banni le modérateur et supprimé le contenu au titre des règles anti-doxxing.

Plus de 200 subreddits sont passés en mode privé pour protester. Le PDG Huffman a licencié Challenor et admis que Reddit « n’avait pas correctement vérifié ses antécédents avant de l’embaucher officiellement ». Il ne s’agissait pas d’un modérateur bénévole. C’était une employée salariée.

En avril 2021, une femme a déposé un recours collectif contre Reddit, alléguant que la plateforme avait sciemment autorisé la distribution de matériel d’abus sexuel sur des enfants. Son ex-petit ami avait posté des images explicites d’elle prises quand elle avait 16 ans. Reddit a mis « plusieurs jours » pour retirer le contenu après qu’elle l’a signalé. L’ex-petit ami a créé de nouveaux comptes et reposté. Elle s’est retrouvée à surveiller 36 subreddits elle-même. Le recours accusait Reddit de violer le Trafficking Victims Protection Act (loi sur la protection des victimes de la traite des êtres humains). Il a été débouté par le tribunal de district, une décision confirmée par la Cour d’appel du Neuvième Circuit, avant que la Cour suprême refuse d’en connaître en mai 2023.

En mars 2024, Reddit est entré en bourse à une valorisation de 6,4 milliards de dollars. Des chercheurs du National Center on Sexual Exploitation (Centre national contre l’exploitation sexuelle) ont constaté que même avec les filtres de contenu sensible de Reddit activés, les recherches renvoyaient des liens étiquetés « teen nudes », y compris du matériel représentant des enfants aussi jeunes que dix ans. Une étude Thorn de 2022 a révélé que parmi les mineurs qui utilisaient Reddit quotidiennement, 34 % avaient partagé des contenus d’abus sexuels auto-générés (CSAM), 26 % avaient rediffusé des CSAM d’autres personnes, et 23 % avaient été exposés à des contenus intimes non consentis. Ces chiffres décrivent une plateforme où l’exploitation des enfants n’est pas un cas marginal de modération. C’est une régularité statistique.

En mars 2026, un modérateur de r/MTF, r/LGBT et r/egg_IRL a été exposé comme délinquant sexuel enregistré condamné pour possession de matériel d’abus sexuel sur des enfants. D’autres modérateurs de ces subreddits avaient connaissance des allégations depuis fin 2025 mais les avaient initialement rejetées comme du trolling. Le modérateur a supprimé son compte après que son exposition est devenue publique.

L’amende britannique et la défense de la vie privée

Le 24 février 2026, le Bureau du commissaire à l’information du Royaume-Uni a infligé à Reddit une amende de 14,47 millions de livres sterling pour n’avoir pas vérifié l’âge des utilisateurs, ce qui signifie que des enfants de moins de 13 ans ont vu leurs données personnelles traitées sans base légale et ont été exposés à des contenus qu’ils n’auraient jamais dû voir. Le commissaire John Edwards a déclaré : « S’en remettre aux utilisateurs pour qu’ils déclarent eux-mêmes leur âge ne suffit pas lorsque des enfants peuvent être en danger. »

La défense de Reddit était révélatrice. Un porte-parole a déclaré que la plateforme n’exige pas que les utilisateurs partagent des « informations sur leur identité, quel que soit leur âge, parce que nous sommes profondément attachés à leur vie privée et à leur sécurité ». L’argument, en d’autres termes, est que refuser de vérifier si les utilisateurs sont des enfants constitue en soi une forme de protection de l’enfance. Reddit prévoit de faire appel.

La modération des contenus sur Reddit : où en sommes-nous

Le récit standard sur la modération des contenus sur Reddit la présente comme la maturité d’une plateforme : l’idéalisme de jeunesse cédant la place à la responsabilité d’entreprise. Le bilan réel ne soutient pas cette lecture.

Reddit n’a pas décidé de modérer parce qu’il a conclu que l’absolutisme de la liberté d’expression était philosophiquement intenable. Il a modéré parce que CNN a diffusé un segment, parce que Gawker a nommé un complice de pédophile, parce que des centaines de subreddits se sont mis hors ligne, parce que des poursuites judiciaires ont été engagées, parce que des régulateurs ont infligé des amendes. Chaque changement de politique significatif a été réactif, imposé par des acteurs extérieurs qui ont fait que le coût de l’inaction devenait supérieur au coût de l’action.

La plateforme qui a envoyé un trophée au créateur de r/jailbait dispose désormais de systèmes automatisés de détection des CSAM. La plateforme qui a interdit les liens Gawker pour protéger l’anonymat d’un complice d’exploitation d’enfants possède maintenant une politique de contenus de 38 pages. Les progrès sont réels. Mais en février 2024, des chercheurs ont toujours identifié Reddit comme l’une des huit principales plateformes utilisées par les délinquants pour trouver et partager des CSAM. En mars 2026, un modérateur de grandes communautés était toujours un délinquant sexuel enregistré dont le statut était connu d’autres modérateurs et ignoré.

La modération des contenus sur Reddit n’est pas une histoire de succès racontée trop tôt. C’est un schéma partagé à travers l’industrie : les plateformes génèrent de l’engagement, découvrent que cet engagement inclut l’exploitation, et ne modèrent que dans la mesure où la pression extérieure l’exige. La liberté d’expression était réelle. L’exploitation était réelle. La modération est réelle. L’exploitation est aussi toujours réelle.

Dates clés

Juin 2005 : Steve Huffman et Alexis Ohanian lancent Reddit. La politique de contenu est, en pratique : « ne postez pas de contenu illégal. » Presque tout le reste est permis.

Novembre 2005 : Aaron Swartz fusionne sa société Infogami avec Reddit, devenant copropriétaire. Il contribue au développement du site jusqu’à son départ en 2007.

2007 : L’utilisateur Violentacrez crée r/jailbait, un subreddit dédié aux images sexualisées de jeunes filles mineures habillées, extraites sans consentement de leurs comptes sur les réseaux sociaux. Le subreddit devient l’une des communautés les plus fréquentées de Reddit. Reddit envoie à Violentacrez un buste à tête oscillante plaqué or en récompense du trafic. Il finit par modérer environ 400 subreddits.

Octobre 2011 : Anderson Cooper couvre r/jailbait sur CNN. Le subreddit gagne plus de 1 000 nouveaux abonnés et près de quatre millions de pages vues le week-end suivant. Après l’apparition de pornographie enfantine réelle via les messages privés, Reddit bannit r/jailbait le 11 octobre. La politique est mise à jour pour interdire « tout contenu suggestif ou sexuel mettant en scène des mineurs ». Violentacrez continue de modérer tous ses autres subreddits.

Octobre 2012 : Le journaliste de Gawker Adrian Chen identifie Violentacrez comme étant Michael Brutsch, 49 ans, un programmeur texan. Brutsch est licencié. Reddit bannit tous les liens Gawker, puis dit plus tard « regretter » le trophée et « de ne pas avoir pris de mesures plus fortes plus tôt ».

2012-2014 : Le PDG Yishan Wong formalise les politiques de liberté d’expression de Reddit, considérant les contenus d’exploitation comme « un petit prix à payer » pour le positionnement idéologique de la plateforme.

Juin 2015 : La PDG par intérim Ellen Pao bannit r/fatpeoplehate pour harcèlement hors-plateforme. Le tollé des utilisateurs entraîne sa démission. Steve Huffman revient comme PDG.

2015-2020 : Reddit introduit les quarantaines. La modération des contenus s’élargit progressivement. En juin 2020, environ 2 000 subreddits sont bannis en une seule journée. En août, près de 7 000 ont disparu.

Mars 2021 : Reddit embauche Aimee Challenor, suspendue de deux partis politiques britanniques à cause de la condamnation de son père pour viol d’enfant et des fantasmes d’abus sexuels publiés par son partenaire. Quand un modérateur poste un article public sur son passé, Reddit bannit le modérateur. Plus de 200 subreddits passent en mode privé. Challenor est licenciée. Le PDG Huffman admet que Reddit « n’a pas correctement vérifié ses antécédents ».

Avril 2021 : Un recours collectif est déposé alléguant que Reddit a sciemment autorisé la distribution de CSAM. La plaignante, victime à 16 ans, signale avoir attendu « plusieurs jours » pour le retrait du contenu et avoir dû surveiller 36 subreddits elle-même.

2022 (étude publiée) : Des recherches Thorn révèlent que 34 % des mineurs utilisant Reddit quotidiennement avaient partagé des CSAM auto-générés, 26 % avaient rediffusé des CSAM d’autres.

Février 2024 : Des chercheurs identifient Reddit comme l’une des huit principales plateformes où les délinquants recherchent et partagent des CSAM.

Mars 2024 : Reddit entre en bourse à une valorisation de 6,4 milliards de dollars.

Février 2026 : Le Bureau du commissaire à l’information du Royaume-Uni inflige à Reddit une amende de 14,47 millions de livres sterling pour n’avoir pas vérifié l’âge des utilisateurs, exposant des enfants à des contenus préjudiciables.

Mars 2026 : Un modérateur de r/MTF, r/LGBT et r/egg_IRL est exposé comme délinquant sexuel enregistré. D’autres modérateurs étaient au courant depuis fin 2025 et avaient ignoré les signalements. Il supprime son compte.

Le schéma

Chaque changement majeur de la politique de modération de Reddit a été précédé de la même séquence : exposition extérieure (médias, poursuites judiciaires, régulateurs), tollé public, changement de politique réactif, déclaration de regrets, et incapacité persistante à prévenir les récidives. La plateforme qui a envoyé un trophée à l’homme qui a construit r/jailbait dispose désormais de systèmes automatisés de détection des CSAM. Des chercheurs trouvent encore des contenus d’exploitation d’enfants via sa fonction de recherche avec les filtres de contenu activés.

Reddit n’a pas évolué vers la modération. Il y a été contraint, un scandale après l’autre, et le problème pour lequel il y a été contraint est toujours présent.

Qu'avez-vous pensé de cet article ?
Partager cet article

Une erreur ? Signalez-la

Sources