La course aux armements des algorithmes de réseaux sociaux a fait des victimes, et ce ne sont pas les entreprises. Le 16 mars 2026, la BBC a diffusé Inside the Rage Machine, un documentaire fondé sur les témoignages de plus d’une dizaine de lanceurs d’alerte et d’anciens employés des deux plateformes. La thèse centrale n’est pas nouvelle dans l’abstrait : les algorithmes optimisés pour l’engagement amplifient les contenus nuisibles. Ce qui est nouveau, c’est la précision des révélations. Des chercheurs, ingénieurs et membres des équipes confiance et sécuritéDépartement au sein des entreprises technologiques chargé d'appliquer les règles de la plateforme, d'examiner les signalements de contenus nuisibles et de protéger les utilisateurs contre les abus., nommément identifiés, ont décrit publiquement comment Meta et TikTok ont pris des décisions délibérées d’assouplissement des contrôles de sécurité dans le but de prendre l’avantage sur la concurrence.
Cet article explique ce que le documentaire a révélé, comment la course aux armements des algorithmes fonctionne concrètement sur le plan technique, et pourquoi ce schéma se répète malgré des années d’examen public.
Ce qu’ont dit les lanceurs d’alerte
Le documentaire, produit par Marianna Spring, correspondante de la BBC spécialisée dans les investigations sur les réseaux sociaux, réunit des témoignages d’initiés des deux entreprises. Les révélations les plus significatives se répartissent en deux catégories : la décision de Meta d’assouplir ses normes de sécurité des contenus, et la priorisation interne par TikTok des cas politiques au détriment des signalements de protection de l’enfance.
La décision de Meta sur les contenus « borderline ». Matt Motyl, chercheur senior chez Meta de 2019 à 2023, qui a mené des expériences sur des centaines de millions d’utilisateurs pour tester le classement des contenus dans les fils d’actualité, a déclaré à la BBC qu’Instagram Reels avait été lancé en 2020 sans protections de sécurité suffisantes. Des recherches internes montraient que les commentaires sur Reels présentaient un taux d’intimidation et de harcèlement supérieur de 75 %, un taux de discours haineux supérieur de 19 % et un taux de violence et d’incitation supérieur de 7 % par rapport au reste d’Instagram. Un ingénieur de Meta identifié sous le nom de « Tim » a indiqué avoir reçu instruction de la direction d’autoriser davantage de contenus « borderline » nuisibles (du matériel qui ne viole pas techniquement les règles, mais comprend des théories complotistes, de la misogynie et d’autres contenus générateurs d’engagement) dans les fils des utilisateurs. La raison invoquée : « le cours de l’action est en baisse ».
Le déficit en personnel. Tandis que Meta affectait 700 employés au développement de Reels, les équipes de sécurité se sont vu refuser deux postes spécialisés pour la protection de l’enfance et dix postes supplémentaires pour l’intégrité électorale, selon un autre ancien cadre supérieur.
L’inversion des priorités chez TikTok. Un membre de l’équipe confiance et sécuritéDépartement au sein des entreprises technologiques chargé d'appliquer les règles de la plateforme, d'examiner les signalements de contenus nuisibles et de protéger les utilisateurs contre les abus. identifié sous le nom de « Nick », qui a surveillé les systèmes internes de TikTok pendant plusieurs mois en 2025, a fourni à la BBC l’accès à des tableaux de bord internes montrant comment l’entreprise classait les signalements de sécurité. Les cas impliquant des personnalités politiques recevaient une priorité plus élevée que les signalements de préjudices subis par des mineurs. Dans un exemple documenté, une personnalité politique ayant fait l’objet de moqueries par comparaison à un poulet a été traitée en priorité par rapport à un adolescent de 17 ans signalant du cyberharcèlement et à une jeune Irakienne de 16 ans victime de chantage sexuel.
Le point de vue de l’ingénieur en algorithmes. Ruofan Ding, ingénieur en apprentissage automatique ayant construit le moteur de recommandation de TikTok de 2020 à 2024, a décrit le système comme une « boîte noire » opaque, difficilement contrôlable, même par ses propres créateurs.
Pourquoi le contenu « borderline » est-il important
La notion de contenu « borderline » est au cœur de cette histoire. Elle désigne des contenus qui se situent juste en dessous du seuil de violation des règles : pas techniquement interdits, mais conçus pour provoquer de fortes réactions émotionnelles. Une publication promouvant une théorie du complot qui s’arrête juste avant d’appeler explicitement à la violence. Un mème misogyne sans insultes directes. Des contenus qui vous mettent suffisamment en colère pour commenter, partager ou débattre, mais pas assez pour les signaler.
Ces plateformes utilisent des algorithmes de recommandation qui décident de ce qui apparaît dans votre fil. Ces algorithmes sont entraînés sur des signaux d’engagement : mentions « j’aime », commentaires, partages, temps passé à visionner. Les contenus qui provoquent l’indignation génèrent systématiquement plus d’engagement que ceux qui informent ou divertissent calmement. Cette observation n’est pas nouvelle. Frances Haugen, ancienne chargée de produit chez Facebook, a témoigné devant le Congrès américain en 2021 qu’une modification algorithmique de 2018 chez Facebook avait commencé à prioriser les publications à fort engagement, et que des recherches internes montraient que les contenus « en colère » recevaient le plus d’engagement et donc la plus grande diffusion.
Ce que Inside the Rage Machine apporte en plus, c’est la preuve que cette dynamique s’est intensifiée lors de la bataille concurrentielle entre Meta et TikTok. Lorsque le format vidéo court de TikTok a commencé à attirer des utilisateurs d’Instagram, Meta s’est précipité à lancer Reels comme concurrent direct. Les lanceurs d’alerte décrivent une entreprise qui traitait la sécurité comme un obstacle à la vitesse, non comme une condition au lancement.
Les preuves académiques
Les témoignages des lanceurs d’alerte s’accordent avec la recherche évaluée par les pairs. Une étude de 2025 publiée dans PNAS Nexus, « Engagement, User Satisfaction, and the Amplification of Divisive Content on Social Media« , a mené un audit algorithmiqueExamen structuré du comportement réel d'un algorithme de recommandation, qui teste quels contenus il amplifie et compare les résultats aux objectifs déclarés ou aux préférences des utilisateurs. préenregistré du système de recommandation de Twitter (désormais X). Elle a conclu que le classement fondé sur l’engagement amplifie les contenus à forte charge émotionnelle et hostiles à l’exogroupe, et que ces contenus ne correspondent pas à ce que les utilisateurs déclarent préférer lorsqu’on leur pose directement la question. L’algorithme optimise pour ce sur quoi vous cliquez, non pour ce que vous choisiriez dans un moment de réflexion.
Une étude distincte de 2025 sur le système de recommandation de YouTube a révélé que l’algorithme renforce les émotions négatives, poussant les utilisateurs vers des contenus déclenchant des réactions impulsives plutôt que vers des contenus alignés sur leurs préférences à long terme. Les chercheurs encadrent cela comme un conflit entre la pensée « Système 1 » (rapide, émotionnelle) et la pensée « Système 2 » (délibérée, réflexive) : les algorithmes exploitent systématiquement la première au détriment de la seconde.
Voilà le mécanisme qui rend le contenu « borderline » lucratif. L’algorithme ne sait pas de quoi parle le contenu. Il sait que les publications affichant certains schémasCadres mentaux de représentations compressées et d'attentes que le cerveau utilise pour encoder, stocker et récupérer les informations. Lorsque vous vous souvenez de quelque chose, votre cerveau la reconstruit en utilisant des schémas plus tous les indices contextuels présents. d’engagement sont davantage cliquées, partagées et commentées. Les contenus suscitant l’indignation produisent ces schémas de manière fiable. Le système ne choisit pas d’amplifier le préjudice ; il choisit d’amplifier l’engagement, et le préjudice est fortement corrélé à l’engagement.
Ce qu’ont répondu les entreprises
Meta a démenti avoir délibérément amplifié des contenus nuisibles à des fins financières : « Toute suggestion selon laquelle nous amplifierions délibérément des contenus nuisibles à des fins financières est fausse. » TikTok a qualifié les allégations de « fabriquées » et mis en avant ses investissements dans les technologies de sécurité des contenus.
Ces démentis méritent d’être analysés attentivement. Le communiqué de Meta porte sur l’intention (« délibérément »), non sur les résultats. L’allégation des lanceurs d’alerte n’est pas que l’objectif déclaré de Meta était de nuire aux utilisateurs, mais que Meta a choisi d’accepter davantage de préjudices en contrepartie d’une rapidité concurrentielle. TikTok, de son côté, formule un démenti plus large mais ne fournit aucun démenti spécifique aux tableaux de bord internes présentés dans le documentaire.
Pourquoi la course aux armements des algorithmes de réseaux sociaux se répète
Le schéma décrit dans Inside the Rage Machine n’est pas unique. Il s’agit d’un cycle récurrent dans l’industrie des réseaux sociaux. Un rapport interne de Facebook datant de 2019, obtenu par Frances Haugen, révélait que des partis politiques européens estimaient que la modification algorithmique les « forçait à adopter un ton négatif dans leurs communications sur Facebook, les entraînant vers des positions politiques plus extrêmes ». La structure d’incitation de la plateforme reconfigurait les comportements politiques, et l’entreprise le savait.
Le problème structurel est que la publicité fondée sur l’engagement crée une incitation financière directe à maximiser le temps passé sur la plateforme, et les contenus émotionnellement provocateurs sont l’outil le plus efficace pour y parvenir. Toutes les grandes plateformes sont confrontées à cette incitation. L’intention réelle des utilisateurs, ce que vous avez réellement cherché ou souhaitez voir, passe au second plan par rapport à ce que l’algorithme prédit comme susceptible de vous maintenir en défilement. Des lanceurs d’alerte émergent, l’indignation publique s’ensuit, les entreprises promettent des réformes, la pression concurrentielle revient, et le cycle recommence.
La contribution du documentaire à l’histoire de la course aux armements des algorithmes de réseaux sociaux n’est pas la révélation que les algorithmes amplifient l’indignation. Cela est établi depuis des années. Sa contribution, c’est la preuve granulaire que Meta et TikTok ont pris des décisions spécifiques et documentées pour affaiblir les protections de sécurité durant une période de concurrence directe, avec des employés nommément identifiés décrivant les instructions reçues et les données internes qui en montraient les conséquences. La citation « le cours de l’action est en baisse » n’est pas une abstraction sur les structures d’incitation. C’est une instruction rapportée de la direction à un ingénieur précis concernant un changement de politique précis.
La question est de savoir si les preuves issues de cette course aux armements des algorithmes de réseaux sociaux se traduiront par des mesures concrètes. Les initiatives législatives visant à réguler l’impact des réseaux sociaux sur les jeunes se multiplient dans plusieurs pays, mais les mécanismes d’application restent insuffisants et la capacité de lobbying des plateformes demeure puissante. Meta a démontré sa capacité à façonner la législation même censée la réguler. Les lanceurs d’alerte ont fourni les preuves. Reste à savoir si une institution quelconque en tirera les conséquences.
Ce qu’ont révélé les lanceurs d’alerte
Le documentaire, produit par Marianna Spring, correspondante de la BBC spécialisée dans les investigations sur les réseaux sociaux, réunit des témoignages d’initiés des deux entreprises. Les révélations se répartissent en deux catégories distinctes : l’assouplissement délibéré par Meta des normes de sécurité des contenus lors du lancement de Reels, et le système interne de priorisation des cas chez TikTok qui déprioritisait systématiquement les signalements de protection de l’enfance.
Meta : le déficit de sécurité de Reels
Matt Motyl, chercheur senior chez Meta de 2019 à 2023, a déclaré à la BBC avoir mené de « grandes expériences sur parfois plusieurs centaines de millions de personnes » pour tester le classement des contenus dans les fils d’actualité. Son récit du lancement d’Instagram Reels en 2020 est précis : le produit a été mis sur le marché sans infrastructure de sécurité suffisante, et les métriques internes en ont confirmé les conséquences. Les commentaires sur Reels présentaient un taux d’intimidation et de harcèlement supérieur de 75 %, un taux de discours haineux supérieur de 19 % et un taux de violence et d’incitation supérieur de 7 % par rapport au reste d’Instagram.
Ces chiffres sont significatifs car ils quantifient l’écart de sécurité entre un produit lancé avec un examen approfondi et un produit lancé dans la précipitation concurrentielle. Reels était la réponse directe de Meta à la croissance explosive de TikTok dans le domaine de la vidéo courte. L’écart de 75 % en matière d’intimidation n’est pas une augmentation marginale ; il suggère un environnement de modération fondamentalement différent, probablement parce que le système de recommandation de contenus de Reels avait été optimisé pour la vitesse d’engagement sans investissement proportionnel dans des modèles de classification des contenus entraînés sur les schémasCadres mentaux de représentations compressées et d'attentes que le cerveau utilise pour encoder, stocker et récupérer les informations. Lorsque vous vous souvenez de quelque chose, votre cerveau la reconstruit en utilisant des schémas plus tous les indices contextuels présents. d’abus spécifiques que génère la vidéo courte.
Un ingénieur de Meta identifié sous le nom de « Tim » a indiqué avoir reçu instruction de la direction d’autoriser davantage de contenus « borderline » nuisibles dans les fils des utilisateurs. Dans la taxonomie interne de Meta, les contenus « borderline » désignent les contenus qui tombent en dessous du seuil d’application des standards communautaires, mais qui déclenchent néanmoins des réponses émotionnelles à forte activation : théories du complot, cadrage misogyne, contenus politiques inflammatoires. Selon Tim, l’instruction était présentée comme une nécessité concurrentielle : « Ils nous ont en quelque sorte dit que c’est parce que le cours de l’action est en baisse. »
La répartition des effectifs raconte une histoire parallèle. Meta a affecté 700 employés au développement de Reels. Les équipes de sécurité ont demandé deux postes spécialisés pour la protection de l’enfance et dix pour l’intégrité électorale. Les deux demandes ont été refusées. Il ne s’agit pas d’une contrainte budgétaire ; c’est une préférence révélée. Le ratio (700 contre 0) communique la priorité organisationnelle plus clairement que n’importe quelle déclaration de mission.
TikTok : l’inversion des priorités dans la confiance et la sécurité
Un membre de l’équipe confiance et sécuritéDépartement au sein des entreprises technologiques chargé d'appliquer les règles de la plateforme, d'examiner les signalements de contenus nuisibles et de protéger les utilisateurs contre les abus. identifié sous le nom de « Nick », qui a surveillé les systèmes internes de TikTok pendant plusieurs mois en 2025, a fourni à la BBC l’accès à des tableaux de bord internes montrant la logique de priorisation des cas par l’entreprise. Le système attribuait des scores de priorité plus élevés aux cas impliquant des personnalités politiques qu’aux cas impliquant des préjudices subis par des mineurs.
L’exemple cité : un cas impliquant une personnalité politique moquée par comparaison à un poulet a reçu une priorité plus élevée qu’un adolescent de 17 ans signalant du cyberharcèlement et qu’une jeune Irakienne de 16 ans signalant un chantage sexuel. Il s’agit d’une inversion de priorités au sens classique du génie logiciel : un cas de faible gravité est traité avant des cas de haute gravité parce que la fonction de priorité pondère la mauvaise variable (la sensibilité politique plutôt que la gravité du préjudice).
Ruofan Ding, ingénieur en apprentissage automatique ayant travaillé sur le moteur de recommandation de TikTok de 2020 à 2024, a décrit le système comme une « boîte noire » opaque, difficile à contrôler. Cela est cohérent avec l’architecture des systèmes de recommandation à grande échelle : des réseaux neuronaux profonds avec des milliards de paramètres, entraînés sur des signaux de retour implicites, dont les représentations internes ne sont pas directement interprétables, même par leurs concepteurs. Le système apprend des associations statistiques entre les caractéristiques des contenus et les résultats d’engagement. Il ne modélise pas le préjudice, le bien-être ou la préférence des utilisateurs de manière sémantiquement significative.
Les mécanismes techniques de l’amplification de l’engagement
Pour comprendre pourquoi les contenus « borderline » sont lucratifs, il faut comprendre ce qu’un algorithme de recommandation optimise réellement. Les systèmes modernes de classement des fils d’actualité (ceux de Meta, TikTok, YouTube, X) sont entraînés sur des signaux d’engagement : clics, temps de visionnage, mentions « j’aime », commentaires, partages, et dans certains cas, des signaux d’engagement négatif comme les signalements (bien que ceux-ci soient généralement pondérés à la baisse plutôt que traités comme disqualifiants).
L’objectif d’entraînement est généralement une combinaison pondérée de ces signaux, structurée comme un problème d’apprentissage multitâche. Le modèle prédit, pour chaque contenu candidat, la probabilité qu’un utilisateur donné s’y engage de chacune de ces façons. Les scores d’engagement prédits sont combinés (avec une pondération logique métier) en un score de classement unique. Le contenu avec l’engagement prédit le plus élevé apparaît en premier dans le fil.
Le problème est que l’engagement n’est pas un indicateur de valeur. C’est un indicateur d’activation. Les contenus qui provoquent la colère, la peur, l’indignation morale ou l’identification tribale génèrent un fort engagement parce qu’ils activent des processus cognitifs rapides et automatiques (ce que les économistes comportementaux appellent le Système 1). Les contenus qui informent, contextualisent ou exigent de la réflexion génèrent moins d’engagement parce qu’ils activent un traitement plus lent et délibéré (le Système 2). L’algorithme ne peut pas distinguer ces deux modes. Il voit l’engagement. Il amplifie l’engagement. Le comportement émergentComportement qui apparaît dans un système complexe sans avoir été conçu dans aucun de ses composants individuels. L'ensemble produit des résultats qu'aucune partie n'a intentionnellement générés — l'évolution, les embouteillages et les crises financières en sont des exemples. est l’amplification des contenus à forte activation.
Un audit algorithmiqueExamen structuré du comportement réel d'un algorithme de recommandation, qui teste quels contenus il amplifie et compare les résultats aux objectifs déclarés ou aux préférences des utilisateurs. préenregistré publié en 2025 dans PNAS Nexus, « Engagement, User Satisfaction, and the Amplification of Divisive Content on Social Media« , a testé cela directement sur Twitter/X. L’étude a révélé que le classement fondé sur l’engagement amplifie les contenus à forte charge émotionnelle et hostiles à l’exogroupe. Point crucial : lorsqu’on a interrogé les utilisateurs sur leur préférence entre le fil classé algorithmiquement et un fil chronologique inversé, ils ont préféré le second pour les contenus politiques. L’algorithme optimisait pour quelque chose que les utilisateurs ne voulaient pas réellement, lorsqu’on leur donnait le choix de manière réfléchie.
Une étude distincte de 2025 sur YouTube a révélé que son système de recommandation renforce les états émotionnels négatifs, suggérant que l’optimisation pour les métriques d’engagement produit une boucle de rétroaction : l’utilisateur se voit présenter des contenus déclenchant une réponse émotionnelle négative, l’état négatif augmente la probabilité de continuer à interagir (le défilement compulsif est un comportement bien documenté), et l’algorithme interprète l’engagement continu comme un signal positif, en servant davantage du même type de contenu.
Le contenu « borderline » comme cible d’optimisation
Le contenu « borderline » est particulièrement précieux pour les systèmes optimisés pour l’engagement parce qu’il occupe une position idéale : suffisamment provocateur pour générer un fort engagement, mais pas au point de déclencher des seuils de signalement qui entraîneraient sa suppression. Dans le cadre de modération des contenus de Meta, les contenus sont classés sur un spectre. Les contenus qui violent clairement les standards communautaires sont supprimés. Les contenus qui tombent en dessous du seuil de violation mais suscitent néanmoins des préoccupations sont « borderline ». Les propres recherches internes de Meta, révélées par Frances Haugen en 2021, montraient que ces contenus « borderline » étaient disproportionnellement efficaces pour générer de l’engagement.
L’instruction d’autoriser davantage de contenus « borderline », telle que décrite par Tim, est donc une instruction d’élargir la zone d’optimisation de l’engagement. En relevant le seuil à partir duquel les contenus sont déclassés ou supprimés, l’algorithme accède à un plus grand bassin de contenus à fort engagement. Le coût est supporté par les utilisateurs, sous la forme d’une exposition accrue aux théories du complot, à la misogynie et aux contenus inflammatoires. Le bénéfice revient à la plateforme, sous la forme d’un temps passé plus long et de recettes publicitaires accrues.
La course aux armements des algorithmes de réseaux sociaux : dynamiques concurrentielles
Les révélations de Haugen en 2021 ont établi que Facebook savait que son algorithme amplifiait les contenus divisifs. Un rapport interne de 2019 obtenu par Haugen révélait que des partis politiques européens estimaient que l’algorithme les « forçait à adopter un ton négatif dans leurs communications sur Facebook, les entraînant vers des positions politiques plus extrêmes ». Les incitations à l’engagement de la plateforme reconfiguraient les comportements politiques réels.
Ce que Inside the Rage Machine apporte, cinq ans plus tard, c’est la preuve que le problème s’est intensifié sous la pression concurrentielle de TikTok. Le moteur de recommandation de TikTok, construit sur l’infrastructure de compréhension des contenus de ByteDance, s’est avéré exceptionnellement efficace pour capter l’attention des utilisateurs. Sa page « Pour toi », qui propose des contenus de comptes que l’utilisateur ne suit pas sur la seule base de prédictions algorithmiques, a établi un nouveau standard en matière d’engagement par session. La réponse de Meta a été de répliquer le format (Reels) et d’égaler l’intensité de l’engagement. Les lanceurs d’alerte décrivent cela comme une course dans laquelle la sécurité était la variable sacrifiée.
La course aux armements des algorithmes de réseaux sociaux est un problème classique d’action collective. Toute plateforme individuelle qui investit unilatéralement dans la sécurité au détriment de l’engagement risque de perdre des utilisateurs au profit de concurrents qui ne le font pas. La stratégie rationnelle, en l’absence de réglementation, est de s’aligner sur le plus petit dénominateur commun. L’efficacité algorithmique de TikTok a contraint Meta à rivaliser en matière d’intensité d’engagement, et le levier le plus facile à actionner était l’assouplissement du seuil des contenus « borderline ».
La neutralisation systématique de l’intention des utilisateurs par les algorithmes des plateformes est un schéma bien documenté dans l’ensemble de l’industrie. Ce que les utilisateurs recherchent, ce qu’ils déclarent vouloir, et ce que l’algorithme leur sert sont de plus en plus divergents. Le modèle publicitaire des plateformes dépend de cette divergence : servir aux utilisateurs ce qui maximise l’engagement (et donc les impressions publicitaires) plutôt que ce que les utilisateurs choisiraient pour eux-mêmes.
Les réponses des entreprises et leur signification réelle
Démenti de Meta : « Toute suggestion selon laquelle nous amplifierions délibérément des contenus nuisibles à des fins financières est fausse. » Cette formulation est soigneusement choisie. Elle porte sur l’intention (« délibérément ») et non sur les résultats. L’allégation des lanceurs d’alerte n’est pas que le conseil d’administration de Meta s’est réuni pour décider de nuire aux utilisateurs. C’est que Meta a pris une série de décisions d’allocation de ressources et de politique qui ont de manière prévisible accru l’exposition des utilisateurs à des contenus nuisibles, et que ces décisions étaient motivées par des pressions concurrentielles et financières. La question de savoir si « délibérément » couvre « l’acceptation consciente d’un préjudice prévisible comme effet secondaire d’une stratégie concurrentielle » est une question juridique et sémantique, non empirique.
TikTok a qualifié les allégations de « fabriquées » et mis en avant ses investissements dans les technologies de sécurité des contenus. Il s’agit d’un démenti plus large mais tout aussi imprécis. L’investissement dans les technologies de sécurité n’est pas incompatible avec le fait de déprioritiser simultanément les cas de protection de l’enfance par rapport aux cas politiques. Une entreprise peut dépenser des millions en modération de contenus par IA tout en instruisant ses examinateurs humains de prioriser la sensibilité politique. Les tableaux de bord internes présentés dans le documentaire sont authentiques ou ne le sont pas. Le communiqué de TikTok ne les traite pas spécifiquement.
Ce qui permettrait réellement de résoudre ce problème
Le problème structurel est que la publicité fondée sur l’engagement crée une incitation financière directe à maximiser l’activation, et les plateformes ont démontré, à maintes reprises, que l’autorégulation échoue sous la pression concurrentielle. Plusieurs approches ont été proposées :
Exigences de transparence algorithmique. Obliger les plateformes à divulguer les objectifs que leurs systèmes de recommandation optimisent, et à publier des audits réguliers des résultats en matière de distribution des contenus. Le règlement européen sur les services numériques (DSA) comporte quelques dispositions en ce sens, mais l’application est à ses débuts.
Classement contrôlé par l’utilisateur. Donner aux utilisateurs la possibilité de choisir leur propre algorithme de classement (chronologique, fondé sur l’engagement, filtré par sujet) plutôt que d’être contraints au choix par défaut de la plateforme. Certains chercheurs ont proposé des cadres de « meilleurs fils d’actualité » optimisés pour la satisfaction à long terme des utilisateurs plutôt que pour l’engagement à court terme.
Responsabilité pour l’amplification algorithmiquePromotion algorithmique de contenu au-delà de sa portée organique, indépendamment de la pertinence ou de l'intention de l'utilisateur. Les plateformes l'utilisent pour maximiser les métriques d'engagement indépendamment de ce que demandent les utilisateurs.. Étendre la responsabilité des plateformes pour couvrir non seulement les contenus hébergés, mais aussi la décision algorithmique d’amplifier des contenus spécifiques à des utilisateurs spécifiques. Il s’agit de la proposition la plus contestée, car elle remet en cause le cadre de la Section 230 aux États-Unis et les dispositions d’exonération de responsabilité équivalentes ailleurs.
Découpler les revenus de l’engagement. Le changement le plus fondamental mais aussi le moins probable : modèles d’abonnement, financement d’intérêt public ou structures publicitaires qui ne récompensent pas la captation de l’attention. Tant que les revenus augmentent avec l’engagement, l’incitation à amplifier l’activation persistera.
Les initiatives législatives visant à protéger les jeunes utilisateurs se multiplient à l’échelle mondiale, mais l’écart d’application reste significatif. Et Meta a démontré sa capacité à façonner la législation même censée la réguler, en finançant des groupes de défense et en rédigeant des projets de loi types exemptant ses propres produits.
Les lanceurs d’alerte de Inside the Rage Machine ont fourni les preuves les plus granulaires à ce jour que le compromis « engagement avant sécurité » n’est pas un sous-produit accidentel de systèmes complexes. C’est une décision commerciale documentée, prise par des personnes nommément identifiées, dans des entreprises spécifiques, pour des raisons financières explicitement déclarées. La question, comme toujours, est celle de la suite.



