Une nouvelle vague de lois restreignant l’accès des adolescents aux réseaux sociaux déferle sur le monde. L’Indonésie a annoncé début mars 2026 qu’elle interdirait les réseaux sociaux et les plateformes en ligne aux utilisateurs de moins de 16 ans. L’Australie a adopté fin 2024 une loi interdisant les réseaux sociaux aux moins de 16 ans, devenant ainsi le premier pays à légiférer sur une interdiction basée sur l’âge d’une telle ampleur. La loi britannique sur la sécurité en ligne impose la vérification d’âge sur un large éventail de services en ligne. La France exige le consentement parental pour les utilisateurs de moins de 15 ans.
Chacune de ces lois se présente comme une réponse à une préoccupation réelle et documentée : l’accumulation de preuves montrant que l’utilisation intensive des réseaux sociaux est associée à de moins bons résultats en matière de santé mentale chez les adolescents, en particulier les filles. L’élan politique est réel. Mais la question technique, celle de savoir si ces interdictions peuvent réellement fonctionner, a reçu moins d’attention que la question politique de savoir si elles devraient exister.
Ce que les lois exigent concrètement
Les interdictions des réseaux sociaux basées sur l’âge fonctionnent, en principe, en obligeant les plateformes à vérifier l’âge des utilisateurs et à refuser l’accès à ceux qui se situent en dessous du seuil. Cela semble simple. En pratique, la vérification d’âge est un problème véritablement difficile.
Le mécanisme est crucial. L’approche la plus simple, demander aux utilisateurs leur date de naissance, ne vérifie rien ; elle ajoute simplement un champ au formulaire d’inscription que les utilisateurs plus jeunes peuvent remplir avec de fausses informations. Des approches plus robustes impliquent des vérifications de documents (télécharger une pièce d’identité officielle), une vérification par carte de crédit (les mineurs n’ont généralement pas de cartes bancaires), ou une estimation biométrique de l’âge (analyse faciale pour estimer l’âge d’un utilisateur à partir d’une photographie).
Chacune de ces approches crée ses propres problèmes. La vérification de documents exige des plateformes qu’elles collectent et stockent des données personnelles sensibles sur des centaines de millions d’utilisateurs, un risque significatif pour la confidentialité et la sécurité qui s’étend aux utilisateurs adultes qui n’étaient pas visés par la politique. L’estimation biométrique de l’âge est imprécise, affectée par l’éclairage et la qualité de l’image, et soulève ses propres préoccupations concernant la collecte de données faciales par des entreprises privées. Les vérifications par carte de crédit excluent les adultes qui n’en possèdent pas.
Aucune de ces approches n’est résistante au contournement. Un adolescent déterminé à accéder à une plateforme interdite peut utiliser un VPN pour sembler se connecter depuis une autre juridiction, emprunter les identifiants d’un adulte, ou simplement utiliser une plateforme alternative qui n’a pas mis en place de vérification. L’interdiction australienne a été adoptée en novembre 2024 ; en quelques semaines, les médias documentaient déjà les contournements par VPN circulant parmi les adolescents australiens.
Le fossé dans l’application de la vérification d’âge
La législation impose des obligations aux plateformes, pas aux utilisateurs individuels. La théorie du changement est la suivante : réguler les plateformes rend l’accès plus difficile. Cela fonctionne dans une certaine mesure. Les grandes plateformes ayant une exposition réglementaire significative, Meta, TikTok, Snapchat, YouTube, mettront en œuvre les systèmes de vérification que les régulateurs exigeront, car l’alternative est des amendes ou l’exclusion du marché. Les petites plateformes, ou celles hébergées dans des juridictions sans accords d’application, font face à une pression bien plus faible.
Le fossé dans l’application est structurel. Un adolescent qui ne peut pas accéder à Instagram en Australie peut accéder à des plateformes alternatives hébergées dans des pays qui n’appliquent pas l’interdiction. Il peut utiliser des services VPN pour sembler se connecter depuis un endroit non réglementé. Il peut créer des comptes avec un faux âge avant la mise en place des systèmes de vérification d’âge. L’interdiction peut réussir à écarter les utilisateurs adolescents les plus occasionnels des grandes plateformes, ce qui n’est pas sans importance, tout en restant inefficace contre les plus déterminés.
Ce n’est pas un argument contre la politique. C’est une description précise du terrain technique qui détermine ce que la politique peut et ne peut pas accomplir.
Le compromis entre confidentialité et sécurité
La tension la plus profonde dans les lois de vérification d’âge est celle qui oppose le préjudice qu’elles cherchent à prévenir au préjudice créé par le mécanisme de vérification lui-même.
L’objectif politique est de protéger les mineurs de l’exposition à des contenus nuisibles et des effets documentés sur la santé mentale des réseaux sociaux algorithmiques. C’est un objectif légitime. Y parvenir par une vérification d’âge robuste nécessite la construction d’une infrastructure d’identité, des bases de données reliant des âges d’utilisateurs à de vraies identités, qui représente une expansion significative des données personnelles détenues par les plateformes commerciales et, dans certains modèles de vérification, par des services d’identité tiers.
Ces données peuvent être piratées. Elles peuvent faire l’objet de réquisitions judiciaires. Dans les juridictions où l’état de droit est faible, elles peuvent être consultées par les gouvernements. Une base de données reliant des identités réelles à l’utilisation des réseaux sociaux a une valeur de surveillance qui dépasse de loin son objectif initial.
Les défenseurs de la vie privée qui s’opposent à la vérification d’âge ne soutiennent pas que les adolescents devraient avoir un accès illimité à des contenus nuisibles. Ils soutiennent que les systèmes de vérification d’âge nécessaires pour faire respecter de telles interdictions créent des risques qui pèsent sur l’ensemble de la population d’utilisateurs, pas seulement sur les mineurs que les lois visent à protéger. Le Bureau du commissaire à l’information du Royaume-Uni (Information Commissioner’s Office, ICO) a explicitement noté cette tension ; le compromis n’a pas de résolution simple.
Ce qui fonctionne réellement
La recherche sur ce qui réduit réellement les préjudices des réseaux sociaux pour les adolescents est moins tranchée que le consensus politique ne le suggère. L’amplification algorithmiquePhénomène par lequel l'algorithme de recommandation d'une plateforme diffuse certains contenus bien au-delà de leur portée organique, généralement parce qu'ils génèrent des signaux d'engagement élevés. intensive, des moteurs de recommandation optimisés pour l’engagement plutôt que pour le bien-être des utilisateurs, semble être un facteur de préjudice plus significatif que le simple accès. Un adolescent qui utilise les réseaux sociaux pour parler à ses amis n’est pas la même chose qu’un adolescent passant six heures par jour dans un fil d’actualité algorithmiquement organisé de contenus anxiogènes.
Les interventions ciblant la conception algorithmique plutôt que l’accès basé sur l’âge s’attaqueraient plus directement au mécanisme. Plusieurs juridictions ont évolué dans cette direction : la loi européenne sur les services numériques exige que les grandes plateformes proposent des options de fil non personnalisé et non algorithmique, et donnent aux utilisateurs des outils pour comprendre et ajuster le fonctionnement des systèmes de recommandation. La loi britannique sur la sécurité en ligne comprend des exigences de sécurité algorithmique aux côtés de ses dispositions sur la vérification d’âge.
Les interdictions par vérification d’âge sont politiquement lisibles et administrativement simples à imposer. Elles sont également, techniquement, poreuses. L’écart entre ce que ces lois promettent et ce qu’elles peuvent accomplir dépend largement de détails de mise en œuvre qui sont encore en cours d’élaboration dans chaque juridiction. L’interdiction indonésienne, telle qu’annoncée début mars 2026, n’a pas encore précisé le mécanisme de vérification d’âge, c’est là que se situe la vraie question politique.
Remarque : il s’agit d’un domaine politique en rapide évolution. Les exigences spécifiques de vérification et les mécanismes d’application peuvent changer après la date de publication de cet article.
Sources
- TechCrunch, « Indonesia outlines plan to limit under-16s’ access to social media », 6 mars 2026.
- Australian eSafety Commissioner, « Online Safety Amendment (Social Media Minimum Age) Act 2024 ». esafety.gov.au
- UK Online Safety Act 2023. Texte intégral : legislation.gov.uk
- Commission européenne, Digital Services Act. digital-strategy.ec.europa.eu
- Haidt, Jonathan. The Anxious Generation: How the Great Rewiring of Childhood Is Causing an Epidemic of Mental Illness. Penguin Press, 2024.
- UK Information Commissioner’s Office, « Age Appropriate Design Code ». ico.org.uk



