Eine neue Welle von Gesetzen, die den Zugang von Jugendlichen zu sozialen Medien einschränken, erfasst den Globus. Indonesien gab Anfang März 2026 bekannt, soziale Medien und Online-Plattformen für Nutzer unter 16 Jahren zu verbieten. Australien verabschiedete Ende 2024 ein Gesetz, das Social Media für unter 16-Jährige verbietet, und wurde damit das erste Land, das ein altersbezogenes Verbot dieser Reichweite gesetzlich verankerte. Das britische Online-Sicherheitsgesetz schreibt die Altersverifizierung für eine breite Palette von Online-Diensten vor. Frankreich verlangt die elterliche Zustimmung für Nutzer unter 15 Jahren.
Jedes dieser Gesetze wird als Reaktion auf eine reale und dokumentierte Sorge dargestellt: die wachsende Evidenz, dass intensiver Social-Media-Konsum bei Jugendlichen, insbesondere bei Mädchen, mit schlechteren psychischen Gesundheitsergebnissen einhergeht. Der politische Rückenwind ist real. Die technische Frage jedoch, ob diese Verbote tatsächlich funktionieren können, hat weniger Aufmerksamkeit erhalten als die politische Frage, ob sie überhaupt existieren sollten.
Was die Gesetze konkret verlangen
Altersbasierte Social-Media-Verbote funktionieren im Prinzip so, dass Plattformen verpflichtet werden, das Alter der Nutzer zu prüfen und denjenigen den Zugang zu verweigern, die unter der Altersgrenze liegen. Das klingt einfach. In der Praxis ist die Altersverifizierung ein ernsthaft schwieriges Problem.
Der Mechanismus ist entscheidend. Der einfachste Ansatz, Nutzer nach ihrem Geburtsdatum zu fragen, verifiziert gar nichts; er fügt dem Anmeldeformular lediglich ein Feld hinzu, das jüngere Nutzer mit falschen Angaben ausfüllen können. Robustere Ansätze umfassen Dokumentenprüfungen (Hochladen eines staatlich ausgestellten Ausweises), Kreditkartenverifizierung (Minderjährige haben in der Regel keine Kreditkarten) oder biometrische Altersschätzung (Gesichtsanalyse zur Schätzung des Nutzeralters anhand eines Fotos).
Jeder dieser Ansätze schafft eigene Probleme. Die Dokumentenprüfung verpflichtet Plattformen, sensible persönliche Daten von Hunderten von Millionen Nutzern zu sammeln und zu speichern, ein erhebliches Datenschutz- und Sicherheitsrisiko, das auch erwachsene Nutzer trifft, die nie Zielgruppe der Regelung waren. Die biometrische Altersschätzung ist ungenau, hängt von Beleuchtung und Bildqualität ab und wirft eigene Fragen zur Erfassung von Gesichtsdaten durch private Unternehmen auf. Kreditkartenprüfungen schließen Erwachsene ohne Kreditkarte aus.
Keiner dieser Ansätze ist gegen Umgehung gefeit. Ein Jugendlicher, der entschlossen ist, auf eine gesperrte Plattform zuzugreifen, kann ein VPN nutzen, um sich scheinbar aus einer anderen Jurisdiktion zu verbinden, die Zugangsdaten eines Erwachsenen ausleihen oder einfach eine alternative Plattform verwenden, die keine Verifizierung eingeführt hat. Das australische Verbot wurde im November 2024 verabschiedet; innerhalb weniger Wochen berichteten Medien über VPN-Umgehungsmethoden, die unter australischen Jugendlichen kursierten.
Die Durchsetzungslücke bei der Altersverifizierung
Gesetzgebung legt Pflichten für Plattformen fest, nicht für einzelne Nutzer. Die Veränderungstheorie lautet: Plattformen regulieren, und der Zugang wird schwieriger. Das funktioniert bis zu einem gewissen Grad. Große Plattformen mit erheblichem regulatorischem Risiko, Meta, TikTok, Snapchat, YouTube, werden die von Regulierern geforderten Altersverifizierungssysteme umsetzen, weil die Alternative Bußgelder oder der Marktausschluss wären. Kleinere Plattformen oder solche, die in Jurisdiktionen ohne Vollstreckungsabkommen gehostet werden, stehen unter weitaus geringerem Druck.
Die Durchsetzungslücke ist struktureller Natur. Ein Jugendlicher, der in Australien nicht auf Instagram zugreifen kann, kann alternative Plattformen nutzen, die in Ländern gehostet werden, die das Verbot nicht durchsetzen. Er kann VPN-Dienste nutzen, um scheinbar von einem unregulierten Standort aus zu verbinden. Er kann Konten mit falschen Altersangaben erstellen, bevor Altersverifizierungssysteme eingeführt werden. Das Verbot kann gegenüber den lässigsten jugendlichen Nutzern der größten Plattformen wirksam sein, was nicht nichts ist, während es gegenüber den entschlossensten Nutzern wirkungslos bleibt.
Das ist kein Argument gegen die Maßnahme. Es ist eine genaue Beschreibung des technischen Terrains, das bestimmt, was die Maßnahme leisten kann und was nicht.
Der Zielkonflikt zwischen Datenschutz und Sicherheit
Die tiefere Spannung in Altersverifizierungsgesetzen liegt zwischen dem Schaden, den sie verhindern sollen, und dem Schaden, den der Verifizierungsmechanismus selbst verursacht.
Das politische Ziel ist der Schutz von Minderjährigen vor dem Kontakt mit schädlichen Inhalten und den dokumentierten psychischen Auswirkungen algorithmischer sozialer Medien. Das ist ein legitimes Ziel. Es durch robuste Altersverifizierung zu erreichen erfordert den Aufbau von Identitätsinfrastruktur, Datenbanken, die Nutzeralter mit echten Identitäten verknüpfen, was eine erhebliche Ausweitung der persönlichen Daten bei kommerziellen Plattformen und in manchen Verifizierungsmodellen bei Drittanbieter-Identitätsdiensten bedeutet.
Diese Daten können gestohlen werden. Sie können gerichtlich angefordert werden. In Ländern mit schwacher Rechtsstaatlichkeit können sie von Regierungen eingesehen werden. Eine Datenbank, die echte Identitäten mit der Social-Media-Nutzung verknüpft, hat einen Überwachungswert, der weit über ihren ursprünglichen Zweck hinausgeht.
Datenschutzvertreter, die gegen die Altersverifizierung argumentieren, sprechen sich nicht dafür aus, dass Jugendliche uneingeschränkten Zugang zu schädlichen Inhalten haben sollten. Sie argumentieren, dass die zur Durchsetzung solcher Verbote erforderlichen Altersverifizierungssysteme Risiken schaffen, die die gesamte Nutzerbevölkerung betreffen, nicht nur die Minderjährigen, die die Gesetze schützen sollen. Die britische Datenschutzbehörde (Information Commissioner’s Office, ICO) hat diese Spannung ausdrücklich festgestellt; der Zielkonflikt lässt sich nicht sauber auflösen.
Was tatsächlich funktioniert
Die Forschung darüber, was Social-Media-Schäden bei Jugendlichen tatsächlich reduziert, ist weniger eindeutig als der politische Konsens suggeriert. Intensive algorithmische VerstärkungWenn der Empfehlungsalgorithmus einer Plattform bestimmte Inhalte weit über ihre organische Reichweite hinaus verbreitet, weil diese hohe Engagement-Signale wie Klicks oder Shares erzeugen., Empfehlungsalgorithmen, die auf Engagement statt auf Nutzerwohlbefinden optimiert sind, scheint ein bedeutenderer Schadensfaktor zu sein als der bloße Zugang. Ein Jugendlicher, der soziale Medien nutzt, um mit Freunden zu kommunizieren, unterscheidet sich grundlegend von einem, der täglich sechs Stunden in einem algorithmisch kuratierten Feed angstauslösender Inhalte verbringt.
Maßnahmen, die auf das algorithmische Design statt auf altersbasierten Zugang abzielen, würden den Mechanismus direkter angehen. Mehrere Jurisdiktionen haben sich in diese Richtung bewegt: das Digitale-Dienste-Gesetz der EU verpflichtet große Plattformen dazu, nicht personalisierte und nicht-algorithmische Feed-Optionen anzubieten und Nutzern Werkzeuge zu geben, um zu verstehen und anzupassen, wie Empfehlungssysteme funktionieren. Das britische Online-Sicherheitsgesetz umfasst neben seinen Altersverifizierungsbestimmungen auch Anforderungen an algorithmische Sicherheit.
Altersbeschränkungen durch Altersverifizierung sind politisch gut kommunizierbar und administrativ einfach durchzusetzen. Sie sind technisch gesehen jedoch löchrig. Die Lücke zwischen dem, was diese Gesetze versprechen, und dem, was sie erreichen können, hängt stark von Umsetzungsdetails ab, die in jeder Jurisdiktion noch ausgearbeitet werden. Das indonesische Verbot hat in seiner Ankündigung Anfang März 2026 noch keinen Altersverifizierungsmechanismus festgelegt, darin liegt die eigentliche politische Frage.
Hinweis: Dies ist ein sich schnell entwickelndes politisches Feld. Spezifische Verifizierungsanforderungen und Durchsetzungsmechanismen können sich nach dem Erscheinungsdatum dieses Artikels ändern.
Quellen
- TechCrunch, “Indonesia outlines plan to limit under-16s’ access to social media”, 6. März 2026.
- Australian eSafety Commissioner, “Online Safety Amendment (Social Media Minimum Age) Act 2024”. esafety.gov.au
- UK Online Safety Act 2023. Volltext: legislation.gov.uk
- Europäische Kommission, Digital Services Act. digital-strategy.ec.europa.eu
- Haidt, Jonathan. The Anxious Generation: How the Great Rewiring of Childhood Is Causing an Epidemic of Mental Illness. Penguin Press, 2024.
- UK Information Commissioner’s Office, “Age Appropriate Design Code”. ico.org.uk



