Die trügerische Sicherheit von Alterskontrollen im Netz – Alterskontrollen für alle lösen keine Probleme, sondern schaffen neue. Im Mittelpunkt vom Jugendmedienschutz sollte die Frage stehen, welche Informationsangebote den Bedürfnissen von Jugendlichen gerecht werden. Ein Essay.

Dieser Beitrag erschien zuerst in der Zeitschrift mediendiskurs des Vereins Freiwillige Selbstkontrolle Fernsehen (FSF).

Ende 2022 trägt eine Biberdame eine rosafarbene Plüschente durch einen Hausflur. Sie ist zu Gast in einer gemeinnützigen Auffangstation für bedürftige Biber im US-Bundesstaat Mississippi. Die Biberdame platziert die Plüschente neben dem Türrahmen auf einem Handtuch und drückt mit den Pfoten auf ihr herum, bis alles richtig sitzt. Wenig später zieht sie für den Bau ihres Dammes unter anderem raschelndes Geschenkpapier über die haselnussbraunen Dielen, einen kleinen Weihnachtsbaum, eine grobe Decke und einen Pantoffel. Sollte – entgegen aller Erwartungen – ein Fluss durch diesen Flur fließen: Der Damm stünde bereit.

Millionen Menschen haben das Bauprojekt der Biberdame aus Mississippi verfolgt, im YouTube-Video „Rescue beaver makes Christmas dam in house“. Es verrät viel über den Umgang mit Bedürfnissen und Verboten – auch unter uns Menschen. Zu ihrem eigenen Schutz haben Menschen die Biberdame in die Auffangstation gebracht. Aber ihrem innersten Bedürfnis, Dämme zu bauen, darf sie dort weiter nachgehen.

Gerade im Jahr 2025 ist die Debatte um Jugendmedienschutz vorwiegend von Verboten geprägt, weniger von Bedürfnissen. Im Gespräch ist vor allem ein Werkzeug, das Kinder und Jugendliche angeblich vor den vielfältigen Unwägbarkeiten im Netz bewahren soll: Alterskontrollen.

Diese Kontrollen sollen eine scharfe Linie ziehen zwischen Inhalten für alle – und Inhalten, die sich nur nach einer bestandenen Prüfung einsehen lassen, kontrolliert per Ausweisdokument oder Biometrie. International arbeiten Politik und Behörden an entsprechenden Gesetzentwürfen, Leitlinien und Prototypen. Es geschieht in den USA, in Großbritannien und in Australien, in der EU, im Bund, in weiteren EU-Mitgliedstaaten und in den Bundesländern.

In diesem Text müssen sich die Pläne für Alterskontrollen der kritischen Frage stellen, was sie wirklich für Kinder und Jugendliche bewirken können – und was die Biberdame aus Mississippi dazu sagen würde.

Bund, Länder und EU wollen mehr Alterskontrollen

Noch begegnet man im Internet oft Altersabfragen, die sich mit einem Mausklick überwinden lassen, etwa: „Bist du 18 Jahre alt?“. Das könnte sich bald ändern, wie die Bemühungen auf gleich mehreren politischen Ebenen zeigen.

Die Chef*innen der deutschen Bundesländer haben etwa Ende 2024 der Novelle des Jugendmedienschutz-Staatsvertrags (JMStV) zugestimmt. Er soll künftig Anbieter von gängigen Betriebssystemen dazu verpflichten, eine Art Kinderschutz-Modus anzubieten, der den Zugang zu angeblich nicht jugendfreien Inhalten erschweren soll.

Im Auftrag des Bundesfamilienministeriums, also auf Bundesebene, hatte das Fraunhofer-Institut für Sichere Informationstechnologie im März 2025 ein Konzept für ein System zur Alterskontrolle vorgelegt. Anfang April folgten von der EU-Kommission die technischen Spezifikationen für eine Alterskontroll-App. Entwickelt werden soll die App von T-Systems und Scytales aus Schweden. Fachleute kritisieren das Konzept, weil es nicht auf Anonymität setzt, sondern auf Pseudonymität. Die App soll sich in gleich mehrere EU-Vorhaben einfügen.

Einerseits sollen Anbieter von Online-Diensten mithilfe der App die gesetzlich vorgeschriebenen Maßnahmen zum Schutz von Minderjährigen umsetzen können. Die Grundlage hierfür ist Artikel 28 des Gesetzes über digitale Dienste (DSA); entsprechende Leitlinien hat die EU-Kommission Mitte Mai vorgelegt. Andererseits soll die App eine Übergangslösung sein, bis die deutlich umfangreichere digitale Brieftasche der EU einsatzbereit ist, die „European Digital Identity Wallet“. Das soll frühestens Ende 2026 fertig sein.

Die Liste ließe sich noch lange fortsetzen. Die schiere Menge an Details kann den Eindruck erwecken: Diese Kontrollsysteme sind so wasserdicht wie ein Biberdamm. Aber das Sicherheitsgefühl ist trügerisch.

Alterskontrollen können neugierige Jugendliche nicht stoppen

Alterskontrollen sollen Jugendliche vor potenziell schädlichen Inhalten aus dem Internet schützen, so zumindest die Hoffnung. Aber diese Inhalte werden Jugendliche weiterhin erreichen. Jenseits von Alterskontrollen kursieren sie etwa auch in Messenger-Gruppen, rutschen durch die Inhaltsmoderation jugendfreier Plattformen oder werden von Älteren in der Schule herumgezeigt.

Darüber hinaus sollten Erwachsene sich keine Illusionen machen: Wenn sich Jugendliche dafür interessieren, wie die Welt funktioniert, dann gibt es kein Alterskontrollsystem, das sie aufhalten kann. Genauso wie sich Kinder der 1990er-Jahre auf dem Schulhof beigebracht haben, wie man in der Blauen und Roten Edition des GameBoy-Klassikers Pokémon sogenannte Sonderbonbons verdoppelt – ein komplexer und für damalige Erwachsene kaum nachvollziehbarer Vorgang – genauso werden sich junge Internetnutzer*innen heute beibringen, wie sie Alterskontrollen spielerisch und einfallsreich umgehen. Es klappt mit kostenlosen Werkzeugen wie VPN, alternativen DNS-Servern oder dem Tor-Browser.

In einem anderen Nutzungsszenario sind zumindest mildere Altersschranken durchaus sinnvoll. Gerade die Jüngeren wollen Inhalte mit Gewalt oder Sex lieber nicht sehen. Sie sind dankbar, wenn man das von ihnen fernhält. In diesem Szenario kann eine Methode glänzen, die viele Erwachsene belächeln: Die Abfrage, ob man schon 18 Jahre alt ist. Wenn Jüngere versehentlich auf einen falschen Link klicken, zeigt ihnen diese Altersabfrage: Ups, hier bin ich falsch abgebogen. Für dieses Szenario braucht es jedoch kein ausgeklügeltes System zur Erfassung von Ausweisen und Biometrie.

Für jedes Verbot braucht es eine gute Alternative

Die zentrale Frage beim Jugendmedienschutz sollte nicht lauten: Wie können wir Jugendliche von potenziell schädlichen Inhalten aussperren? Denn das wird nicht gelingen. Sie sollte lauten: Wie können wir Jugendlichen auf Informationssuche etwas so Gutes bieten, dass sie gar nicht erst auf nicht jugendfreie Seiten zurückgreifen wollen?

Es ist notwendig und richtig, wenn junge Menschen mehr über Erwachsenendinge erfahren wollen. Wie funktionieren Sexualität und Einvernehmlichkeit und Verhütung? Wie finde ich heraus, was mir Lust bereitet und was meine Grenzen verletzt? Wie fühlt sich Rausch an? Wie schlimm kann Gewalt sein, und wie kann ich mich davor schützen?

Auf der Suche nach Antworten zu solchen elementaren Fragen könnten Minderjährige bei Pornos, Gewaltvideos oder Horrorfilmen landen. Ändern lässt sich das nicht mit Kontrollen und Strafen, sondern mit passenden Informationsangeboten, die dem Entwicklungsstand entsprechen.

„Jugendliche brauchen Angebote für sexuelle Bildung“, sagte etwa Jessica Euler, Geschäftsführerin des Vereins Aktion Kinder- und Jugendschutz, im Interview mit netzpolitik.org. Sie kritisierte, dass solche Angebote kaum bekannt seien. Und so landen Jugendliche dann doch wieder auf großen Plattformen wie Pornhub.

Es kann die Entwicklung von Jugendlichen beeinträchtigen, wenn Erwachsene ihr Bedürfnis nach Aufklärung kaltschnäuzig mit rigorosen Alterskontrollen beantworten. Sobald Jugendliche aktiv Angebote für Erwachsene recherchieren, dann liegt dem ein legitimes Bedürfnis nach Information und Aufklärung zugrunde.

Wie wäre es zum Beispiel, wenn Pornoseiten nicht nur das Alter von Besucher*innen abfragen, sondern auch auf externe, jugendfreie Infoangebote verlinken? „Du bist unter 18 und willst mehr über Lust und Sexualität erfahren? Dann klicke hier!“. Ansätze wie diese würde auch die Biberdame aus Mississippi zu schätzen wissen. Wir erinnern uns: Ihre Aufsichtspersonen haben ihr nicht verboten, einen Damm zu bauen. Nur einen echten Baumstamm durfte sie nicht durch den Flur zerren.

Alterskontrollen sperren vulnerable Gruppen aus

Auf den ersten Blick klingt es paradox: Alterskontrollen sind einerseits allzu leicht zu umgehen – andererseits können sie auch eine allzu hohe Hürde darstellen. Sie können nämlich Menschen aussperren, die nicht hätten ausgesperrt werden sollen. Der Grund dafür ist die Ungleichverteilung von Privilegien in der Gesellschaft.

Wer gut mit Laptop und Handy umgehen kann, wer sich ein modernes Gerät leisten kann; wer gut lesen kann und eine Sprache versteht, die auf dem eigenen Handy verfügbar ist, der kann Alterskontrollen entweder bestehen oder umgehen. Sowohl als Kind als auch als Erwachsener. Anders ist die Lage bei Menschen, die diese Privilegien nicht haben.

Viele Alterskontrollsysteme basieren auf amtlichen Papieren. Aber allein in Deutschland leben schätzungsweise Hunderttausende Menschen, die solche Papiere nicht haben.

Als papierlose Alternative kommt oft eine biometrische Alterseinschätzung zum Einsatz. Dafür braucht man eine Webcam, vor der man sein Gesicht präsentieren soll. Aber nicht alle haben eine funktionierende Webcam. Und biometrische Systeme sind fehleranfällig. Sie sind oftmals optimiert auf weiße, männliche Gesichter ohne sichtbare Verletzungen oder Behinderungen. Wer also zufällig ein Gesicht mit anderen Eigenschaften hat, wird nicht zuverlässig als erwachsen anerkannt.

Schon die bloße Einrichtung einer Alterskontroll-App kann eine Barriere darstellen. In Deutschland können 6,2 Millionen Erwachsene kaum lesen und schreiben. Gerade für ohnehin marginalisierte Gruppen können Alterskontrollsysteme eine zusätzliche Hürde bedeuten.

Alterskontrollen führen zu Overblocking

Während Fachleute mit großen Hoffnungen über Spezifikationen brüten, lässt sich die Realität eines im Namen des Jugendschutzes gefilterten Internets längst beobachten. Hierzu hat netzpolitik.org in den vergangenen Jahren recherchiert. Sowohl die Google-Suchmaschine als auch YouTube filtern automatisch Inhalte mit dem Ziel, potenziell nicht jugendfreie Angebote zu verbergen. Automatische Filtersysteme kommen auch bei JusProgzum Einsatz, dem einzigen Jugendschutzprogramm für Websites in Deutschland, das den gesetzlichen Anforderungen gerecht wird und dafür offiziell anerkannt ist.

Alle drei Angebote hatten unseren Recherchen zufolge ein Problem mit Overblocking. Das heißt, sie steckten Inhalte hinter eine Altersschranke, obwohl sie tatsächlich jugendfrei waren – ja, teils waren sie sogar gezielt für Jugendliche aufbereitet worden. Der Grund dafür ist, dass solche Filterprogramme oft auf Stichworten basieren, zum Beispiel „Sex“. Doch allein anhand von Stichworten lässt sich kaum beurteilen, ob zum Beispiel eine Website über Sex für Erwachsene bestimmt ist oder Aufklärung für Jugendliche bietet.

Ausgerechnet beim Versuch, ein sichereres Online-Umfeld für Jugendliche zu schaffen, sortieren automatische Filtersysteme also Angebote aus, die Jugendlichen eigentlich guttun würden. Durch händische Kontrollen und Meldemechanismen lassen sich solche Filtersysteme verbessern. Die schiere Masse an Online-Inhalten macht es jedoch unmöglich, jemals alles händisch zu prüfen.

Lasst uns die Räume sicherer machen, die Minderjährige schon nutzen

Nichtstun ist doch auch keine Option, so oder so ähnlich argumentieren Befürworter*innen von Alterskontrollen gelegentlich. Das wird jedoch den sorgfältigen und differenzierten Ansätzen für Jugendmedienschutz nicht gerecht, die es längst in Gesetzestexte und Plattform-Policys geschafft haben. Nicht umsonst nennt das Gesetz über digitale Dienste Alterskontrollen als nur eine mögliche Maßnahme, die Dienste zum Schutz von Minderjährigen ergreifen können.

Je nach Kontext und Nutzungsszenario kommt eine Vielfalt von Vorsorgemaßnahmen in Betracht, die das Internet ohne umfassende Kollateralschäden sicherer machen können. Dazu gehören etwa Meldemechanismen, sorgfältige menschliche Moderation oder Chatfunktionen nur für gegenseitig bestätigte Kontakte.

Nach wie vor sind Plattformen mit algorithmisch sortierten Newsfeeds darauf optimiert, dass Menschen nicht aufhören wollen, zu scrollen. Die verführerische Sogwirkung dieser Feeds wird nur halbherzig durch Tools zur Zeitbegrenzung eingedämmt. Anreizsysteme wie Likes und Push-Benachrichtigungen locken jüngere und ältere Nutzer*innen immer wieder an den Bildschirm. Hier kann sinnvolle Regulierung ansetzen.

Altersschranken und Social-Media-Verbote würde dagegen umgekehrte Anreize schaffen. Plattformen könnten differenziertere Vorsorgemaßnahmen aufgeben, sobald sie Alterskontrollen eingerichtet haben. Denn offiziell dürften Minderjährige die Plattformen dann nicht mehr nutzen. Inoffiziell würden sie es weiterhin trotzdem tun oder auf noch weniger regulierte Alternativen ausweichen. Schließlich haben sie ein Bedürfnis nach Information, Unterhaltung und Austausch.

Erwachsene können zwar versuchen, mühsam den Zugang zu allen erdenklichen Websites zu sperren. Aber die Bedürfnisse von jungen Menschen lassen sich nicht sperren. Die Leitfrage sollte deshalb nicht sein: Was können wir jungen Menschen im Internet wegnehmen, sondern: Was können wir ihnen geben? Denn die eigenen Bedürfnisse zu ignorieren, das ist für Menschen auf Dauer keine Option. Genauso wenig wie für eine Biberdame aus Mississippi, die sehr dringend ihren Damm bauen muss.

Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er interessiert sich besonders für Methoden der Online-Recherche; darüber schreibt er einen Newsletter und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde zwei Mal mit dem Grimme-Online-Award prämiert sowie mit dem Rainer-Reichert-Preis zum Tag der Pressefreiheit. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

Über Sebastian Meineck / netzpolitik:

Avatar-FotoUnter der Kennung "Gastautor:innen" fassen wir die unterschiedlichsten Beiträge externer Quellen zusammen, die wir dankbar im Beueler-Extradienst (wieder-)veröffentlichen dürfen. Die Autor*innen, Quellen und ggf. Lizenzen sind, soweit bekannt, jeweils im Beitrag vermerkt und/oder verlinkt.