🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Ältere BeiträgeHaupt-Feeds

Von Kinderhilfswerk bis Lehrerverband: So breit ist die Kritik am Social-Media-Verbot

21. Februar 2026 um 14:08

Bundeskanzler Friedrich Merz (CDU) findet ein Social-Media-Verbot bis 16 Jahre sympathisch. Viele Organisationen aus Kinderschutz, Wissenschaft und Pädagogik lehnen das Verbot allerdings ab – und warnen vor Schäden für Kinder und Jugendliche. Die Übersicht.

Ein Kind und eine erwachsene Person halten sich an den Händen. Ihre Köpfe sind mit bunten Fäden umwickelt. Sie schauen auf digitale Geräte.
Wie führt man Kinder in die digitale Welt? (Symbolbild) – Alle Rechte vorbehalten IMAGO/Westend61

Bekommt Deutschland ein Social-Media-Verbot nach australischem Vorbild? Druck machen zumindest wichtige Politiker*innen aus den Regierungsparteien SPD und CDU. Die Debatte kocht auch international, weil in Australien seit dem 10. Dezember ein solches Verbot gilt.

Medienwirksam sprechen sich Staats- und Regierungschefs für ähnliche Maßnahmen aus, darunter der französische Präsident Emmanuel Macron und der spanische Ministerpräsident Pedro Sánchez. Unter Expert*innen gibt es aber viel Skepsis und Ablehnung. Das zeigen mehr als 20 Positionspapiere und Stellungnahmen von unter anderem Kinderschutz-Organisationen, Pädagog*innen, Schüler*innen und Forschenden.

Viele sprechen sich klar gegen ein Social-Media-Verbot aus und warnen vor gravierenden Folgen. Doch selbst Befürworter*innen eines Social-Media-Verbots argumentieren vorsichtig und nennen Altersbeschränkungen allenfalls als eine von vielen Maßnahmen. Ein Konsens ist erkennbar, dass vor allem Plattformen sichere Räume für Kinder und Jugendliche schaffen müssen.

Hier kommt, ohne Anspruch auf Vollständigkeit, eine Übersicht wichtiger Stimmen und deren Argumente.


Deutsches Kinderhilfswerk: „Verbote entmündigen Kinder“

November 2025, „Unsere Haltung zu Social-Media-Verboten“

Wer ist das? Das deutsche Kinderhilfswerk ist ein 1972 gegründeter Verein. Dessen Mitglieder engagieren sich für „eine kinderfreundliche Gesellschaft, in der die Kinder ihre Interessen selbst vertreten“.

Was ist die Position? „Pauschale Verbote entmündigen Kinder und Jugendliche“, schreibt das Kinderhilfswerk. Sie stünden in krassem Widerspruch zum Recht auf digitale Teilhabe, das die UN-Kinderrechtskonvention garantiert. Den kompetenten und sicheren Umgang müssten Kinder und Jugendliche durch aktive Nutzung lernen. „Verbote würden die positiven sozialen Kommunikationswege in diesem Bereich abschneiden und Kindern einen Rückzugsort ihrer Lebenswelt ohne angemessenen Ersatz nehmen.“


UNICEF: „Verbote können nach hinten losgehen“

Dezember 2025: „Age restrictions alone won’t keep children safe online“

Wer ist das? UNICEF ist das 1946 gegründete Kinderhilfswerk der Vereinten Nationen.

Was ist die Position? „Social-Media-Verbote bergen eigene Risiken und könnten sogar nach hinten losgehen“, warnt die NGO auf Englisch. Gerade für isolierte oder marginalisierte Kinder seien soziale Medien eine „Lebensader“. Altersbeschränkungen müssten Teil eines umfassenderen Ansatzes sein, der auch das Recht junger Menschen auf Privatsphäre und Mitbestimmung achtet. Minderjährige sollten nicht in unregulierte, weniger sichere Bereiche des Internets gedrängt werden.


Save the Children: „falsches Sicherheitsgefühl“

Dezember 2025: „Policy Statement on Social Media Bans“

Wer ist das? Save The Children wurde 1919 gegründet und bezeichnet sich als weltgrößte unabhängige Organisation für Kinderrechte.

Was ist die Position? Save The Children unterstützt „wirksame, die Privatsphäre respektierende Altersüberprüfungen“. Dennoch ist die Organisation besorgt, dass altersbasierte Beschränkungen „unbeabsichtigte Schäden verursachen, ein falsches Sicherheitsgefühl vermitteln und die Rechte und Möglichkeiten von Kindern einschränken könnten“. Weiter pocht sie darauf, dass Plattformen ihre Produkte „wirklich sicher und altersgerecht gestalten“.


Bundesschülerkonferenz: Medienbildung „an erster Stelle“

Februar 2026: „Verbote sind keine Lösung“

Wer ist das? Die Bundesschülerkonferenz engagiert sich für Bildungspolitik und Mitbestimmung von Schüler*innen in Deutschland.

Was ist die Position? Die psychische Gesundheit von Jugendlichen würde immer schlechter, schreibt die Generalsekretärin der Bundesschülerkonferenz. Social Media leiste dazu einen erheblichen Beitrag. Der Fokus der Debatte liege aber zu stark auf Verboten. „An erster Stelle muss bessere Medienbildung in Schulen stehen, denn sonst ist das Verbot nichts anderes als eine Problemverschiebung.“


Deutscher Bundesjugendring: Manipulative Designs verbieten

Oktober 2025: „Stellungnahme zur Konsultation zum Digital Fairness Act“

Wer ist das? Der Deutsche Bundesjugendring vertritt deutsche Jugendverbände und Landesjugendringe.

Was ist die Position? „Junge Menschen haben Rechte auf Schutz, Teilhabe und Befähigung – auch digital“, schreibt der Verein in einem Statement zum Digital Fairness Act, einem geplanten Digitalgesetz der EU. Der Bundesjugendring lehnt „pauschale Zugangsbeschränkungen“ ab und fordert sicher gestaltete Räume. Funktionieren soll das etwa über „verbindliche Verbote manipulativer Gestaltung“. Konkrete Beispiele seien „endlose Feeds, Lootbox-Mechaniken oder manipulative Abo-Taktiken“.


ACT Youth Advisory: Verbote können isolieren

November 2024: „The ACT Youth Advisory Council’s Response to the Online Safety Amendment“

Wer ist das? Der ACT Youth Advisory vertritt Jugendliche im „Australian Capital Territory“, wo auch die australische Hauptstadt Canberra liegt.

Was ist die Position? Der ACT-Jugendrat hätte das australische Social-Media-Verbot am liebsten verhindert. Statt Jugendliche auszusperren, so die Forderung, solle die Regierung die Plattformen regulieren. Die Jugend-Vertreter*innen sahen etwa das Recht auf freie Meinungsäußerung in Gefahr – und das Recht auf sicheren und freien Zugang zu Informationen. Sie warnten außerdem davor, dass das Verbot vulnerable junge Menschen isolieren könne.


Deutscher Lehrerverband: „weder umsetzbar noch sinnvoll“

Juni 2025: „Digitale Teilhabe ist Realität und muss gelernt werden“

Wer ist das? Der Deutsche Lehrerverband ist eine der größten Organisationen von Lehrer*innen in Deutschland.

Was ist die Position? Eine gesetzliche Altersgrenze für soziale Medien ist „weder realistischerweise umsetzbar noch sinnvoll“, schreibt Verbandspräsident Stefan Düll. Kinder und Jugendliche müssten lernen, sich in der digitalen Welt sicher und verantwortungsvoll zu bewegen. Es könne nicht die Lösung sein, Jugendlichen „plötzlich mit dem 16. Geburtstag“ einen Zugang zu geben. „Wir sollten nicht ständig diskutieren, was Kindern verboten wird – sondern was wir ihnen ermöglichen.“


BzKJ: Völliges Verbot „zu weitgehend“

Dezember 2024: „Junge Menschen haben ein Recht auf digitale Teilhabe“

Wer ist das? Die Bundeszentrale für Kinder- und Jugendmedienschutz ist als Bundesbehörde zuständig für die Durchsetzung von Kinderrechten im Netz auf Grundlage des EU-Gesetzes über digitale Dienste (DSA).

Was ist die Position? „Kinder und Jugendliche haben ein Recht auf digitale Teilhabe und darauf, digitale Lebensräume sicher zu erkunden“, sagte BzKJ-Direktor Sebastian Gutknecht bereits Ende 2024. „Das völlige Verbot von Social Media für unter 16-Jährige“ halte er für „zu weitgehend.“ Die Anbieter in der EU hätten die gesetzliche Pflicht, „ihre Plattformen für junge Menschen mit strukturellen Vorsorgemaßnahmen möglichst sicher zu gestalten“.


Landesanstalt für Kommunikation: „erhebliche Bedenken“

Februar 2026: „Social-Media-Verbot – Worum geht’s?“

Wer ist das? Die „Landesanstalt für Kommunikation“ (LFK) aus Baden-Württemberg ist eine von 14 deutschen Aufsichtsbehörden für privaten Rundfunk und Online-Medien.

Was ist die Position? Nach einer Sammlung von Pro- und Contra-Argumenten zieht die Behörde ein Fazit: Demnach sei der Schutz von Kindern und Jugendlichen komplex, und es bestünden „erhebliche Bedenken gegen vermeintlich einfache Lösungsvorschläge“. Insbesondere zu beachten seien „Fragen bezüglich der Umsetzbarkeit und der Reichweite eines Verbots“ sowie „unbeabsichtigte negative Folgen“.


BfDI: „keinesfalls“ undifferenzierte Altersgrenzen

Dezember 2025: Stellungnahme für den Thüringer Landtag

Wer ist das? Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) berät unter anderem die Bundesregierung bei Datenschutzgesetzgebung.

Was ist die Position? „Keinesfalls sollte undifferenziert für jedes soziale Medium in Gänze eine bestimmte Altersgrenze festgelegt werden“, schreibt Bundesdatenschutzbeauftragte Louisa Specht-Riemenschneider in einer Stellungnahme für den Thüringer Landtag. Kinder und Jugendliche hätten ein Recht auf soziale Teilhabe. Altersbeschränkungen müssten allenfalls risikobasiert sein. Aussehen könne das so: „Die Grundversion des Dienstes ist kinderfreundlich und für alle zugänglich. Erst wenn jemand eine Funktion anschalten oder einen Bereich besuchen möchte, der mit einem hohen Risiko verbunden ist, wird die Altersprüfung eingesetzt.“

Durchblick statt Schnellschüsse

Recherchen wie diese sind nur möglich durch eure Unterstützung.


Berliner Psychotherapeut*innen: mehrstufiger Schutz

Januar 2026: „Psychotherapeutenkammer warnt (…) und fordert wirksamen Schutz“

Wer ist das? Die Psychotherapeutenkammer Berlin vertritt die Interessen approbierter Psychotherapeut*innen in der deutschen Hauptstadt.

Was ist die Position? Die Therapeut*innen warnen vor Schäden für die psychische Gesundheit durch „Überkonsum von Plattformen wie Instagram, TikTok und YouTube“, auch wenn bisherige Studien keine Kausalitäten zeigen. Deshalb fordern sie ein Mindestalter und Kontrollen. „Datenschutzkonforme technische Verfahren müssen sicherstellen, dass Kinder unter einem festgesetzten Mindestalter nicht einfach Accounts erstellen“. Die Therapeut*innen fordern aber auch „sichere Voreinstellungen und Schutzmechanismen gegen exzessive Nutzung“.


Australian Psychological Society: Warnung vor Einsamkeit

November 2025: „Psychologists call for consideration for young Australians‘ mental health (…)“

Wer ist das? Die „Australian Psychological Society“ (APS) bezeichnet sich selbst als „führende Organisation“ für Psycholog*innen in Australien.

Was ist die Position? Im Vorfeld des australischen Social-Media-Verbots mahnten dortige Psycholog*innen zur Vorsicht. Zwar könnte die Maßnahme junge Menschen vor Risiken schützen. Aber ohne sinnvolle Alternativen könne der Entzug sozialer Medien eine Lücke in ihr soziales Leben reißen und Gefühle wie „Einsamkeit, Angst und Kummer“ erhöhen.


BAJ: Zugang sicher gestalten

Januar 2026: „Prävention schafft Schutz – pauschale Verbote nicht!“

Wer ist das? Die im Jahr 1951 gegründete Bundesarbeitsgemeinschaft Kinder- und Jugendschutz setzt sich „für ein gutes und gesundes Aufwachsen von Kindern und Jugendlichen“ ein.

Was ist die Position? Die BAJ ist gegen ein pauschales Nutzungsverbot von Social Media vor dem 16. Lebensjahr. Die zentrale Frage sei nicht, ob Minderjährige Zugang zu sozialen Netzwerken haben dürfen, sondern wie dieser Zugang gestaltet wird. Es gehe darum, dass Kinder und Jugendliche geschützt werden und sich entwickeln können. Wichtig sei es, Eltern zu unterstützen und bestehende Regeln durchzusetzen.


EKKJ: „vermeintliche Lösung für komplexes Problem“

November 2025: „Social Media: altersgerechter Zugang und Regeln statt Verbote“

Wer ist das? Die Eidgenössische Kommission für Kinder- und Jugendfragen ist eine staatliche Fachstelle aus der Schweiz, die Wissen für Bundesbehörden aufbereitet.

Was ist die Position? Aus Sicht der EKKJ sind „pauschale Verbote von Social Media für Kinder und Jugendliche nicht zielführend und nur eine vermeintliche Lösung für ein komplexes Problem“. Verbote seien bezüglich der negativen Folgen „weitgehend unwirksam“, so die Kommission weiter. „Gleichzeitig schränken sie positive und notwendige Lernprozesse ein, verhindern den Erwerb sinnvoller Kenntnisse und Kompetenzen und verunmöglichen wichtige Erfahrungen.“


Molly Rose Foundation: „Kinder brauchen Plattformen“

Januar 2025: „Joint statement (…) on a social media ban for under-16s“

Wer ist das? Die britische Molly Rose Foundation engagiert sich dafür, dass junge Menschen keinen Suizid begehen. Ihr Statement zum Social-Media-Verbot haben insgesamt 42 Organisationen unterzeichnet, darunter die 1884 gegründete britische Kinderschutzorganisation NSPCC.

Was ist die Position? „Gemeinsam glauben wir, dass Social-Media-Verbote die falsche Lösung sind“, halten die Unterzeichner*innen fest. Verbote würden dabei scheitern, Kindern Sicherheit zu bringen. Kinder, darunter queere und neurodivergente, bräuchten Plattformen für soziale Kontakte, Unterstützung durch Gleichgesinnte und vertrauenswürdige Hilfsangebote. Wenn Jugendliche die riskanten Plattformen dann mit 16 Jahren nutzen dürften, würden sie vor einer Klippe stehen.


Leopoldina: 13 Jahre als „verbindliches Mindestalter“

August 2025: „Soziale Medien und die psychische Gesundheit von Kindern und Jugendlichen“

Wer ist das? Die Leopoldina ist eine vom Bund und dem Land Sachsen-Anhalt finanzierte Gelehrtengesellschaft, die Politik und Öffentlichkeit beraten will.

Was ist die Position? „Strategien, die vorrangig auf Altersbeschränkungen setzen, greifen zu kurz“, schreiben die Forschenden. Dennoch empfehlen sie 13 Jahre als verbindliches Mindestalter für Social-Media-Accounts, pochen jedoch auf weitere Maßnahmen je nach Alter. Zudem kritisieren die Forschenden das „Prinzip der Aufmerksamkeitsökonomie“, also das Geschäftsmodell vieler populärer Plattformen. Das fördere „technologische Strategien zur Maximierung der Nutzerbindung“ und schaffe „gezielt suchtfördernde Strukturen“.


ÖAW: „Gefahr, dass das Ziel nicht erreicht wird“

Februar 2026: „Alterssperren auf Social-Media: Technische Grenzen und Möglichkeiten“

Wer ist das? Die Österreichische Akademie der Wissenschaften (ÖAW) ist eine 1847 gegründete Gelehrtengesellschaft aus Wien.

Was ist die Position? Das Institut für Technikfolgen-Abschätzung der ÖAW hat untersucht, wie sich ein Social-Media-Verbot durchsetzen ließe. Demnach könne Altersfeststellung im Internet „grundsätzlich Sinn machen“, es brauche aber eine breite gesellschaftliche Debatte. Weiter warnt die Studie vor der Gefahr, „dass trotz weitreichender Einschnitte für alle Internetnutzer:innen das Ziel, nämlich das eines besseren Schutzes von Minderjährigen, nicht erreicht wird“.


EDRi: Hürden werden umgangen

November 2025, „Why age verification misses the mark and puts everyone at risk“

Wer ist das? European Digital Rights (EDRi) ist der Dachverband von Organisationen für digitale Freiheitsrechte.

Was ist die Position? EDRi lehnt Social-Media-Verbote ab. Stattdessen plädiert der Verband dafür, die Ursachen für Gefahren im Netz zu bekämpfen. „Kinder brauchen und verdienen Online-Räume, in denen sie andere treffen können, Trost und Sicherheit finden, Ideen erproben und austauschen, Beziehungen aufbauen, lernen und spielen.“ Es sei sehr wahrscheinlich, dass junge Menschen Hürden umgehen.


Superrr: „Verbot ist Kurzschlussreaktion“

Februar 2025: „Nicht sehen, nicht sprechen, nicht hören“

Wer ist das? Superrr ist eine gemeinnützige Organisation, die sich für feministische Digital- und Technologiepolitik einsetzt.

Was ist die Position? „Ein Verbot ist eine Kurzschlussreaktion, die eine Auseinandersetzung mit den wirklichen Problemen verweigert“, hält Superrr fest. Wenn auf einer Straße viel Verkehr sei, laute die Lösung auch nicht, Kinder zu Hause einzuschließen. „Viel von dem, was als schädlich für Kinder beschrieben wird, schadet uns allen.“ Deshalb stellt Superrr die Frage nach einer digitalen Welt ,“die nicht nur aus uns und unserer Zeit Gewinn schlagen möchte“.


GMK: Verbot „greift langfristig zu kurz“

Dezember 2024: „Zum australischen Social-Media-Verbot aus medienpädagogischer Sicht“

Wer ist das? Die Gesellschaft für Medienpädagogik und Kommunikationskultur engagiert sich seit 1984 sich für Medienpädagogik und Medienkompetenz.

Was ist die Position? Ein Social-Media-Verbot könne kurzfristig attraktiv erscheinen, „greift jedoch langfristig zu kurz“, schreibt die GMK. Es würde weder die Bedürfnisse noch die Rechte von Kindern und Jugendlichen ausreichend berücksichtigen. Stattdessen brauche es unter anderem Hilfestellungen für Familien und Regulierung von Plattformen.


Stiftung Bildung: „Verbot schwächt Rechte junger Menschen“

Januar 2026: „Kinderrechte wahren, Medienkompetenz stärken, Teilhabe ermöglichen“

Wer ist das? Die Stiftung Bildung ist eine gemeinnützige Spendenorganisation, die sich für gute Bildung in Deutschland engagiert.

Was ist die Position? Die Stiftung spricht sich klar gegen ein Social-Media-Verbot nach australischem Vorbild aus. „Ein solches Verbot wird den komplexen Realitäten digitaler Lebenswelten nicht gerecht und schwächt langfristig die Rechte, die Resilienz und das Vertrauen junger Menschen“, schreibt die Organisation. Stattdessen brauche es einen Ansatz, der Schutz, Befähigung und Teilhabe verbinde.


Arbeiterwohlfahrt: „weder zielführend noch angemessen“

Januar 2026: „Gegen ein Social-Media-Verbot bis 16 Jahre“

Wer ist das? Die Arbeiterwohlfahrt (AWO) engagiert sich für eine sozial gerechtere Gesellschaft.

Was ist die Position? Die AWO lehnt ein generelles Social-Media-Verbot bis 16 Jahre ab und zweifelt, ob es rechtlich und technisch durchsetzbar wäre. Mit Blick auf betroffene Jugendliche sei das Verbot „weder zielführend noch angemessen“. Es gehe an der Alltagsrealität der meisten jungen Menschen vorbei und schränke Teilhabe ein. Stattdessen brauche es unter anderem Medienbildung und Sozialarbeit; außerdem müssten Plattformen ihre Angebote jugendgerecht gestalten.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Autoritäres Instrument: Eine Klarnamenpflicht schadet der Demokratie

19. Februar 2026 um 15:07

Merz will eine Klarnamenpflicht im Netz. Doch die verschlechtert das Leben vieler Menschen und bedroht gleich mehrere Grundrechte. Der Kanzler wäre gut beraten, die Forderung sofort wieder einzupacken – und stattdessen vor der eigenen Haustüre zu kehren. Ein Kommentar.

Illustration eines geöffneten Kopfes mit einem kleinen Menschen, der in die Gitterstäbe greift, die den Kopf verschließen.
Die Klarnamenpflicht schränkt viele Grundrechte ein, zum Beispiel die Meinungsfreiheit. (Symbolbild) – Alle Rechte vorbehalten IMAGO / ANP

Nun hat also die uralte Forderung nach einer Klarnamenpflicht im Netz mit dem Bundeskanzler die höchste Ebene deutscher Politik erreicht. Besser wird die Forderung dadurch nicht. Eine Klarnamenpflicht ist nicht wirkungsvoll, sondern autoritär, falsch und extrem gefährlich für gleich mehrere Grundrechte.

Mit der derzeitigen Debatte um ein Social-Media-Verbot für Jugendliche, die vermutlich mit flächendeckenden Ausweiskontrollen umgesetzt würde,  ergibt sich allerdings gerade ein Möglichkeitsfenster für diese Art der Einschränkung des freien Internets. Dabei ist die Debatte sogar schon soweit entgleist, dass sogar die im Gesetz als freiwillig festgeschriebene digitale Brieftasche der EU von Mitgliedern der Bundesregierung jetzt als Pflicht-Instrument zur Identifizierung gefordert wird.

Dabei ist eine Klarnamenpflicht im Internet und sozialen Netzwerken bislang als Unterdrückungsinstrument von autoritären Ländern wie China bekannt.

Für freie und demokratische Gesellschaften sind Anonymität und Pseudonymität im Internet jedoch unerlässlich. Dafür gibt es zahlreiche Gründe. Und nicht umsonst ist die Anonymität im Netz in Deutschland gesetzlich festgeschrieben.

Klarnamenpflicht verschlechtert das Leben vieler Menschen

Wer eine Klarnamenpflicht im Internet oder sozialen Netzwerken einführen will, verschlechtert das Leben vieler Menschen. Wir haben schon vor Jahren zahlreiche fiktive, aber alltägliche Beispiele aufgeschrieben, die zeigen, dass Pseudonymität und Anonymität dem Schutz der Grundrechte und der freien Entfaltung und Entwicklung von Menschen dienen.

Die Möglichkeit unter einem erfundenen Namen im Internet aufzutreten, ist elementar für die Pressefreiheit, die freie Entfaltung der Persönlichkeit, die Meinungsfreiheit, die Freiheit der Kunst, die informationelle Selbstbestimmung und die Religionsfreiheit. Wir alle brauchen anonyme Orte im Netz. Das trifft nicht nur für marginalisierte Gruppen und Minderheiten zu, aber für diese besonders.

Wir alle brauchen anonyme Orte im Netz

Anonym heißt nicht gewaltvoll

Die Befürworter:innen der Klarnamenpflicht ignorieren die demokratische Notwendigkeit von Anonymität und Pseudonymität. Sie bleiben aber auch den Beweis schuldig, dass diese schwerwiegende Maßnahme überhaupt etwas bringt. Es ist nämlich alles andere als wissenschaftlich gesichert, dass durch eine Klarnamenpflicht der Diskurs befriedet wird.

Die Idee hinter der Forderung ist die Annahme, dass Menschen „mit offenem Visier“ zurückhaltender kommunizieren würden. Dafür gibt es wenig Belege. Im Gegenteil gibt es Studien, die zeigen, dass anonyme Nutzer:innen weniger aggressiv kommunizieren und solche die zeigen, dass Rassisten ganz offen hetzen.

Oftmals spielen Umfeld, Kultur und wirksame Moderation auf den jeweiligen Plattformen die entscheidende Rolle, wie diskutiert wird und wie Nutzer:innen auftreten. Dort wo Nutzer:innen selbst bestimmen können, wen sie aus ihrer Kommunikation ausschließen wollen, wird der Diskurs besser.

Es gibt zahlreiche Beispiele für Orte im Netz, in denen Menschen anonym oder pseudonym, aber vollkommen zivilisiert, achtsam und geregelt miteinander kommunizieren.

Rechtsdurchsetzung statt neuer Einschränkungen

Die Bundesregierung sollte nicht mit diesem gefährlichen Instrument gegen die Bevölkerung vorgehen. Sie sollte stattdessen das EU-Gesetz über digitale Dienste (DSA) gegen Plattformen durchzusetzen und gegen Plattformen vorgehen, wenn diese gegen EU-Gesetze verstoßen.

Man könnte den Kampf gegen Hass und Hetze in Form von gut ausgebildeten Polizeien und Staatsanwaltschaften unterstützen und Möglichkeiten schaffen, gegen strafbare Formen der Kommunikation einfacher und besser vorzugehen.

16 Beispiele, warum Pseudonymität im Netz unverzichtbar ist

Schlüsselfertiges autoritäres Haus für die AfD

Was früher noch eine eher hypothetische Warnung von Bürgerrechtlern war, ist heute leider die neue Realität. Was passiert eigentlich, wenn wir autoritäre Instrumente in einer Demokratie schaffen, die dann in die Hände der Falschen fallen? Genau vor diesem Problem stehen wir.

Die gesichert rechtsextreme AfD ist kurz davor, stärkste Partei zu werden. Eine Klarnamenpflicht würde eine mögliche Absicherung der Macht der AfD unterstützen, wenn die Rechtsradikalen an die Regierung kommen. Man baut den Zerstörern der Demokratie unnötigerweise ein schlüsselfertiges Haus, das die diese gleich beziehen können – anstatt ihnen Steine in den Weg zu legen, wo man nur kann.

Kritik nur noch mit Nummernschild?

Vielleicht sollte Friedrich Merz zunächst bei sich selbst anfangen. Er könnte zum Beispiel noch heute aufhören, auf der Hass- und Hetzplattform X zu posten. Denn dort findet genau der vergiftete Diskurs statt, der nun kritisiert wird – er wird dort durch den Eigentümer Elon Musk sogar noch aufgeheizt und befeuert. Wer als Bundeskanzler so einer toxischen Plattform durch die eigene Anwesenheit Relevanz und Seriosität verleiht, sollte von gepflegten demokratischen Diskursen besser schweigen.

Merz hat zudem wenig verstanden von der demokratischen Wichtigkeit anonymer Kommunikation, wenn er die Klarnamenpflicht auf sich selbst bezieht und aus seiner privilegierten, mächtigen Rolle als Bundeskanzler eine Zwangsoffenlegung der Namen aller Menschen fordert, die „sich sich kritisch mit unserem Land und unserer Gesellschaft auseinandersetzen.“ Kritik nur noch mit Nummernschild, oder wie ist das zu verstehen?

In Merzens Kopf schwirrt vermutlich herum, dass er als Bundeskanzler öfter einmal Gegenstand von Beleidigungen ist. Die kann er allerdings mit der ganzen Macht eines Bundeskanzlers und der Unterstützung des Bundeskriminalamts bekämpfen. Aber Privilegien und die damit verbundene Verantwortung zu verstehen, war offenbar noch nie Sache eines Kanzlers, der Privatflugzeuge fliegt, aber sich zur Mittelschicht zählt.

Merz befeuert selbst die verrohte Debattenkultur

Die ohne Frage schlechter werdende Diskurskultur, die gesellschaftliche Verrohung und das feindliche Klima hängen unmittelbar mit dem Aufstieg der AfD und ihren Narrativen zusammen. Durch permanente Diskursverschiebung und anhaltende Abwertung von Menschen verschieben die Rechtsextremen die Grenzen des Sagbaren und ermutigen Menschen zu hetzen und Grenzen zu überschreiten.

Wenn ein Friedrich Merz selbst von „kleinen Paschas“ über muslimische Jugendliche redet oder davon, dass Geflüchtete einem die Zahnarzttermine wegnehmen, dann ist dies ein Ausdruck eben genau jener Entgrenzung, die wiederum andere motiviert auch entgrenzt zu kommunizieren.

Wer also Hass und Hetze im Netz verringern will, der sollte sich selbst mit Menschenfeindlichkeit und Diskriminierung zurückhalten – und lieber ganz konkret die AfD und ihre Diskurse bekämpfen statt diese in die demokratische Mitte zu heben und zu normalisieren.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Jugendschutz-Debatte: SPD-Politiker*innen fordern Ausweispflicht oder Netzsperren

18. Februar 2026 um 15:03

Wichtige SPD-Politiker*innen verlangen ein Social-Media-Verbot bis 14 Jahre. Alle Nutzer*innen ab 16 Jahren sollen sich ausweisen, widerspenstigen Unternehmen drohen Netzsperren. Was hat der Vorstoß zu bedeuten? Die Analyse.

Ein Smartphone, umwickelt mit eiserner Kette und Vorhänge-Schloss.
Keine sozialen Medien bis zum 14. Geburtstag (Symbolbild) – Alle Rechte vorbehalten IMAGO/imagebroker; Bearbeitung: netzpolitik.org

Mit einem Impulspapier hat die SPD den Druck in der Debatte um ein Social-Media-Verbot in Deutschland erhöht. Mehrere hochrangige Politiker*innen fordern darin ein komplettes Verbot sozialer Medien für alle Menschen unter 14 Jahren. Alle Nutzer*innen – auch Erwachsene – müssten sich flächendeckend gegenüber Plattformen ausweisen. Unternehmen, die die neue Ausweispflicht nicht umsetzen, müssen dem Papier zufolge mit Netzsperren rechnen.

Die Debatte dreht sich um die Frage: Sollen Kinder und Jugendliche künftig noch auf sozialen Medien durch Feeds scrollen, posten und kommentieren dürfen? Australien hat diese Frage für sich schon beantwortet. Seit vergangenem Dezember gilt dort ein Social-Media-Verbot für alle unter 16 Jahren. Seitdem mehren sich die Rufe nach einem ähnlichen Modell in der EU. Dänemark, Griechenland und Spanien diskutieren darüber. Frankreich hat bereits ein solches Gesetz auf den Weg gebracht.

In Deutschland gab es bislang vereinzelte Forderungen nach einem Social-Media-Verbot, etwa von SPD-Justizministerin Stefanie Hubig, CDU-Digitalminister Karsten Wildberger oder dem Grünen-Politiker Cem Özdemir.

Am 15. Februar meldete sich schließlich eine Gruppe einflussreicher SPD-Politiker*innen gemeinsam zu Wort. Zu den Unterzeichner*innen gehören neben Justizministerin Stefanie Hubig auch Mecklenburg-Vorpommerns Ministerpräsidentin Manuela Schwesig und Katarina Barley, eine der Vizepräsident*innen des EU-Parlaments. Der deutsche Vize-Kanzler Lars Klingbeil hat zwar nicht unterzeichnet, das Papier aber öffentlich unterstützt. Was der SPD-Vorstoß bedeutet, zeigt unsere Analyse.

Welches Gewicht hat das Papier?

Das SPD-Impulspapier hat bereits ein enormes Medienecho ausgelöst. Wichtige Vertreter*innen einer deutschen Regierungspartei formulieren darin erstmals klare Forderungen nach einem kompletten Social-Media-Verbot.

In erster Linie dürfte das Papier wohl eine Signalwirkung Richtung Brüssel haben. Denn Alterskontrollen, wie auch andere Maßnahmen zur Plattform-Regulierung, lassen sich nach geltendem Recht nur auf EU-Ebene wirksam anwenden. Der Vorstoß der SPD in Deutschland könnte damit eine ähnliche Funktion haben wie auch jene aus Spanien oder Frankreich: Sie sollen den Druck auf die EU-Kommission erhöhen, eine EU-weite Regelung zu finden.

Denn bislang gibt es kein EU-Regelwerk, das Social-Media-Plattformen feste Altersgrenzen auferlegt. Stattdessen gilt seit 2024 das Gesetz über digitale Dienste (DSA). Es schreibt unter anderem vor, was Plattformen wie TikTok, Instagram oder YouTube tun müssen, um Kinder und Jugendliche vor Risiken zu schützen. Alterskontrollen sind demnach nur eine von mehreren möglichen Maßnahmen. Nationale Regeln, die über den DSA hinausgehen, sind nach EU-Recht nicht möglich: Der DSA hat Vorrang.

Das dürften auch die Verfasser*innen des SPD-Papiers wissen. Sie schließen mit den Worten, entsprechende Regelungen seien „vorrangig auf europäischer Ebene zu treffen“. Konkret soll die EU die Forderungen im Rahmen des geplanten Digital Fairness Acts umsetzen. Es ist das nächste große Digitalgesetz, bis Ende des Jahres will die Kommission einen Entwurf vorlegen.

In Brüssel verhandeln Kommission, Rat und Parlament derzeit außerdem über ein weiteres Gesetzespaket, das ebenfalls Alterskontrollen für Plattformen und App-Stores vorsieht: Die Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern, kurz: CSA-VO.

Der Impuls der SPD dürfte sich auch an den eigenen Koalitionspartner richten, die Union. In der Regierung zuständig für Jugendmedienschutz ist Bundesfamilienministerin Karin Prien (CDU). Sie hat zwar schon signalisiert, dass sie sich ein Verbot gut vorstellen könne. Allerdings sagte ein Regierungssprecher Anfang der Woche: Die Bundesregierung werde keinen Vorschlag vorlegen, solange die vom Familienministerium einberufene Expert*innenenkommission noch keine Ergebnisse vorgelegt hat. 16 Fachleute sollen darin bis zum Sommer ein Konzept für „Kinder- und Jugendschutz in der digitalen Welt“ entwerfen.

Ausweiskontrollen, Netzsperren: Das fordert das SPD-Papier

Das Papier der SPD sieht eine Social-Media-Regulierung in drei Stufen vor.

Erstens sollen alle Kinder und Jugendliche bis 14 Jahren Social-Media-Plattformen wie TikTok oder Instagram nicht mehr nutzen dürfen. Die Anbieter sollen dazu verpflichtet werden, „den Zugang technisch wirksam zu unterbinden“.

Zweitens soll es für Jugendliche im Alter von 14 und 15 Jahren eine „Jugendversion“ der Plattformen geben, die mehrere Kriterien erfüllt. Sie darf demnach keine algorithmisch sortierten Inhalte zeigen, wie es etwa der For-You-Feed auf TikTok tut. Anbieter dürfen keine personalisierte Inhalte ausspielen. Und sie müssen Funktionen wie Push-Benachrichtigungen und Endlosfeeds abschalten, die darauf ausgelegt sind, Nutzer*innen möglichst lange an die Plattform zu binden.

Erziehungsberechtigte sollen den 14- und 15-Jährigen den Zugang zu den betroffenen Plattformen freischalten. Passieren soll das nach Vorstellung der SPD mit Hilfe der geplanten digitalen Brieftasche (EUDI-Wallet). Das ist eine offizielle App, die künftig allen EU-Bürger*innen zur Verfügung stehen soll. Damit sollen sie sich im Netz ausweisen können, so zumindest das Versprechen der EU. Der Start in Deutschland ist für den 2. Januar 2027 geplant.

Drittens soll es für Menschen ab 16 Jahren einen vollen Zugang zu sozialen Medien geben. Doch auch hier sollen die algorithmisch optimierten Empfehlungssysteme standardmäßig deaktiviert ein – also auch für Erwachsene. Die Verfasser*innen sehen darin eine „Rückkehr zum klassischen Social-Media-Prinzip“. Konkret erklären sie das so: „Ohne weitere Einstellungen sehe ich auf meiner Seite ausschließlich Inhalte von Personen und Accounts, denen ich aktiv folge.“

Sollten sich Plattformen nicht an die Vorgaben halten, fordern die Unterzeichner*innen eine Reihe von Sanktionen. Diese dürften nicht erst nach „langen Prüfverfahren“ greifen, sondern müssten schnell erfolgen, wenn etwa Kinder und Jugendliche gefährdet seien. Die Rede ist von „sofortigen Anordnungen“ und „empfindlichen Sanktionen“ – bis hin zu Netzsperren als „Ultima Ratio“.

Nur knapp erwähnt das Papier Aufklärung und Prävention. Medienbildung an Schulen, Schulsozialarbeit und Elternberatung wolle die SPD stärken. Solchen Maßnahmen fallen aber in der Regel in die Zuständigkeit der Länder und müssten von ihnen finanziert werden.

Welche Schwächen hat das Papier?

An mehreren Stellen argumentiert das Papier unsauber, weckt falsche Erwartungen oder blendet grundrechtliche Abwägungen aus. Folgende Aspekte fallen ins Auge.

  • Altersgrenze: Auf Seite eins argumentieren die Verfasser*innen ausführlich gegen Social-Media-Verbote. Sie fordern Schutz statt Ausschluss. Sie schreiben, ein generelles Verbot würde Kindern und Jugendlichen ihren „virtuellen Lebensraum nehmen und die eigentliche Problematik nicht in Gänze adressieren“. Auf Seite zwei wiederum fordern die Verfasser*innen ohne weitere Begründung ein generelles Social-Media-Verbot für alle unter 14 Jahren. Das ist widersprüchlich.
  • Definition: Das Papier definiert nicht, welche sozialen Medien gemeint sind. Deshalb ist unklar, ob auch kleinere nicht-kommerzielle Netzwerke wie das Fediverse eingeschränkt werden sollen – also Dienste, bei denen die befürchteten Risiken kaum oder nicht bestehen.
  • Netzsperren als Sanktion gegen Online-Plattformen sind verfassungsrechtlich bedenklich, gerade verbunden mit der Forderung, dass Konsequenzen „schnell“ sein müssen. Denn Netzsperren gelten als scharfes Schwert, das insbesondere in autoritären Regimen zum Einsatz kommt. Sie schränken Grundrechte wie Meinungs- und Informationsfreiheit empfindlich ein. Der DSA sieht Netzsperren lediglich bei sehr schweren Verstößen vor – und nur zeitlich beschränkt.
  • Eignung: Einige der im Papier beschriebenen Risiken sind nicht auf soziale Medien beschränkt. Zum Beispiel setzen auch viele Games auf Suchtmechanismen, die Menschen immer wieder ins Spiel hineinziehen und zu teuren In-App-Käufen verleiten. Hassrede und psychischer Druck wiederum sind auch ein großes Problem in Messengern, etwa beim Cybermobbing. Das heißt, die geforderten Regeln passen nur teilweise zu den beschriebenen Risiken.
  • Wirksamkeit: Mit simplen Werkzeugen wie VPN-Diensten lassen sich sowohl Netzsperren als auch Altersschranken umgehen – Jugendliche in Australien tun das schon ersten Berichten zufolge. Das wirft die Frage auf, ob die Forderungen überhaupt eine Wirkung haben. Das SPD-Papier thematisiert das nicht.

Durchblick statt Schnellschüsse

Recherchen wie diese sind nur möglich durch eure Unterstützung.

  • Bots: An zwei Stellen wechselt das SPD-Papier überraschend das Thema. Statt um Jugendschutz geht es plötzlich um Bots. „Wir brauchen mehr Handhabe darüber, dass sich hinter einem Account tatsächlich ein Mensch verbirgt“, heißt es. Demnach sollen die geforderten Alterskontrollen gegen „Bots“ schützen sowie gegen Netzwerke „zur gezielten Manipulation“. Diese Argumente stammen aus der kontroversen Debatte um Klarnamenpflicht. Sie haben kaum Anknüpfungspunkte zur laufenden Jugendschutz-Debatte.
  • Ausweispflicht: Um ihr Alter nachzuweisen, sollen Menschen künftig die digitale Brieftasche (EUDI-Wallet) nutzen, heißt es im SPD-Papier.  Aber laut EU-Recht darf es keinen Zwang zur digitalen Brieftasche geben. In der entsprechenden EU-Verordnung (eIDAS) steht: Die Nutzung der digitalen Brieftasche ist „freiwillig“. Wer sie nicht nutzt, darf „in keiner Weise eingeschränkt oder benachteiligt werden“.
  • Teilhabe: Der Fokus auf die EUDI-Wallet wirft ein weiteres Problem auf. Wer keine Ausweispapiere hat, kann sich auch keine digitale Brieftasche einrichten – und hätte damit künftig keinen Zugang mehr zu Plattformen wie Instagram, TikTok oder YouTube. Das schränkt die digitale Teilhabe ein. Allein in Deutschland leben Hunderttausende Menschen ohne Papiere.
  • Datenschutz: Die Verfasser*innen versprechen Jugendschutz „ohne Einschränkung der Anonymität“. Doch die im Papier beschriebenen Lösungen für Alterskontrollen sind nicht anonym. Zwar will die EU die Kontrollen in der kommenden digitalen Brieftasche datensparsam gestalten. Ein 2025 präsentierter Prototyp funktionierte aber nicht anonym, sondern pseudonym. Ein Pseudonym lässt sich oftmals auf eine Person zurückführen. An anderer Stelle verweist das SPD-Papier auf bereits heute in Deutschland anerkannte Verfahren für Alterskontrollen im Jugendmedienschutz. Diese Verfahren sind teils sehr invasiv: Nutzer*innen müssen je nach Anbieter ihren Ausweis vor die Kamera halten, ihr Gesicht biometrisch scannen oder Daten über die Schufa abgleichen lassen.

Welche Stärken hat das Papier?

Bisher war die Debatte in Deutschland von knappen Forderungen geprägt. Meist haben sich Politiker*innen pauschal für oder gegen ein Social-Media-Verbot ausgesprochen. Das SPD-Papier liefert auf mehreren Ebenen Differenzierung.

  • Die Verfasser*innen zeichnen ein ambivalentes Bild sozialer Medien und legen auch deren Vorteile ausführlich dar: Etwa, dass sie Raum für soziale Kontakte bieten, für demokratischen Diskurs, Information, Teilhabe und Selbstbestimmung, oder dass sie Menschen eine Stimme geben, „die sonst kaum Gehör finden“.
  • Das Papier benennt konkrete Risiken, für die es strengere Regeln geben soll: Es geht um algorithmisch sortierte Feeds, die Desinformation verbreiten können, öffentliche Debatten verzerren und gesellschaftliche Gruppen polarisieren. Um Suchtmechanismen, die menschliche Aufmerksamkeit ausnutzen. Um sozialen Druck und psychische Belastungen.
  • Das Papier behandelt junge Menschen nicht als homogene Gruppe, sondern fordert je nach Altersgruppe abgestufte Vorschriften.
  • Außerdem erkennt das Papier an, dass die beschriebenen Risiken nicht nur junge Menschen betreffen, sondern alle: „Auch Erwachsene sind von Polarisierung, Hassrede und algorithmisch gesteuerten Aufmerksamkeitsökonomien betroffen.“ Entsprechend sollen die vorgeschlagenen Einschränkungen für Menschen ab 16 Jahren ebenso für Erwachsene gelten.

Was passiert als nächstes?

Die Debatte hat eine Eigendynamik, seit Australien im Dezember 2025 mit dem Social-Media-Verbot für unter 16-Jährige vorgeprescht ist. Angefeuert von Nachrichtenmedien wird sie oftmals auf eine simple, binäre Frage verengt: Social-Media-Verbot – ja oder nein.

Am Wochenende will die CDU auf ihrem Parteitag über einen Antrag entscheiden, der ein Verbot für unter 16-Jährige fordert, begleitet mit verpflichtender Altersverifikation. Bereits im Vorfeld hat Bundeskanzler Friedrich Merz „Sympathien“ dazu geäußert. Der Chef der Schwesterpartei CSU, Markus Söder, bewertet ein Verbot weiterhin zurückhaltend.

Die nationalen Vorstöße können ein Druckmittel sein, um die EU zu einer Initiative zu bewegen, und die Kommission hat den Ball bereits aufgegriffen. Digitalkommissarin Henna Virkkunen hat sich für eine EU-weite Lösung ausgesprochen – ohne vorwegzunehmen, ob es auf ein Verbot hinauslaufen soll. Eine konkrete Gelegenheit für strengere Social-Media-Regulierung wäre der geplante Digital Fairness Act. Verbote würden sich allerdings mit dem frisch verhandelten Gesetz über digitale Dienste (DSA) beißen, das abgestufte Regeln je nach Dienst und Risiko vorsieht.

Interessierte können sich den Sommer wohl im Kalender vormerken. Nicht nur die Verfasser*innen des SPD-Papiers pochen auf diesen Zeitraum. Auch die EU-Kommission wolle bis Sommer eine Entscheidung fällen, und die vom Familienministerium einberufene Expert*innen-Kommission soll bis dahin Ergebnisse vorlegen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Social-Media-Debatte: Ursachenbekämpfung statt Verbote

14. Februar 2026 um 09:00

In Los Angeles stehen Meta und Google vor Gericht, in der EU muss TikTok nachschärfen. In beiden Fällen geht es um ihr süchtig machendes Design. Das verweist auf einen besseren Weg im Kinder- und Jugendschutz: Ursachenbekämpfung statt Verbote. Ein Kommentar.

Auf einer Wand sind Like-Symbole, ein Herz und ein Smiley, wie sie bei Social Media aussehen, gesprüht.
Es braucht etwas anderes, um Kinder zu schützen. Und Erwachsene auch. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Foto von George Pagan III auf Unsplash

„Ich male mir die Welt, so wie sie mir gefällt.“ – Das gelingt den Plattformbetreibern hinter Instagram, Youtube, Snapchat oder TikTok bisher ganz gut. Das in Los Angeles eröffnete Verfahren könnte an diesem Prinzip jedoch rütteln und zeigen, dass es etwas anderes als ein Verbot für Jugendliche braucht, um die negativen Effekte sozialer Medien zu reduzieren.

Die 20-jährige Hauptklägerin will Meta und Google für ihr süchtig machendes Design zur Verantwortung ziehen. Vor Gericht gibt sie an, seit über zehn Jahren von sozialen Medien abhängig zu sein – einem Effekt, dem sich die Unternehmen laut interner Dokumente bewusst waren. Und wenn man ehrlich ist: Es ist ein Effekt, den die kommerziellen Plattformen wollen, damit sich die Aufenthaltszeit auf Plattformen verlängert, sie mehr Werbung an die Nutzer*innen abspielen und so mehr Gewinne einfahren können.

Wenn in den USA eine Person vor Gericht geht, deren Generation bisher am frühesten in der digitalen Welt aufgewachsen ist, führt das unweigerlich zu der Frage, wie für diese und nachfolgende Generationen eine bessere und andere Version von sozialen Medien aussehen könnte. Denn ob mit dem Verfahren letztlich ein Präzedenzfall geschaffen werden kann oder nicht – der Prozess stärkt eine andere Stoßrichtung als das derzeit heiß diskutierte Social-Media-Verbot.

Ein Verbot ist die falsche Antwort

Von einem Verbot sozialer Medien für junge Menschen werden viele negative Effekte erwartet: Für Minderheiten oder vulnerable Gruppen fällt ein Kanal zur Vernetzung und Gemeinschaftsbildung weg, ebenso ein Kanal zur Information, Menschen ohne Papiere könnten ganz ausgeschlossen sein und auf Kinder und Jugendliche entfallen die Folgen je nach Familiensituation und Wohnort ungleich.

Diese Nebeneffekte müssten weniger ins Gewicht fallen, wenn unterm Strich auf den Plattformen und ohne Verbot das ursprüngliche Ziel erreicht werden würde: Schutz von Kindern und Jugendlichen vor digitalem Missbrauch, vor Mobbing sowie übermäßigem Konsum und Sucht.

Ein Blick nach Australien zeigt, dass Verbote einerseits löchrig bleiben und andererseits große Risiken für Privatsphäre und Datenschutz bergen. Wie die australische Regierung erwartet hatte, finden Jugendliche einfach Schlupflöcher, das Verbot zu umgehen. Sie ändern ihren Standort über VPN-Verbindungen, legen sich neue Accounts an, wechseln auf nicht betroffene Apps oder nutzen Accounts von älteren Personen. Mit KI-generierten Bildern, Ausweisen von Älteren oder durch einfaches Stirnrunzeln bestehen sie Altersabfragen, die jetzt zur Architektur von Plattformen dazugehören.

Sollte die australische Regierung an diesen Stellen nachschärfen, bleiben Alterskontrollen aus datenschutzrechtlicher Perspektive trotzdem bedenklich. Ein vorab durchgeführtes Gutachten verzeichnet massive Bedenken, wie erhobene Daten gesammelt und an Behörden weitergegeben werden könnten. Das ist der eine Fall. Der andere Fall ist auch datenschutzrechtlich problematisch, wenn personenbezogene Daten aus Alterskontrollen an Drittanbieter weitergegeben werden, wie der Fall von Discord deutlicht.

Plattformen in die Pflicht nehmen statt Probleme in die Zukunft verlagern

Der Medienrechtler Stephan Dreyer erwartet, dass ein EU-Verbot den Jugendschutz auf sozialen Plattformen verschlechtern würde, wie er gegenüber netzpolitik.org darlegte.

Dazu kommt: Soziale Medien sind allgegenwärtiger Teil des Lebens auf der ganzen Welt. Haben Jugendliche die magische Grenze von 16 Jahren überschritten, sind sie zusammen mit den Älteren weiterhin endlosen Feeds, manipulativem Design, personalisierten Empfehlungssystemen und Dopamin-Kicks ausgesetzt. Statt „Cybergrooming“ heißt die Gefahr dann „digitale Gewalt“, wie der Grok-Skandal gerade deutlich vor Augen geführt hat.

Und warum eigentlich nur Jugendliche? Sind nicht auch gestandene Mittvierziger dem suchtmachenden Design der Plattformen verfallen und geraten nicht auch Boomerinnen in den Strudel, der sie in den verschwörungsideologischen Kaninchenbau zieht? Werden nicht uns allen polarisierende Inhalte von intransparenten Algorithmen gezeigt, damit wir möglichst lange mit den Plattformen interagieren und sie uns mit personalisierter Werbung zuballern können.

Bessere Plattformen für alle

Ein Verbot für Jugendliche macht die Plattformen nicht besser. Anstatt Plattformen zur Umsetzung von Alterskontrollen zu zwingen und junge Menschen auszuschließen, müssen die Plattformen zu einer anderen Architektur verpflichtet werden. Fairness by Design und by Default nennt sich der Ansatz, der digitale Plattformen dazu verpflichtet, ihre Webseiten und Apps nutzerfreundlich und manipulationsfrei zu gestalten. Die EU ist gegenüber TikTok einen Schritt gegangen, aber die Liste an manipulativen Techniken ist lang.

Ein Verbot ist letztlich eine platte und hilflose Maßnahme. Es erinnert an überforderte Eltern, die den Kindern das Handy wegnehmen, weil sie nicht weiterwissen. Dabei könnten auch die Verbotsbefürworter*innen beim Ansatz Fairness by Design auf ihre Kosten kommen. Er wäre einer von mehreren Ansätzen, die Plattformen nachhaltig zu verändern. Und es gibt Gesetzgebungen wie das Digitale-Dienste-Gesetz oder wie das geplante Gesetz für digitale Fairness, mit denen man Plattformen verändern kann.

Die Politik muss sich nur trauen – und nicht weiter vor der Lobby der Tech-Riesen einknicken.

 


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Trilog zu Alterskontrollen: Warnung vor „Ausweispflicht für weite Teile des Internets“

30. Januar 2026 um 10:04

Sowohl der Rat als auch das EU-Parlament haben Nein gesagt zur verpflichtenden Chatkontrolle. Aber die umstrittene Verordnung birgt weitere Risiken für digitale Grundrechte – und zwar flächendeckende Alterskontrollen. Worüber Kommission, Parlament und Rat jetzt verhandeln.

Ein Stoppschild im Vordergrund. Im Hintergrund eine Fahrbahn mit zwei Schranken.
Die EU will neue Barrieren schaffen (Symbolbild) – Schild: Efrem Efre / Free Pexels Licence; Hintergrund: IMAGO/ Breuel-Bild

Es war ein merkliches Aufatmen Ende vergangenen Jahres. Nach mehr als drei Jahren Verhandlungen hatten sich Vertreter*innen der EU-Staaten im Rat auf eine gemeinsame Position zur sogenannten Chatkontrolle geeinigt, einem der weitreichendsten Überwachungsprojekte der EU.

Hinter der Chatkontrolle stecken Pläne der EU-Kommission, Anbieter von Messengern wie Signal oder WhatsApp auf Anordnung dazu verpflichten zu können, die Kommunikation von Nutzer*innen zu durchleuchten. Vertrauliche Nachrichten müssten sie dann in großem Stil nach sogenannten Missbrauchsdarstellungen durchsuchen – ein fundamentaler Angriff auf sicher verschlüsselte Kommunikation. Anlass ist der Vorschlag für eine Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern, kurz: CSA-VO.

Fachleute aus unter anderem Kinderschutz, Wissenschaft, Zivilgesellschaft sind gegen das Vorhaben Sturm gelaufen. Mit dem Nein von Rat und EU-Parlament dürfte die Chatkontrolle vom Tisch sein. Kaum beachtet geblieben ist dabei jedoch ein weiteres Überwachungsvorhaben im Vorschlag der Kommission, und zwar die Einführung von Alterskontrollen.

Die EU-Kommission möchte Anbieter nämlich auch dazu verpflichten dürfen, das Alter ihrer Nutzer*innen zu überprüfen. Betroffen sind Dienste, die Erwachsene nutzen können, um sexuelle Kontakte zu Minderjährigen anzubahnen. Das nennt sich Grooming.

Alterskontrollen laufen oftmals auf invasive Maßnahmen heraus. Nutzer*innen müssten dann zum Beispiel ihr Gesicht biometrisch vermessen lassen, damit eine Software ihr Alter schätzt, oder mithilfe von Dokumenten wie dem Ausweis belegen, dass sie erwachsen sind. Mindestens würde es damit für Millionen Nutzer*innen schwerer, sich frei im Netz zu bewegen. Wenn es nicht gelingt, solche Kontrollen sicher zu gestalten, drohen Datenschutz-Verletzungen und massenhafte Überwachung.

Kommission, Rat und Parlament haben teils widersprüchliche Positionen zu den Alterskontrollen. Aktuell verhandeln sie im sogenannten Trilog über die Verordnung – und damit auch über die Zukunft von Alterskontrollen in der EU. Wir liefern die Übersicht über die zentralen Positionen und die Risiken dahinter.

Das will die EU-Kommission

Der Vorschlag der EU-Kommission sieht eine Verpflichtung zu Alterskontrollen bei „interpersonellen Kommunikationsdiensten“ vor, einfach ausgedrückt: Anbietern mit Chatfunktion.

Sie sollen zunächst selbst das Risiko für Grooming einschätzen, also ob ihre Dienste zum Zweck des „sexuellen Kindesmissbrauchs“ eingesetzt werden könnten. Dabei spielt etwa eine Rolle, wie viele Kinder den Dienst überhaupt verwenden, wie leicht sie von Erwachsenen auf der Plattform kontaktiert werden können und welche Möglichkeiten es gibt, solche Kontakte zu melden.

Potenziell von Grooming betroffene Anbieter sollen dann das Alter ihrer Nutzer*innen überprüfen, um Minderjährige „zuverlässig“ zu identifizieren. Die Konsequenz sollen Maßnahmen zur Risikominderung sein. Zwar nennt der entsprechende Artikel im Entwurf kein konkretes Beispiel – denkbar wären aber zum Beispiel eingeschränkte Chat-Funktionen, die keine Gespräche mit Fremden erlauben.

Vergangene Recherchen über Grooming legen nahe: Diese Regelung könnte viele populäre Plattformen treffen, etwa TikTok, Instagram und Roblox oder das unter Gamer*innen beliebte Discord. Auch Messenger wie WhatsApp oder Signal könnten dazu verpflichtet werden, das Alter ihrer Nutzer*innen zu prüfen.

Entscheidend sind hier die Worte „zuverlässig identifizieren“. Eine schlichte Altersabfrage dürfte kaum genügen. Es geht auch nicht bloß darum, dass Anbieter Schutzfunktionen für Minderjährige bereithalten müssen, damit betroffene Minderjährige (oder ihre Aufsichtspersonen) sie einsetzen können. Stattdessen könnte es sein, dass Nutzer*innen in großem Stil beweisen sollen, dass sie schon erwachsen sind.

Zusätzlich sieht die Kommission eine weitere Altersschranke vor, die noch einen Schritt früher ansetzt, und zwar bei „Stores für Software-Anwendungen“. Darunter dürften mindestens der Google Play Store und Apples App Store fallen, je nach Auslegung auch Spiele-Marktplätze wie Steam. Auch dort müssten Nutzer*innen demnach ihr Alter nachweisen, bevor sie Zugang bekommen.

Das will der Rat der EU

Der Rat der EU vertritt die Regierungen der Mitgliedstaaten. Geht es um Alterskontrollen, deckt sich die Ratsposition weitgehend mit dem Vorschlag der Kommission. Auch der Rat will, dass Anbieter, die ein Risiko zur Kontaktaufnahme mit Kindern bei sich feststellen, das Alter ihrer Nutzer*innen kontrollieren. Das Gleiche will der Rat für App Stores.

Für die Ausgestaltung dieser Kontrollen stellt der Rat weitere Anforderungen auf. Demnach sollen die Maßnahmen Privatsphäre und Datenschutz wahren, transparent, akkurat und dabei auch zugänglich und diskriminierungsfrei sein. Der Rat spricht damit Aspekte an, die sich auch an anderer Stelle in EU-Regeln finden, etwa in den Leitlinien zum Jugendschutz im Netz auf Grundlage des Gesetzes über digitale Dienste (DSA).

Der Knackpunkt: Keine Technologie wird all diesen Anforderungen gerecht. Um den Anspruch zu erfüllen, akkurat zu sein, müssten Prüfungen wohl invasiv sein – sonst lassen sie sich täuschen. Typisch sind Kontrollen mit biometrischen Daten oder auf Basis von Dokumenten wie Ausweispapieren. Erstere können Menschen diskriminieren, die nicht ausreichend in den Trainingsdaten eines KI-Systems repräsentiert sind, etwa Women of Color. Letztere können Menschen ausschließen, die keine Papiere haben.

Das will das EU-Parlament

Das EU-Parlament will bei Alterskontrollen einen anderen Weg einschlagen, wie dessen Position zeigt. Streichen will das Parlament demnach die Pflichten für Alterskontrollen auf der Ebene von App-Stores.

Die Marktplätze sollen demnach bloß deutlich ausweisen, wenn Apps erst ab einem bestimmten Alter vorgesehen sind. Zudem sollen sie bei Apps, die das verlangen, die Zustimmung von Erziehungsberechtigten sicherstellen. Diese Maßnahmen könnten etwa Apple und Google bereits umgesetzt haben: Dort gibt es entsprechende Vorkehrungen für Accounts von Minderjährigen, die an Eltern-Accounts gekoppelt sind.

Für die Anbieter von Kommunikationsdiensten will das Parlament im Gegensatz zu Rat und Kommission keine verpflichtenden Alterskontrollen, sondern optionale. Risiken mindern müssen betroffene Anbieter dennoch; sie hätten allerdings die Wahl, auf welche Weise sie das tun.

Weniger invasive Methoden zur Altersprüfung haben einige Plattformen bereits heute im Einsatz. So will TikTok das Verhalten von Nutzer*innen auf Signale untersuchen, die auf ein zu geringes Alter hindeuten, etwa, mit welchen Accounts sie interagieren.

Das Parlament fordert zudem eine Reihe von Auflagen für Alterskontrollsysteme und wird dabei konkreter als der Rat. Demnach soll es für Nutzer*innen weiterhin möglich sein, anonyme Accounts einzurichten, und es sollen keine biometrischen Daten verarbeitet werden dürfen. Zudem sollen Kontrollen nach dem Zero-Knowledge-Prinzip erfolgen. Praktisch heißt das: Anbieter, bei denen man das eigene Alter nachweist, sollen nichts weiter erfahren, außer ob man die nötige Altersschwelle überschreitet. Ein mögliches Werkzeug dafür ist die von der EU in Auftrag gegebene Alterskontroll-App, die künftig Teil der digitalen Brieftasche (EUDI-Wallet) werden soll.

Für Dienste, die sich an Kinder unter 13 Jahren richten, fordert das Parlament zusätzlich, dass sie standardmäßig in ihren Funktionen hohe Sicherheitsstandards wählen. Sie sollen etwa verhindern, dass Nutzer*innen persönliche Daten teilen oder Screenshots machen können.

Gesondert verlangt das Parlament außerdem Regeln für Pornoplattformen. Diese besondere Gruppe von Anbietern soll verpflichtend das Alter von Nutzer*innen kontrollieren. Das entspräche jedoch im Tenor den Anforderungen aus bereits bestehenden EU-Gesetzen wie der Richtlinie über audiovisuelle Mediendienste und dem DSA.

Das steht auf dem Spiel

Alterskontrollen sind nicht nur ein Thema für Kinder und Jugendliche – es geht nämlich darum, alle Nutzer*innen zu kontrollieren, um Minderjährige herauszufiltern. Die deutsche Europa-Abgeordnete Birgit Sippel (SPD) warnt: „Eine verpflichtende Altersverifikation würde eine Ausweispflicht für weite Teile des Internets bedeuten, und zwar vor allem auch für Erwachsene.“ Diese Warnung würde jedoch voraussetzen, dass die EU eine Pflicht zu Alterskontrollen sehr streng auslegt.

Wenn bei Alterskontrollen die Plattformen zum Türsteher werden und Daten auch für andere Zwecken nutzen können, wäre das „höchst problematisch“, so Sippel weiter. Deshalb brauche es Safeguards wie das Zero-Knowledge-Prinzip. „Schließlich darf die Anonymität und Nutzung von Pseudonymen nicht gefährdet werden.“ Außerdem warnt die Abgeordnete davor, Alterskontrollen als Allheilmittel zu betrachten. „Um Kinder effektiv zu schützen, braucht es eine strukturelle Reform der Plattformen, damit Profit nicht mehr aus dem Geschäft mit missbräuchlichen Inhalten geschlagen werden kann.“ Abgeordnete aus anderen Fraktionen haben sich auf Anfrage von netzpolitik.org nicht geäußert.

Für European Digital Rights (EDRi), dem Dachverband von Organisationen für digitale Freiheitsrechte, beobachtet Politikberater Simeon de Brouwer das Gesetzesvorhaben. „Verpflichtende Altersverifikation bei Diensten für zwischenmenschliche Kommunikation ist gefährlich, weil sie die freie Rede unterdrückt“, warnt er. Je nach Art der Kontrollen könnten ganze Gesellschaftsgruppen ausgeschlossen werden – etwa Menschen ohne Papiere. Außerdem warnt er vor Einschüchterung („chilling effects“), wenn der Zugang zu sicherer Kommunikation hinter verpflichtenden Kontrollen steht.

Auch Alterskontrollen auf App-Marktplätzen lehnt de Brouwer ab. „Ein derartiges Maß an Kontrolle und aufdringlicher Datenverarbeitung sollte nicht normalisiert werden – besonders nicht an einem solchen Nadelöhr.“ Es entstehe keine Sicherheit, sondern Kontrolle, wenn der Zugang zu digitalen Werkzeugen vom Überwinden zentraler Prüfsysteme abhängig gemacht wird.

Svea Windwehr ist Co-Vorsitzende des Vereins für progressive Digitalpolitik D64. „Alle bekannten Technologien zur Altersbestimmung im Netz weisen signifikante Schwächen auf“, schreibt sie auf Anfrage. So seien etwa KI-gestützte Altersschätzungen häufig ungenau und „bergen massive Diskriminierungspotenziale, da ihre Leistung stark von Geschlecht, Alter, Hautfarbe und anderen Merkmalen abhängt“. Verifikation anhand von Ausweisdokumenten wiederum könne „eine signifikante Barriere für gesellschaftliche Teilhabe darstellen“.

Unterm Strich würden neue Pflichten zur Altersverifikation „einen Bärendienst für die Privatsphäre von jungen Menschen im Netz“ darstellen, warnt Windwehr. Vor allem würden sie nichts an den strukturellen Problemen ändern, die Plattformen zu unsicheren Räumen für Kinder machen können. „Der politische Anspruch sollte darin bestehen, an der Wurzel des Problems anzusetzen und Plattformen für ihre Produkte zur Verantwortung zu ziehen, statt vulnerable Nutzende auszuschließen.“

So geht es jetzt weiter

Beim Gesetz steht die EU unter gewissem Zeitdruck. Obwohl viele Dienstleister wie etwa Meta bereits jetzt eine freiwillige Chatkontrolle durchführen, fehlt dafür eine dauerhafte Rechtsgrundlage. Möglich ist die Maßnahme nur durch eine vorübergehende Ausnahmeregelung mit Blick auf die Datenschutz-Richtlinie für elektronische Kommunikation. Die Frist dafür endet jedoch im April 2026. Zumindest Kommission und Rat wollen sie um zwei Jahre verlängern; das Parlament müsste dem noch zustimmen.

Weil der Rat sich jahrelang nicht auf eine Position zur Chatkontrolle einigen konnte, war das ganze Gesetzesvorhaben für lange Zeit blockiert. Erst mit der Einigung auf die Ratsposition Ende November wurde der Weg frei für die informellen Trilog-Verhandlungen zwischen Kommission, Rat und Parlament. Beim Trilog versuchen die drei EU-Organe einen Kompromiss zu finden. Verhandelt wird hinter verschlossenen Türen. Dauer: ungewiss; ein Ergebnis ist nicht garantiert.

„Trotz der Differenzen zeigen das Europäische Parlament und der Rat die feste Absicht, intensiv an dem Vorschlag zu arbeiten und so schnell wie möglich eine Einigung zu erzielen“, sagte jüngst der spanische Abgeordnete Javier Zarzalejos (EVP) während einer Ausschuss-Sitzung am 27. Januar. Er ist der zuständige Berichterstatter der konservativen Fraktion im Parlament.

Nach dem ersten Verhandlungstermin am 9. Dezember sollen Verhandlungen auf technischer Ebene am 15. Januar begonnen haben. Aus diesen bis dato zwei Terminen könne Zarzalejos von „guter Atmosphäre und beachtlichem Fortschritt“ berichten. Diskutiert habe man bisher insbesondere das neue EU-Zentrum – das ist die geplante zentrale Anlaufstelle zur Umsetzung der Verordnung. Der nächste Trilog-Termin soll der 26. Februar sein.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kehrtwende in UK: Pornhub widersetzt sich britischen Alterskontrollen

28. Januar 2026 um 13:12

Ein halbes Jahr lang hat sich Pornhub den britischen Alterskontrollen gebeugt und massenhaft Nutzer*innen überprüft. Jetzt macht der Konzern eine Kehrtwende und kündigt seinen Rückzug aus dem Vereinigten Königreich an. Dahinter steckt ein geschickter PR-Stunt. Die Analyse.

Ein Screenshot der Kopfzeile von Pornhub. Eine Uno-Reverse-Karte in Orange.
In UK legt Pornhub eine 180-Grad-Wende hin. – Bildschirm: IMAGO/ZumaPress; Karte: Wikimedia / Mete Ölçer / CCO; Montage: netzpolitik.org

Seit dem 25. Juli vergangenen Jahres müssen im Vereinigten Königreich Apps und Websites das Alter ihrer Nutzer*innen kontrollieren, falls es dort pornografische Inhalte zu sehen gibt. So verlangt es der Online Safety Act, den die britische Medienaufsicht Ofcom durchsetzt.

Ein halbes Jahr lang ist Pornhub, eine der meistbesuchten Websites der Welt, diesen Regeln gefolgt. Um zu beweisen, dass sie schon erwachsen sind, mussten sich britische Nutzer*innen etwa über eine Kreditkarte oder ihren Mobilfunkanbieter verifizieren lassen. Doch damit soll bald Schluss sein.

Wie Pornhubs Mutterkonzern Aylo nun bekanntgab, wird die Plattform am 2. Februar für britische Nutzer*innen dichtmachen. Die Ausnahme sind diejenigen, die vor dem Stichtag bereits einen Account angelegt hatten. Das gleiche gilt für die kleineren Schwesterseiten Redtube und YouPorn.

Zur Begründung schreibt der Konzern, das britische Gesetz habe sein Ziel verfehlt, den Zugang Minderjähriger zu Inhalten für Erwachsene einzuschränken. Die Erfahrung nach sechs Monaten habe das gezeigt. Weiter heißt es auf Englisch:

Wir können innerhalb eines Systems, das unserer Ansicht nach sein Versprechen des Jugendschutzes nicht einlöst und sogar gegenteilige Auswirkungen hatte, nicht weiter operieren. Wir sind der Auffassung, dass dieses Regelwerk in der Praxis den Datenverkehr in dunklere, unregulierte Bereiche des Internets verlagert und zudem die Privatsphäre sowie die persönlichen Daten von Bürger:innen des Vereinigten Königreichs gefährdet hat.

Pornhub spielt damit auf gleich drei Punkte an, die Kritiker*innen von Alterskontrollen häufig ins Feld führen.

  • Erstens, dass neugierige Kinder und Jugendliche ihre Recherche nach sexuellen Inhalten nicht beenden, wenn sie bei populären Pornoseiten auf eine Alterskontrolle stoßen – sondern diese Hürde entweder mit Tools wie VPN-Diensten überwinden oder auf andere Seiten ausweichen.
  • Zweitens, dass strenge Alterskontrollen generell Nutzer*innen zu weniger regulierten Angeboten mit möglicherweise weniger Inhaltsmoderation locken.
  • Und drittens, dass sich durch Alterskontrollen Berge sensibler Daten anhäufen können; verlockend sowohl für Kriminelle als auch für staatliche Überwachung.

Künstliche Verknappung

Neu ist diese Kritik nicht, auch nicht für Pornhub. Auf Grundlage dieser Argumente hätte die Plattform von Anfang an die Alterskontrollen im Vereinigten Königreich zurückweisen können. Zum Vergleich: In mehreren US-Bundesstaaten hat die Plattform ihre Geschäfte eingestellt statt Kontrollen einzuführen.

Die jetzige Kehrtwende nach sechs Monaten britischer Alterskontrollen legt nahe, dass Aylo einen PR-Stunt hinlegt. Besonders ins Auge fällt die Ankündigung, dass Brit*innen die Plattform weiter nutzen können, sofern sie bis 2. Februar einen Account anlegen. Diese von Aylo selbst gewählte Frist ist künstliche Verknappung – also eine bewährte Marketing-Strategie. Droht ein landesweiter Aufnahme-Stopp neuer Nutzer*innen, dürften sich viele vorher noch schnell einen Account anlegen, für alle Fälle.

Was Aylo nicht weiter ausführt: Auch ohne Account dürften britische Nutzer*innen künftig Pornhub erreichen können, wenn sie ihre britische IP-Adresse verschleiern, zum Beispiel per VPN oder Tor-Netzwerk.

Mehrfach verknüpft Aylo in seinem Blogbeitrag valide Argumente mit eigenen Konzerninteressen. So warnt Aylo ausdrücklich vor Pornoseiten, die keine Alterskontrollen durchführen, Uploader*innen nicht verifizieren, Inhalte nicht moderieren – und dennoch auftauchen, wenn Brit*innen nach „free porn“ googeln. Im Kontrast dazu kann sich Pornhub selbst als vorbildlich inszenieren und schreibt in polierter PR-Prosa von seiner „Bibliothek vollständig moderierter, einvernehmlicher Erwachsenen-Unterhaltung“.

In der Tat hat die Plattform inzwischen umfassende Richtlinien eingeführt, um Uploader*innen und Inhalte zu prüfen. Geschehen ist das allerdings erst nach jahrelangen Skandalen zu laxen Kontrollen und nicht-einvernehmlichen Aufnahmen auf der Plattform – was Aylo an dieser Stelle unerwähnt lässt. Früher hatte sich Pornhub mit diesen Maßnahmen mühsam aus einer internationalen Image-Krise herausgearbeitet; heute verkauft die Plattform es als Alleinstellungsmerkmal.

Strategie: Flucht nach vorn

Ein Smartphone zeigt die Nachricht, die Aylo während der Sperre in Frankreich anzeigte.
Aylos PR-Stunt gegen Alterskontrollen in Frankreich appellierte an den französischen Freiheitsbegriff „liberté“. - Alle Rechte vorbehalten IMAGO/MaxPPP

Inzwischen wählt Pornhub wiederholt die Flucht nach vorn als Strategie. Klar erkennbar ist das spätestens seit 2023, als Pornhub die eigenen Krisen in der Netflix-Doku „Money Shot“ aufarbeiten ließ – und sich dabei fast nebenbei als Stellvertreter der gesamten Branche überhöhte.

Während Regierungen und Aufsichtsbehörden weltweit Druck mit verschärften Alterskontrollen machen, erprobt Pornhub-Mutter Aylo unterschiedliche Reaktionen. Augenscheinlich lotet der Konzern dabei die eigenen Optionen aus. So hatte Pornhub auch in Frankreich feierlich eine freiwillige Selbst-Sperre verkündet; das war im Juni 2025.

Derweil sind Sperren in Deutschland kein Thema, wobei es hierzulande ähnlich strenge Pflichten für Alterskontrollen gibt. Stattdessen streitet sich Pornhub seit Jahren mit der deutschen Medienaufsicht vor Gericht. Noch vor wenigen Monaten hatte Pornhub auf Anfrage von netzpolitik.org zumindest Bereitschaft signalisiert, in der EU Ausweise zu kontrollieren.

Ruf nach Jugendschutz auf Geräte-Ebene

Den prominenten Appell für einen strategischen Umgang von Pornoseiten mit kommender Regulierung gab es bereits im Jahr 2022, und zwar durch den Unternehmer Fabian Thylmann. Er ist ehemaliger Geschäftsführer des Aylo-Vorgängers Manwin. Im Gespräch mit dem Bayerischen Rundfunk sagte Thylmann damals, es brauche strenge Gesetze für Pornoseiten und der Pornhub-Mutterkonzern solle mitwirken. Dahinter steckt ein simples Kalkül: Wenn eine Regulierung nicht mehr zu vermeiden ist, dann können sich große Plattformen ihre Vormachtstellung sichern, indem sie aktiv mitmachen und mitbestimmen.

Genau das versucht Aylo offenbar heute. So betont Aylo: „Wir bleiben der Zusammenarbeit mit dem Vereinigten Königreich, der Europäischen Kommission und anderen internationalen Partnern verpflichtet.“ Den geplanten Rückzug aus dem Vereinigten Königreich verbindet der Konzern mit einer klaren netzpolitischen Forderung. Demnach sollten alle Smartphones, Tablets und Computer zuerst in einem Kinderschutz-Modus ausgehändigt werden, der bekannte Websites für Erwachsene ab Werk blockiert.

Diese Forderung nach Jugendschutz auf Geräte-Ebene anstelle von Alterskontrollen hat Aylo bereits wiederholt vorgebracht. Auf etwaige Bedenken zu den Fallstricken von Filtersystemen für Jugendliche geht der Konzern an dieser Stelle nicht ein.

Der Kurs, den nicht zuletzt die Europäische Union etwa mit der Richtlinie für audiovisuelle Mediendienste (AVMD-RL) und dem Gesetz über digitale Dienste (DSA) beim Jugendschutz einschlägt, geht ohnehin in eine andere Richtung. Großflächige Ausweiskontrollen scheinen vor allem politisch gewollt zu sein. Statt Pornoseiten stehen in der aktuellen Debatte derzeit insbesondere Social-Media-Seiten im Fokus, während Kinder und Jugendliche auch jenseits davon eine Vielzahl an Risiken im Netz erleben.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Social-Media-Bann in Australien startet: Ein dunkler Tag für den Jugendschutz im Netz

09. Dezember 2025 um 13:39

Kein TikTok, kein YouTube und kein Instagram für Menschen unter 16 Jahren: Mit dem Social-Media-Bann betritt Australien netzpolitisches Neuland mit weltweiter Signalwirkung. Jugendlichen ist damit kein Stück geholfen. Ein Kommentar.

Ein junger Mensch im Bett mit Smartphone vor dem Gesicht
Der Klassiker: Mit dem Smartphone ins Bett – Alle Rechte vorbehalten IMAGO/phototek; Bearbeitung: netzpolitik.org

Am 10. Dezember beginnt das Social-Media-Verbot in Australien. Menschen unter 16 Jahren dürfen Plattformen wie TikTok, Instagram und YouTube nicht mehr nutzen, Hunderttausende Jugendliche verlieren Schätzungen zufolge ihre Accounts. Die australische Regierung hofft damit, junge Menschen vor den Gefahren des Internet zu bewahren.

Der australische Social-Media-Bann ist vor allem Symbolpolitik, und nur aus dieser Perspektive ist er ein Erfolg. Denn weltweit schauen jetzt Konzerne, Politik und Medien nach Australien. Vermutlich klopfen sich die Verantwortlichen allein deshalb schon auf die Schultern. Regierungen anderer Länder könnten sich das australische Modell sogar zum Vorbild nehmen. Hoffentlich tun sie das nicht.

Denn die australische Regierung erweckt nur den Eindruck von Handlungsfähigkeit. Es scheint nur so, als könnte sie harte Kante gegen Tech-Konzerne zeigen, die andere Regulierungsversuche oftmals geschickt umschiffen. In Wahrheit ist den betroffenen Jugendlichen mit dem Social-Media-Bann nicht geholfen. Ihre Bedürfnisse und Probleme spielen keine Rolle; die Regulierung verfehlt ihr Ziel.

Schon wer Social Media mit Alkohol oder Tabak vergleicht, hat das Problem nicht verstanden. Es geht nicht um nachweislich schädliche Substanzen, sondern um vielfältige, digitale Räume. In solchen digitalen Räumen suchen Jugendliche Spaß und soziale Kontakte, Aufklärung und Vorbilder. Das australische Social-Media-Verbot versperrt Jugendlichen lediglich den offiziellen Zugang zu einer Auswahl dieser Räume. (Update, 17:50 Uhr: Auf YouTube sollen sie zumindest ohne Account noch Videos sehen können.)

Was junge Menschen statt plumper Sperren brauchen, sind sichere, digitale Räume. Sie brauchen Kompetenzen, um sich zunehmend eigenständig in diesen digitalen Räumen zu bewegen. Und sie brauchen Vertrauenspersonen, die Zeit haben, sie einfühlsam zu begleiten.

Was Kinder im Netz erleben, und was Politik daraus lernen kann

Die Konsequenz des australischen Verbots: Junge Menschen werden ihren Bedürfnissen nach Spaß und Gemeinschaft, ihrer Neugier und ihrem Durst nach neuen Erfahrungen anderswo im Netz weiter nachgehen. Viele werden auf weniger bekannte Websites ausweichen. Und auf Dienste, die nicht vom Verbot betroffen sind, etwa Spiele und Messenger wie WhatsApp. Gerade WhatsApp ist für viele Kinder und Jugendliche selbst ein soziales Netzwerk und Schauplatz für Mobbing. Andere Jugendliche wiederum dürften die Altersschranken mithilfe von VPN-Software oder anderen Tricks digitaler Selbstverteidigung einfach überwinden.

Mutige Netzpolitik sieht anders aus

Das Social-Media-Verbot in Australien führt sogar zu noch mehr Kontrollverlust. Zuvor hatten Regulierungsbehörden klare Ansprechpersonen bei den großen Konzernen. Wenn auch widerspenstig haben sie zunehmend Maßnahmen für mehr Jugendschutz umgesetzt. Künftig müssen sich Plattformen wie TikTok und Instagram nicht einmal mehr darum bemühen, sichere Räume für australische Jugendliche unter 16 Jahren zu schaffen. Weil unter 16-Jährige dort offiziell nicht mehr sein dürfen.

Der Social-Media-Bann in Australien ist nicht mutig oder radikal, er ist eine Scheinlösung. Mutige Netzpolitik würde widerspenstige Tech-Konzerne unter Androhung hoher Geldbußen in die Verantwortung nehmen und sich nicht davor scheuen, das vor Gericht auszufechten. Weg mit manipulativen Designs; weg mit auf Sogwirkung optimierten Feeds, die jüngere und ältere Menschen stundenlang an den Bildschirm fesseln. Her mit sicheren Voreinstellungen, die verhindern, dass Fremde mit krimineller Energie Kontakt zu Minderjährigen anbahnen können. Her mit fair bezahlten und gut ausgestatteten Moderationsteams, die Meldungen von Nutzer*innen sorgfältig bearbeiten.

Das und mehr liefert Australien nicht. Stattdessen lässt der Staat die Jugendlichen mit ihren Problemen und Bedürfnissen allein. Das macht den 10. Dezember zu einem dunklen Tag für Jugendliche in Australien – und auch für Erwachsene.

Denn Millionen Menschen müssen in Australien künftig für ihre digitale Teilhabe den Ausweis zücken, um die Altersschranken zu überwinden. Massenhaft werden dabei sensible Daten bei teils zweifelhaften Drittanbietern landen. Nach diesem Schatz dürften sich sowohl Polizeibehörden als auch Online-Kriminelle schon jetzt die Finger lecken.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Jugendschutz-Streit: Pornhub jetzt offen für Ausweiskontrollen in der EU

03. Dezember 2025 um 15:22

Zwar hat ein deutsches Verwaltungsgericht die verhängten Netzsperren gegen Pornhub gekippt. Dennoch will die Plattform anscheinend Alterskontrollen in der EU einführen, wie der Konzern auf Anfrage von netzpolitik.org mitteilt. Hinter dem möglichen Kurswechsel steckt eine Strategie.

Eien Person hat ein Smartphone in der Hand, auf dem das Logo von Pornhub zu sehen ist.
Ausweiskontrollen für alle – zieht Pornhub mit? (Symbolbild) – Alle Rechte vorbehalten IMAGO/Starface; Bearbeitung: netzpolitik.org

Lange hat sich Pornhub in Deutschland dagegen gewehrt, das Alter seiner Nutzer*innen zu kontrollieren. Pornhub ist eine der weltgrößten Pornoseiten und zugleich eine der meistbesuchten Websites. Im Namen des Jugendschutzes soll Pornhub etwa die Ausweise aller Besucher*innen prüfen, um Minderjährige fernzuhalten. In Deutschland setzt sich die Medienaufsicht dafür ein. Während sich die Pornoseite seit Jahren vor deutschen Gerichten gegen die Regulierungsbehörde stemmt, kündigt Mutterkonzern Aylo nun einen Kurswechsel an.

„Aylo ist einer der ersten Teilnehmer am Pilotprogramm der Europäischen Kommission zur Einführung der Altersverifikation über die europäische Altersverifikations-App“, schreibt ein Sprecher auf Anfrage von netzpolitik.org.

Die EU ist ein weiterer Player bei der Durchsetzung von Jugendschutz im Netz – und ein größerer als die deutsche Medienaufsicht. Aktuell arbeitet die EU-Kommission an einer App zur Alterskontrolle. Diese App können altersbeschränkte Dienste wie etwa Pornoseiten vorschieben, um ihre Besucher*innen zu filtern. Schon jetzt testen das fünf Mitgliedstaten. Künftig sollen die Funktionen der App in der digitalen Brieftasche (European Identity Wallet, EUDI) aufgehen, die laut Plan im Jahr 2026 kommen soll.

Widersprüchliche Signale von Pornhub-Mutter Aylo

Warum bekennt sich Pornhub plötzlich zum Einsatz dieser Alterskontroll-App – sogar als einer der ersten? Auf Anfrage teilt der Konzern mit, sich schon seit Jahren für effektive und durchsetzbare Alterskontrollen eingesetzt zu haben. „Wir alle wollen die Sicherheit von Minderjährigen im Internet gewährleisten, und wir alle tragen gemeinsam die Verantwortung dafür“, so ein Sprecher auf Englisch.

Noch vor einem Jahr führte die Argumentation von Pornhub allerdings in eine andere Richtung. In ihrem ersten Interview mit einem deutschsprachigen Medium sagte Alex Kekesi, Leiterin für Community- und Markenmanagement bei Pornhub, damals gegenüber netzpolitik.org: Wenn Websites des Alter von Nutzer*innen kontrollieren, berge das „reale Gefahren“. Konkret sagte sie:

Wie viele Websites für Erwachsene gibt es weltweit? Vermutlich Hunderttausende, wenn nicht Millionen. Wie soll eine Regierung all diese Seiten überwachen können? Es ist schlicht unmöglich, überall das Alter zu kontrollieren. Bei Kontrollen auf Website-Ebene werden gerade große Plattformen zur Zielscheibe, weil sie dann gesperrt werden oder schwerer zugänglich sind. Das treibt das Publikum zu kleineren Websites, die oft nicht einmal ihre Inhalte prüfen und sich an keine Altersvorgaben halten.

Stattdessen plädierte die Pornhub-Managerin für Kontrollen auf Ebene von Betriebssystemen. Demnach sollte das Alter direkt bei der Einrichtung eines Geräts geprüft werden. Nun scheint es, dass Pornhub doch klein beigibt und sich den Anforderungen der EU-Kommission beugen will.

Mit Sicherheit sagen lässt sich das derzeit aber nicht. Denn auf konkrete Rückfragen zu den geplanten Alterskontrollen reagierten sowohl die EU-Kommission als auch Aylo nebulös.

„Es gab Aufrufe, Pornos zu verbieten“

Die Pressestelle der EU-Kommission konnte auf Anfrage von netzpolitik.org zunächst nichts Näheres dazu sagen, ob Pornhub überhaupt Teil eines „Pilotprogramms“ ist. Wenn wir eine weitere Antwort erhalten, werden wir den Artikel ergänzen.

Alyo wiederum möchte auf Nachfrage nicht näher benennen, wann genau Pornhub die Alterskontroll-App für EU-Nutzer*innen einführen will. Einerseits schreibt der Sprecher: „Wir sind entschlossen, in allen Ländern, in denen wir geschäftlich tätig sind, stets die gesetzlichen Vorgaben einzuhalten.“ Das deutet auf eine zeitnahe Einführung der Alterskontrollen hin.

Andererseits schreibt der Sprecher: „Wir glauben, dass eine solche Lösung wirksam sein kann, wenn sie branchenweit eingesetzt wird.“ Zudem müsse die Abwanderung von Nutzer*innen zu anderen Websites verhindert werden. Das deutet darauf hin, dass Pornhub den Einsatz der App an Bedingungen knüpft – die auf absehbare Zeit nicht eintreten. Denn technisch lässt sich nicht zuverlässig verhindern, dass Menschen genervt eine Seite ohne Alterskontrollen ansteuern.

Strategie: Testballon

Die Widersprüche ergeben mehr Sinn, wenn man die zugrundeliegende Strategie der Plattform betrachtet. Während Regierungen weltweit den Druck auf Pornoseiten erhöhen, erprobt Pornhub je nach Land verschiedene Reaktionen – wohl um herauszufinden, was dem Konzern am meisten nutzt. Pornhubs Reaktionen lassen sich mit Testballons vergleichen.

  • In einigen Bundesstaaten der USA hat Pornhub selbst den Zugriff auf die Seite blockiert. Statt sich den dortigen Gesetzen für Alterskontrollen zu beugen, hat Pornhub den Einbruch von Klicks in Kauf genommen.
  • Im Juni 2025 hat Pornhub dasselbe in Frankreich getan und den Zugang für dortige Nutzer*innen blockiert. „Website-basierte Altersüberprüfung funktioniert nicht. Es schützt keine Kinder und setzt die Daten von Millionen Franzosen Datenschutzverletzungen und Hacking aus“, warnte der Konzern auf Englisch und plädierte einmal mehr für Alterskontrollen auf Ebene von Betriebssystemen. „Ihre Regierung wird Ihnen diesbezüglich nicht die Wahrheit sagen, aber wir werden es tun.“
  • In Großbritannien wiederum hat Pornhub im Sommer 2025 Alterskontrollen eingeführt, wie es der dortige Online Safety Act verlangt.

Warum also zeigt sich Pornhub neuerdings offen für Alterskontrollen in der EU? Ein Faktor könnte sein, dass Brüssel ein weiteres Druckmittel in der Hand hat. Dort hat die EU-Kommission Pornhub nämlich als „sehr große Plattform“ (VLOP) nach dem Gesetz über digitale Dienste (DSA) eingestuft. Diesen Status haben nur die größten Online-Dienste in der EU. Er geht mit erweiterten Pflichten einher. Betroffene Dienste müssen besonders transparent sein und verstärkt Risiken eindämmen, auch für Minderjährige. Andernfalls drohen Geldbußen. Pornhub wehrt sich gegen die Einstufung als VLOP und beruft sich auf angeblich gesunkene Nutzungszahlen.

Ein weiterer Faktor dürfte sein, dass die geplante Alterskontroll-App der EU zumindest ein Stück weit den Anforderungen von Pornhub entgegenkommt. Zwar bringt die App keine Alterskontrolle auf Ebene des Betriebssystems, wie es der Konzern oftmals gefordert hat. Aber die App verspricht – je nach konkreter Ausgestaltung – Datensparsamkeit. Das könnte verhindern, dass zahlreiche externe Anbieter sensible Ausweisdaten horten, wie es Gutachter*innen jüngst in Australien beobachtet haben.

EU-Kommission gibt klares Jein zu Alterskontrollen

Verwaltungsgericht Düsseldorf kippt Netzsperren

Im Ringen zwischen Pornhub und EU-Kommission ist das letzte Wort also noch lange nicht gesprochen. Zumindest in Deutschland hat die Plattform jüngst einen Etappensieg erzielt. Am 19. November hat das Verwaltungsgericht Düsseldorf die gegen Pornhub und die Schwesterseite YouPorn verhängten Netzsperren wieder gekippt.

Angeordnet wurden die Netzsperren von der Landesanstalt für Medien Nordrhein-Westfalen, nachdem Pornhub in Deutschland keine Alterskontrollen einführen wollte. Sowohl Pornhub als auch betroffene Provider sind deshalb vor Gericht gezogen. Auch wenn sich Netzsperren kinderleicht umgehen lassen, gelten sie als besonders gravierende Maßnahme, das vor allem autoritäre Staaten gerne einsetzen.

Der Rechtsstreit auf Deutschland-Ebene macht anschaulich, wie unterschiedlich Pornhub gemäß seiner Testballon-Strategie handelt. In den USA und Frankreich hatte Pornhub den Zugang zur Website freiwillig blockiert. In Deutschland wiederum ging die Plattform vor Gericht, um nicht blockiert zu werden.

Der Grund für Pornhubs jüngsten Etappensieg in Düsseldorf liegt im Wandel der Zuständigkeiten auf nationaler und EU-Ebene. Die Plattform konnte mit Blick auf die verhängten Netzsperren erfolgreich argumentieren, dass nicht etwa die Anordnungen der deutschen Medienaufsicht Vorrang haben, sondern EU-Recht. Deshalb durften die betroffenen Internet-Provider die Netzsperren wieder aufheben.

Medienaufsicht kämpft um Zuständigkeit

All das ist aber nicht endgültig. Die deutsche Medienaufsicht will die Einschränkung ihrer Kompetenzen nicht hinnehmen und hat bereits Beschwerde gegen die Beschlüsse aus Düsseldorf eingelegt. Das bestätigt die Behörde auf Anfrage von netzpolitik.org. Darüber entscheiden wird das Oberverwaltungsgericht in Münster. Auch das Hauptsacheverfahren läuft weiter. In diesem Verfahren geht es ebenso darum, ob für Pornhub der europäische oder der nationale Rechtsrahmen Vorrang hat.

Vor den deutschen Verwaltungsgerichten werden also noch zwei Konflikte ausgetragen. Für Pornhub geht es darum, mit welcher Regulierungsbehörde sich die Plattform künftig herumschlagen muss. Für die deutsche Medienaufsicht geht es darum, ob sie nach jahrelangem Kampf gegen frei verfügbare Pornografie in Deutschland ihre Zuständigkeit gegenüber Brüssel einbüßt.

„Den betroffenen Kindern ist es vermutlich ziemlich egal, wer sie schützt, nur passieren müsste es“, kommentiert Tobias Schmid, Direktor der Landesanstalt für Medien NRW. Ganz so entspannt, wie das Zitat es nahelegt, dürfte die Haltung seiner Behörde jedoch nicht sein. Denn mit ihrem Vorgehen gegen Pornoseiten konnte die Landesanstalt für Medien über viele Jahre lang öffentliche Aufmerksamkeit für ihre Arbeit gewinnen und sogar ihre Instrumente erweitern.

Jüngst hat die Novelle des Staatsvertrags für Jugendmedienschutz (JMStV) der Medienaufsicht zwei neue mächtige Werkzeuge beschert. Diese Machterweiterung geht direkt auf das Engagement der Behörde gegen Pornoseiten zurück. So soll die Medienaufsicht künftig einfacher Netzsperren anordnen können und widerspenstigen Diensten über Zahlungsdienstleister den Geldhahn abdrehen dürfen. Selbst wenn die Medienaufsicht bald einen Teil ihrer Zuständigkeit für Pornoseiten verlieren sollte – diese Instrumente bleiben.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

400 Schulen besucht: Was Kinder im Netz erleben, und was Politik daraus lernen kann

18. September 2025 um 09:15

In seinem Buch „Allein mit dem Handy“ beschreibt Digitaltrainer Daniel Wolff lebhaft, was Kinder ihm beigebracht haben – über ihre Erlebnisse im Netz und ihre Angst vor den Eltern. Das Buch hebt die Debatte um Jugendmedienschutz auf ein neues Level. Eine netzpolitische Rezension.

Zwei Kinder, eines hat ein gelbes Smartphone in der Hand. Die Gesichter sind nicht zu erkennen.
Smartphones versprechen schier unendlichen Spaß (Symbolbild) – Alle Rechte vorbehalten IMAGO/Shotshop; Bearbeitung: netzpolitik.org

Kinder waren wir alle mal, auch wenn nicht alle eine digitale Kindheit hatten. Daran erinnert Autor Daniel Wolff die Leser*innen seines Buchs immer wieder, und er appelliert direkt an ihr Einfühlungsvermögen. „Stellen Sie sich bitte für einen Moment kurz vor, Sie wären heute noch mal jung“, schreibt er. „Würden Sie nicht auch versucht sein, unendlich viel Spaß und Anerkennung auf Social-Media-Plattformen zu suchen (und zu finden), die drei Viertel Ihrer Freunde täglich und nächtlich permanent nutzen?“

Das Zitat ist ein gutes Beispiel für die besondere Perspektive des Buchs. Als Digitaltrainer ist Wolff durch Hunderte Schulen gereist, darunter Grundschulen und weiterführende Schulen. Er hat mit Kindern, Jugendlichen, Eltern und Lehrer*innen gesprochen. Anschaulich gibt er wieder, wie Kinder etwa über Grusel-Videos oder aufdringliche Pädokriminelle erzählen. Über verlockende Smartphone-Spiele, die einem förmlich das Geld aus der Tasche ziehen; und über Tricks, um heimlich mit dem Handy im Bett die Nacht durchzumachen.

Die Wirren der Digitalgesetzgebung kümmern ihn ebenso wenig wie akademische Forschungsdesigns. „Ich bin kein Wissenschaftler, sondern Pragmatiker“, schreibt Wolff, und das merkt man seinem Buch an. Er teilt seine Erfahrungen aus dem direkten Austausch mit vielen Kindern und Eltern, und füllt damit eine wichtige Lücke in der Debatte um Jugendmedienschutz.

Sein Buch zeigt, wie die Mühen von Gesetzgebern und Aufsichtsbehörden oftmals weit entfernt von dem sind, was Kinder und Eltern in ihrem Alltag beschäftigt. Während Politiker*innen weltweit vor allem auf technische Lösungen hoffen, macht Wolff mit Nachdruck klar: Ohne intensive Anstrengungen von Eltern wird das nichts.

Einerseits kommt diese Rezension spät, denn das Buch ist bereits 2024 erschienen. Zugleich könnte sie kaum aktueller sein, denn Anfang September hat das Familienministerium eine neue Expert*innen-Kommission einberufen. Ein Jahr lang soll sie Empfehlungen entwickeln, um Kinder und Jugendliche im Netz besser zu schützen. Dabei sollen Fachleute aus mehreren Disziplinen zusammenkommen.

Auch diese Rezension will Verknüpfungen herstellen. Sie rückt acht im Buch besprochene Probleme in den Mittelpunkt und stellt die Frage: Was lässt sich daraus netzpolitisch lernen?

1. Smartphones fressen Schlafenszeit

🚧 Das Problem: Auf seiner Tour durch deutsche Schulen ist Digitaltrainer Wolff vielen auffällig müden Kindern begegnet. Er beschreibt ihre Augenringe, teils schon in dritten Klassen. Lehrkräfte und Eltern würden von „zunehmend unausgeschlafenen, fahrigen und/oder aggressiven Kindern“ berichten. Der mutmaßliche Grund: Mehr als die Hälfte der deutschen Kinder von 6 bis 13 Jahren würden ein Smartphone mit ins Bett nehmen.

„Vielen Eltern scheint nicht einmal im Ansatz klar zu sein, dass Kinder ein Gerät mit einem extrem hohen Aufforderungscharakter wie ein modernes Smartphone, das sich in ihrem Schlafzimmer befindet, tatsächlich nachts auch nutzen!“, schreibt Wolff. Kinder und Jugendlichen ein Smartphone mit ins Bett zu geben sei die mit Abstand „schädlichste Idee“ der Elterngeneration. In fast jeder Grundschule hätten bereits einzelne Kinder die Nacht vor einem neuen Schultag im Internet durchgemacht.

Wolffs Fazit:

Mit einer einzigen konzertierten Maßnahme könnten wir mit einem Schlag in kürzester Zeit den Bildungsstandard und alle schulischen Leistungen in ganz Deutschland positiver beeinflussen als mit allen milliardenschweren Schulreformen zusammen: KEIN SMARTPHONE INS KINDERBETT! Ausgeschlafene Kinder sind fröhlicher, konzentrierter, friedfertiger, freundlicher – und leistungsfähiger!

Damit das funktioniert, empfiehlt der Digitaltrainer, dass die ganze Familie mitmacht. „Keiner in der Familie nutzt abends nach dem Zähneputzen noch digitale Geräte – und morgens vor dem Zähneputzen auch nicht!“ Die Handys könnten in dieser Zeit etwa in ein Familienladegerät kommen, das an einem zentralen Punkt in der Wohnung steht.

🧭​ Die netzpolitische Perspektive: Aktuell kreist die Debatte in Politik und Nachrichtenmedien vor allem um Handys in der Schule und um soziale Medien. Es geht um Gesetze und Kontrollen. Wie eine Familie nachts mit ihren Handys umgeht, hat damit zunächst wenig zu tun. Das Beispiel zeigt aber: Jugendmedienschutz wird mit Gesetzen und Schulverboten allein nicht funktionieren. Man muss alles in den Blick nehmen, was Kinder mit ihren Handys machen. Wenn es um Schlafmangel geht, ist auch die Debatte um einen späteren Schulbeginn relevant, der einem gesunden Schlafrhythmus näher käme.

2. Messenger-Gruppen mit Kindern explodieren

WhatsApp-Sticker mit süßen Katzen
Dieses Paket mit WhatsApp-Stickern verzeichnet mehr als 2,8 Millionen Downloads. - Alle Rechte vorbehalten Screenshot: getstickerpack.com

🚧 Das Problem: Schon wenn die Schüler*innen einer Klasse nur miteinander einen Messenger nutzen, ist Jugendmedienschutz gefragt. Wolff berichtet von sprudelnden Nachrichten im Klassenchat, oftmals Sticker und Emojis. Hunderte Nachrichten pro Tag in fünften und sechsten Klassen, Tausende in siebten und achten Klassen, auch in der Nacht. „Selbst wenn wir Erwachsenen eine solche Nachrichtenflut innerhalb weniger Stunden nicht kennen – tut es so gut wie jeder Siebtklässler!“, schreibt Wolff.

Der meistgenutzte Messenger sei WhatsApp. „Ich habe noch keine Schule kennengelernt, bei der die Klassenchats am Ende nicht doch im Wesentlichen über WhatsApp gelaufen sind“, schreibt Wolff. Durch Klassenchats entstehe ein „nie endender 24-Stunden-Schultag“. Ab dem ersten Klassenchat werde WhatsApp „gefühlt sozial so unverzichtbar, dass nahezu alle Kinder unbedingt ein Smartphone haben wollen. Aus ihrer Sicht: müssen.“

Die Beschreibungen des Digitaltrainers zeigen: Klassenchats sind wie ein belebter Schulhof, aber die Große Pause auf diesem virtuellen Hof dauert den ganzen Tag. Und es sind meist keine Erwachsenen in Sicht. „Meiner ganz persönlichen, sehr groben Einschätzung nach findet etwa 70 Prozent des Cybermobbings an deutschen Schulen auf WhatsaApp statt“, warnt Wolff. Die letzten, die davon etwas mitbekämen, seien oft die Eltern.

Er rät deshalb zum engen Kontakt zwischen Eltern und Kindern, und zwar von Anfang an. „Erlauben Sie Ihrem Kind WhatsApp nur, wenn Sie bei Bedarf mitlesen dürfen“, schreibt er. Zum Beispiel könne man sagen:

Ich werde das nicht tun, um dich zu kontrollieren, sondern um dich zu schützen, weil ich als dein Elternteil auch im Internet verantwortlich für dich bin, solange du noch ein Kind bist. Ich werde dir aber immer vorher Bescheid sagen, immer mit dir gemeinsam reinsehen – und niemals alleine.

Das hätte sogar einen Effekt auf den ganzen Klassenchat. „Wenn in einer Klasse bekannt ist, dass es Eltern gibt, die ab und zu mal in den Klassenchat reinsehen, tauchen wundersamerweise von vornherein weder brutale Sachen dort auf – noch gruselige, eklige, nackige oder politisch zweifelhafte!“, schreibt Wolff.

🧭​ Die netzpolitische Perspektive: Die politische und mediale Debatte um Jugendmedienschutz beschreibt oftmals Gefahren von Außen, etwa durch schädliche Inhalte oder Kontaktaufnahme durch Fremde. Die damit verbundene Hoffnung ist, dass sich die meisten Gefahren durch Abschottung der Kinder mit technischen Mitteln abwenden lässt.

Dabei geriet zuletzt in den Hintergrund, was Kinder und Jugendliche erleben, wenn sie schlicht untereinander online kommunizieren. Wie der genutzte Messenger heißt oder welche Altersfreigabe er hat, ist dafür zweitrangig. Für dieses konkrete Szenario sind vor allem Eltern oder Aufsichtspersonen gefragt.

3. Kinder testen mit Gewalt und Horror ihre Grenzen

🚧 Das Problem: Ob aus Neugier oder Gruppendruck, als Mutprobe oder durch den Reiz des Verbotenen – Kinder suchen und finden mit dem Smartphone Inhalte für Erwachsene, etwa Horror und Grusel. „Gewaltdarstellungen sind auf Kinder-Smartphones unvermeidbar“, hält Digitaltrainer Wolff fest. Er schreibt:

In den 3. und 4. Klassen heben bei der Frage: ‚Habt ihr schon einmal etwas so Grausames, Blutiges oder Brutales gesehen, dass ihr nicht mehr schlafen konntet?‘, fast immer alle Kinder, die bereits ein eigenes Smartphone besitzen, die Hand.

Wer danach sucht, finde solche Videos auch auf YouTube und TikTok. Hinzu kommen Websites mit Sitz im Ausland, die gezielt verstörende Inhalte verbreiten. „Kinder, die WhatsApp auch in größeren Gruppen wie Klassenchats nutzen, können jederzeit Links für extrem brutale, grausame oder gruselige Videos geschickt bekommen“, warnt Wolff.

Der Digitaltrainer empfiehlt etwa YouTube nur in Hörweite der Eltern zu schauen. Allerdings rät Wolff auch: „Bereiten Sie Ihr Kind auf das Unvermeidliche vor“. Eltern sollten vorher über die vielen „schlimmen“ Sachen sprechen, die es gebe. „Dann ist Ihr Kind vorbereitet und weiß, dass Sie im Falle eines Falles ein kompetenter Ansprechpartner sind!“

🧭​ Die netzpolitische Perspektive: In Politik und Nachrichtenmedien werden vor allem Maßnahmen wie Filter und Alterskontrollen diskutiert. Sie sollen es Kindern schwerer machen, potenziell schädliche Inhalte zu finden. Dabei wird unterschätzt, wie gezielt Kinder solche Inhalte suchen, weil die Anreize dafür so stark sind, etwa Neugier und Gruppendruck. Deshalb muss Teil der Lösung sein, möglichst viele Kinder für das – wie Wolff es nennt – „Unvermeidbare“ zu rüsten.

4. Wo „für Kinder“ draufsteht, ist nicht „für Kinder“ drin

Eine animierte Figur wird zum Zombie und wirkt entsetzt.
Screenshot eines Videos, das wir auf YouTube Kids gefunden haben. Eine Figur wird zum Zombie, betrachtet entsetzt ihre kreidebleichen Hände und wimmert, während ihre Augen unkontrolliert umherrollen. Altersstufe: bis 4 Jahre. - Alle Rechte vorbehalten Screenshot: YouTube Kids

🚧 Das Problem: Online-Angebote mit Labels wie „ab 0 Jahren“ oder „ab 6 Jahren“ sind trügerisch. So würden zunächst kinderfreundliche Spielen oftmals nicht kinderfreundliche Werbeclips anzeigen, schreibt Wolff, darunter rassistische Werbung. „Hunderttausende Spiele-Apps spülen täglich millionenfach minderwertigen Mist auf die Bildschirme unserer Kinder“, kritisiert er.

Ein Knackpunkt ist die schiere Masse an Inhalten, wie aus dem Buch hervorgeht – und der mangelnde Wille, das angemessen zu prüfen. Zum Beispiel würden sogar auf einer dezidiert für Kinder vermarkteten Plattform wie YouTube Kids Inhalte landen, die nicht für Kinder geeignet sind. Das konnte netzpolitik.org mühelos bestätigen: Das oben abgebildete Zombie-Grusel-Video erschien über Empfehlungen auf YouTube Kids, selbst bei der niedrigsten Altersstufe bis 4 Jahre.

Möglich ist so etwas, weil große Plattformen die Massen an neuen Inhalten oftmals nur flüchtig prüfen, etwa anhand von Stichworten, auch wenn Uploads als kindgerecht gekennzeichnet wurden. Das ist kein Vergleich zur sorgfältigen, händischen Kuratierung von Sendungen, die etwa im klassischen Kinderfernsehen zu sehen sind.

🧭​ Die netzpolitische Perspektive: Schon jetzt gibt es Rechtsgrundlagen, die Plattformen zur Risikominderung für Minderjährige verpflichten, etwa das Gesetz über digitale Dienste (DSA). Das könnte etwa über Empfehlungssysteme oder Inhaltsmoderation passieren. Das Gesetz ist allerdings recht neu; die dazu gehörigen Aufsichtsbehörden nehmen erst langsam ihre Arbeit auf. Weil sorgfältiger Umgang mit hochgeladenen Inhalten teuer ist, dürften sich Online-Konzerne gegen alles wehren, das Geld kostet.

5. Die Sogwirkung optimierter Feeds ist unwiderstehlich

🚧 Das Problem: Werbefinanzierte Plattformen wie TikTok, Instagram oder YouTube haben ein Interesse daran, die Aufmerksamkeit ihrer Nutzer*innen zu binden. Mehr Nutzungszeit bedeutet mehr Werbung und mehr Geld. Inhalte, Features, Oberflächen und Algorithmen werden dahingehend optimiert. Digitaltrainer Wolff vergleicht etwa TikTok mit einem „Trommelfeuer der Sensationen“.

Mit Blick auf YouTube schreibt der Autor:

Stellen Sie sich aus Kindersicht einen Bildschirm mit einer Million Programmen vor, auf dem ganz einfach immer was Spannendes und Lustiges läuft! Und das Beste: Man kann diesen Bildschirm auch noch in die Hose stecken und dann heimlich auf dem Klo oder im Bett weitergucken!

Umso stärker sind die Anreize für Kinder und Jugendliche, das Gerät möglichst intensiv zu nutzen. Eltern rät Wolff: „Schaffen Sie Alternativen für Ihr Kind!“, also Aktivitäten, bei denen digitale Geräte stören.

🧭​ Die netzpolitische Perspektive: Die enorme Sogwirkung algorithmisch sortierter Feeds hat die EU-Kommission bereits auf dem Schirm, etwa in den Leitlinien zum Schutz von Minderjährigen auf Basis des Gesetzes über digitale Dienste (DSA). Demnach müssen Dienste Maßnahmen ergreifen, um Risiken zu mindern, zum Beispiel: kein unendliches Scrollen in einem Feed; keine Push-Benachrichtigungen, entschärfte Empfehlungssysteme. Auch in diesem Fall sind also Werkzeuge für Aufsichtsbehörden vorhanden, aber die Durchsetzung rollt erst an. Tech-Konzerne werden ihre finanziellen Interessen schützen wollen und sich dagegen wehren.

Die EU-Kommission sieht den Widerstand kommen. „Wenn es um die Sicherheit unserer Kinder im Internet geht, glaubt Europa an Eltern, nicht an Gewinne“, behauptete jüngst Kommissionspräsidentin Ursula von der Leyen (CDU) in ihrer Rede zur Lage der Union, in der sie vor allem Alterskontrollen befürwortete. In anderen Bereichen wie Datenschutz oder KI-Regulierung gibt es immer wieder Beispiele dafür, dass sich Lobby-Interessen am Ende doch durchsetzen.

6. Handy-Spiele nutzen alle Tricks, um an Taschengeld zu kommen

Video-Uploads auf YouTube zu BrawlStars
Viele Kinder lieben Brawl Stars. Auf YouTube heizen Brawl-Stars-Influencer zusätzlich den Kommerz an. - Alle Rechte vorbehalten Screenshot: YouTube/ LukasBS

🚧 Das Problem: Begeisterte Kinder und Jugendliche lassen bei Anbietern von Smartphone-Spielen die Kassen klingeln. Per In-App-Kauf können Nutzer*innen zum Beispiel häufiger gewinnen oder seltene, virtuelle Gegenstände erwerben. Das ist für Kinder und Jugendliche nicht nur verlockend, weil es Spaß macht, sondern auch, weil es soziale Anerkennung bringt. „Vor allem für die Jungs wird es sehr schnell sehr kompetitiv, weil alle anderen immer sehen können, wie viel und wie gut man in letzter Zeit so gespielt hat“, schreibt Digitaltrainer Wolff.

Wenn sie dürfen oder können, machen manche Kinder ihr Lieblingsspiel „zum absoluten Lebensmittelpunkt“, schreibt Wolff. „Es gibt dann nichts anderes mehr auf der Welt als Brawl Stars (sehr beliebt in den Klassen 3 bis 7) oder Fortnite (meist ab den 5. Klassen aufwärts).“ Bereits Grundschulkinder würden Hunderte Euro für Smartphone-Games ausgeben.

Dabei würden Anbieter an allerlei Tricks nutzen, damit Kinder das Handy nicht mehr weglegen wollen und möglichst viel Geld ausgeben. Zum Beispiel Glücksspiel-ähnliche Lootboxen, also virtuelle Geschenkkartons, die man für echtes Geld kaufen muss. Meist ist nichts Interessantes drin, selten aber schon. Hinzu kommen manipulative Aufforderungen wie „Schnell dieses Special-Angebot kaufen: NUR HEUTE gibt es noch 45 Extra-Diamanten zum Preis von 10“, schreibt Wolff.

Die Gaming-Branche ist inzwischen das größte Segment der Unterhaltungsindustrie, noch vor Musik oder Filmen. Ein Teil der Einnahmen dürfte von Eltern kommen, die damit ihre Kinder glücklich machen wollen – oder einfach nur ruhigstellen. Wolff schlussfolgert:

Wir haben zugelassen, dass eine völlig unregulierte milliardenschwere Industrie mit allen Psycho-Tricks der Welt den Wunsch unserer Kinder nach Anerkennung industriell monetarisiert und täglich millionenfach aberntet – und haben noch nicht einmal begriffen, dass und wie das passiert.

🧭​ Die netzpolitische Perspektive: Abzocke und Manipulation durch Handy-Spiele ist in der öffentlichen Debatte um Jugendmedienschutz selten Thema. Dabei schadet das auch erwachsenen Gamer*innen. Mühen beispielsweise zur Regulierung von Lootboxen gibt es seit Jahren, allerdings mit wenig Erfolg. Zumindest im Gesetz über digitale Dienste (DSA) gibt es Ansätze, manipulative Designs bei Diensten einzudämmen.

Wie groß ist wohl der politische Wille, am Finanzierungsmodell einer Milliardenindustrie wie der Gaming-Branche zu rütteln? Eine Gelegenheit hätte die EU-Kommission: Mit dem geplanten Digital Fairness Act will sie Lücken im Online-Verbraucherschutz schließen.

7. Kinder haben Angst vor der Reaktion ihrer Eltern

🚧 Das Problem: „Millionen Kinder der Welt verschweigen eisern, was ihnen online tags und nachts so begegnet“, schreibt Digitaltrainer Wolff. „Die Eltern wiederum leben fröhlich vor sich hin und glauben, dass es bei der Internetnutzung ihrer Kinder keine wesentlichen Probleme gäbe“.

Der Grund für das Schweigen ist Wolff zufolge simpel: Kinder wollen ihr Smartphone behalten. Sie befürchten, dass Eltern ihnen das Gerät wegnehmen, wenn sie erfahren, welche schlimmen Dinge damit passiert sind. Wegnehmen aber ist aus Sicht der Kinder und Jugendlichen „die gefühlt härteste Strafe im digitalen Zeitalter“.

Wolff rückt hier etwas in den Mittelpunkt, das in Debatte um Jugendmedienschutz selten zur Sprache kommt: Vertrauen. „Denn nur wenn Ihr Kind Ihnen vertrauen kann, wird es sich eines Tages an Sie wenden – wenn es dagegen Angst vor Strafen oder Handy-Verbot hat, so gut wie nie“, schreibt Wolff. Deshalb appelliert er eindringlich an Eltern: „Teilen Sie Ihrem Kind möglichst frühzeitig (am besten schon bei der Handy-Übergabe) mit, dass Sie ihm das Smartphone wegen Inhalten aus dem Internet nicht wegnehmen werden.“

🧭​ Die netzpolitische Perspektive: Maßnahmen zum Jugendmedienschutz werden oftmals mit Blick auf die verschiedenen Grundrechte von Kindern und Jugendlichen diskutiert, etwa den Schutz vor entwicklungsbeeinträchtigenden Inhalten, Teilhabe, Privatsphäre und Datenschutz. Kaum diskutiert wird aber, wie sich das Vertrauensverhältnis zwischen Kindern und ihren Aufsichtspersonen bewahren und stärken lässt.

Relevant ist das gerade mit Blick auf das derzeit vieldiskutierte Social-Media-Verbot für Minderjährige. Ein solches Verbot könnte bewirken, dass Kinder die verbotenen Dienste heimlich weiternutzen – und entsprechend noch höhere Hürden sehen, sich bei Problemen vertrauensvoll an Erwachsene zu wenden. Immerhin müssten sie dann zugeben, dass sie etwas Verbotenes gemacht haben. Maßnahmen zum Jugendmedienschutz müssten sich daran messen lassen, was sie für das Vertrauen zwischen Kindern und Eltern bedeuten.

8. Digitale Medienerziehung ist harte Arbeit

🚧 Das Problem: Es gibt keine einfache technische Lösung für Jugendmedienschutz. „Stellen Sie sich darauf ein, dass die Einhaltung von Medienzeiten eine Ihrer zentralen Erziehungsaufgaben in den nächsten Jahren sein wird“, schreibt Digitaltrainer Wolff. „Es wird anstrengend, nervig und jeden Tag erneut ermüdend sein. Sie werden schreien, Ihr Kind wird weinen und/oder Sie hassen. Und es wird sich lohnen – alleine schon, weil es keine Alternative gibt!“

Zum Beispiel sollten sich Eltern ausführlich die Zeit für einen Mediennutzungsvertrag nehmen, bevor sie ihrem Kind ein Handy geben, rät Wolff. Vorlagen für dieses oftmals mehrseitige Dokument gibt es online. „Ja, einen Mediennutzungsvertrag auszuarbeiten ist aufwendig, mühsam und anstrengend“, schreibt er. „Aber: Wenn Sie keine klaren Regeln haben, wird es in den nächsten Jahren garantiert noch aufwendiger, mühsamer und anstrengender!“

🧭​ Die netzpolitische Perspektive: Weinende Kinder, die ihre schreienden Eltern hassen – solche Bilder zeichnen Politiker*innen nicht, wenn sie etwa Alterskontrollen fordern. Wer will sich schon gern sagen lassen, dass etwas „aufwendig, mühsam und anstrengend“ wird? Stattdessen stehen technische Maßnahmen im netzpolitischen Fokus, und zwar solche, die Sorgenfreiheit versprechen. Gegen sexualisierte Gewalt soll die Chatkontrolle helfen, also die Massenüberwachung vertraulicher Kommunikation. Gegen schädliche Inhalte sollen Alterskontrollen helfen, also das massenhafte Abfragen von Ausweisdaten und biometrischen Daten.

Aus dem Blick gerät dabei die zentrale Rolle von Eltern und Aufsichtspersonen. Hier fällt häufig das Argument, man könne den ohnehin überlasteten Eltern nicht noch mehr zumuten. Doch auch hier gibt es politische Ansätze. Wie viel möchte der Staat tun, um Eltern mehr Zeit und Energie für ihre Kinder zu gewähren – etwa durch mehr Kindergeld oder Regelungen für flexiblere Arbeitszeiten? Im Vergleich dazu sind Gesetze für mehr Überwachung und Kontrolle im Netz billig zu haben – und leider oft wertlos.

Und jetzt? Ein Ausblick

Auch Digitaltrainer Wolff nennt in seinem Buch konkrete, politische Ideen. „Was aus meiner Sicht alle Schulen baldmöglichst einführen sollten, ist ein ‚echtes‘ Smartphone-Verbot“, schreibt er. Genau das wird gerade kontrovers diskutiert – unter anderem das Kinderhilfswerk und der Bundeselternrat sind gegen pauschale Verbote. Stattdessen sollten Schüler*innen, Lehrer*innen und Eltern gemeinsame Regeln entwickeln.

Weiter plädiert Wolff in seinem Buch für eine verpflichtende Altersverifikation bei Social-Media-Plattformen. Fachleute aus den Bereichen Kinderschutz und digitale Grundrechte sehen das allerdings kritisch. Die Kritik reicht von der Warnung, dass Alterskontrollen allenfalls ein Baustein sein können bis hin zur generellen Ablehnung. Ein Problem: Solche Kontrollsysteme stellen nur eine trügerische Sicherheit her; zugleich schaffen sie neue Gefahren für Minderjährige und für Erwachsene, die sich massenhaft online verifizieren müssten.

Schließlich spricht sich Wolff für ein Schulfach „Digitalität“ aus. Zu viele Eltern würden sich dem Thema Medienkompetenz verweigern; die Erziehungsaufgabe bliebe an den Schulen hängen. Einen Blick auf Schulen hat auch die Wissenschaftsakademie Leopoldina in einem aktuellen Diskussionspapier geworfen. Demnach fehle es nicht an Materialien, sondern an Fachpersonal, Zeit und Fortbildungsmöglichkeiten.

Die Suche nach netzpolitischen Lösungen ist ein Thema für sich. „Allein mit dem Handy“ geht hier nicht in die Tiefe. Stattdessen überzeugt das Buch durch eine umfassende Problembeschreibung. Das gelingt, weil der Autor immer wieder die Perspektive einbringt, die er von den Kindern und Jugendlichen gelernt hat. Zum Beispiel, dass man auf das Thema Spaß nie verzichten sollte:

Wenn Sie mit Kindern und/ oder Jugendlichen über Smartphones und das Internet sprechen und dabei nicht auch über Spaß reden, hören sie Ihnen schon nach kürzester Zeit überhaupt nicht mehr zu!


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Online-Alterskontrollen: Google stellt Zusammenarbeit mit Sparkassen vor

02. Juli 2025 um 16:41

Die EU erhöht den Druck, Alterskontrollen im Internet einzuführen. Google will dafür jetzt mit den Sparkassen zusammenarbeiten und stellt eine Lösung vor, die auf dem Smartphone und im Browser funktionieren soll.

rotes Sparkassen Schild über Filialeneingang
Die Sparkasse bescheinigt: Ja, diese Person ist volljährig. – Alle Rechte vorbehalten IMAGO / CHROMORANGE

Google und die Sparkassen kündigten am Dienstag eine Zusammenarbeit für eine Altersverifikation im Internet an. In dem Modell sollen die Sparkassen einen Altersnachweis für ihre Kund*innen ausstellen, den Google dann über eine Schnittstelle an Webseiten und Apps weiterreicht, die einen solchen Nachweis der Volljährigkeit erfordern. Die Schnittstelle soll „in den kommenden Monaten“ zur Verfügung stehen und sowohl im Chrome-Browser als auch auf Android-Smartphones funktionieren.

Die Sparkassen haben bereits in einem kleineren Rahmen Erfahrung mit den Altersnachweisen. Sie hatten solche Nachweise für das Projekt „Kulturpass“ angeboten, ein Angebot, mit dem Jugendliche nach ihrem 18. Geburtstag ein Guthaben für Kulturangebote bekamen. Dieses Projekt hatte der Verband Ende 2024 auch auf einem Workshop zu Altersverifikation im Bundesfamilienministerium (BMFSFJ) vorgestellt.

Kein Rückschluss auf Identität soll möglich sein

Google hat jetzt eine Programmierschnittstelle entwickelt, über die als einziger Datenpunkt die Information weitergereicht wird, dass jemand über 18 Jahre alt ist. Weitere Daten wie der Name oder das genaue Geburtsdatum sollen dabei nicht offengelegt werden, so dass keine Rückschlüsse auf die Identität der Person möglich sein sollen, die eine Seite oder App benutzt.

Damit geht Google auf eines der größten Bedenken gegen die Alterskontrollen ein. Fachleute für Privatsphäre wie die Electronic Frontier Foundation (EFF) hatten in der Vergangenheit davor gewarnt, dass Personen ihre Identität offenlegen müssten, um etwa Pornoseiten oder andere Angebote für Erwachsene zu besuchen. Auch bestehe die Gefahr, dass Nutzer*innen über mehrere Seiten hinweg verfolgt werden könnten. Beides soll Googles neue Schnittstelle nach eigenen Angaben verhindern.

EU-Kommission drängt auf Alterskontrollen

Tech-Konzerne und Plattformen stehen in der EU zunehmend unter Druck, Alterskontrollen einzuführen, wo Inhalte nicht für Kinder und Jugendliche bestimmt sind. Noch sieht man im Netz häufig schlichte Altersabfragen, die man mit einem Klick überwinden kann, etwa: „Bist du schon 18?“ Künftig sollen aber strengere Schranken den Zutritt zu Online-Angeboten begrenzen – etwa, um nicht jugendfreies Videos zu schauen oder im Netz eine Flasche Wein zu kaufen.

Parallel zu Googles Lösung hat auch die EU-Kommission eine eigene App in Auftrag gegeben. Sie wird derzeit von der deutschen T-Systems und der schwedischen Scytáles entwickelt. Ihre Funktion: bestätigen, dass man über 18 ist. Mitgliedstaaten sollen die App als Vorlage verwenden, um ihre eigenen nationalen Versionen zur Verfügung zu stellen, etwa in der Marktplätzen von Apple und Google.

Gesetzlich vorgeschrieben sind Alterskontrollen in der EU bislang nicht. Laut dem Gesetz über Digitale Dienste (Digital Services Act, DSA) sind Online-Plattformen allerdings dazu verpflichtet, für „ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen“ zu sorgen. Anbieter können selbst abwägen, wie sie den Verpflichtungen nachkommen. Die Kommission hat jedoch in neuen Richtlinien klar gemacht, dass sie für Pornoseiten oder Online-Glücksspiel harte Alterskontrollen bevorzugt.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

  • Es gibt keine weiteren Artikel
❌