🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Ältere BeiträgeHaupt-Feeds

Von Kinderhilfswerk bis Lehrerverband: So breit ist die Kritik am Social-Media-Verbot

21. Februar 2026 um 14:08

Bundeskanzler Friedrich Merz (CDU) findet ein Social-Media-Verbot bis 16 Jahre sympathisch. Viele Organisationen aus Kinderschutz, Wissenschaft und Pädagogik lehnen das Verbot allerdings ab – und warnen vor Schäden für Kinder und Jugendliche. Die Übersicht.

Ein Kind und eine erwachsene Person halten sich an den Händen. Ihre Köpfe sind mit bunten Fäden umwickelt. Sie schauen auf digitale Geräte.
Wie führt man Kinder in die digitale Welt? (Symbolbild) – Alle Rechte vorbehalten IMAGO/Westend61

Bekommt Deutschland ein Social-Media-Verbot nach australischem Vorbild? Druck machen zumindest wichtige Politiker*innen aus den Regierungsparteien SPD und CDU. Die Debatte kocht auch international, weil in Australien seit dem 10. Dezember ein solches Verbot gilt.

Medienwirksam sprechen sich Staats- und Regierungschefs für ähnliche Maßnahmen aus, darunter der französische Präsident Emmanuel Macron und der spanische Ministerpräsident Pedro Sánchez. Unter Expert*innen gibt es aber viel Skepsis und Ablehnung. Das zeigen mehr als 20 Positionspapiere und Stellungnahmen von unter anderem Kinderschutz-Organisationen, Pädagog*innen, Schüler*innen und Forschenden.

Viele sprechen sich klar gegen ein Social-Media-Verbot aus und warnen vor gravierenden Folgen. Doch selbst Befürworter*innen eines Social-Media-Verbots argumentieren vorsichtig und nennen Altersbeschränkungen allenfalls als eine von vielen Maßnahmen. Ein Konsens ist erkennbar, dass vor allem Plattformen sichere Räume für Kinder und Jugendliche schaffen müssen.

Hier kommt, ohne Anspruch auf Vollständigkeit, eine Übersicht wichtiger Stimmen und deren Argumente.


Deutsches Kinderhilfswerk: „Verbote entmündigen Kinder“

November 2025, „Unsere Haltung zu Social-Media-Verboten“

Wer ist das? Das deutsche Kinderhilfswerk ist ein 1972 gegründeter Verein. Dessen Mitglieder engagieren sich für „eine kinderfreundliche Gesellschaft, in der die Kinder ihre Interessen selbst vertreten“.

Was ist die Position? „Pauschale Verbote entmündigen Kinder und Jugendliche“, schreibt das Kinderhilfswerk. Sie stünden in krassem Widerspruch zum Recht auf digitale Teilhabe, das die UN-Kinderrechtskonvention garantiert. Den kompetenten und sicheren Umgang müssten Kinder und Jugendliche durch aktive Nutzung lernen. „Verbote würden die positiven sozialen Kommunikationswege in diesem Bereich abschneiden und Kindern einen Rückzugsort ihrer Lebenswelt ohne angemessenen Ersatz nehmen.“


UNICEF: „Verbote können nach hinten losgehen“

Dezember 2025: „Age restrictions alone won’t keep children safe online“

Wer ist das? UNICEF ist das 1946 gegründete Kinderhilfswerk der Vereinten Nationen.

Was ist die Position? „Social-Media-Verbote bergen eigene Risiken und könnten sogar nach hinten losgehen“, warnt die NGO auf Englisch. Gerade für isolierte oder marginalisierte Kinder seien soziale Medien eine „Lebensader“. Altersbeschränkungen müssten Teil eines umfassenderen Ansatzes sein, der auch das Recht junger Menschen auf Privatsphäre und Mitbestimmung achtet. Minderjährige sollten nicht in unregulierte, weniger sichere Bereiche des Internets gedrängt werden.


Save the Children: „falsches Sicherheitsgefühl“

Dezember 2025: „Policy Statement on Social Media Bans“

Wer ist das? Save The Children wurde 1919 gegründet und bezeichnet sich als weltgrößte unabhängige Organisation für Kinderrechte.

Was ist die Position? Save The Children unterstützt „wirksame, die Privatsphäre respektierende Altersüberprüfungen“. Dennoch ist die Organisation besorgt, dass altersbasierte Beschränkungen „unbeabsichtigte Schäden verursachen, ein falsches Sicherheitsgefühl vermitteln und die Rechte und Möglichkeiten von Kindern einschränken könnten“. Weiter pocht sie darauf, dass Plattformen ihre Produkte „wirklich sicher und altersgerecht gestalten“.


Bundesschülerkonferenz: Medienbildung „an erster Stelle“

Februar 2026: „Verbote sind keine Lösung“

Wer ist das? Die Bundesschülerkonferenz engagiert sich für Bildungspolitik und Mitbestimmung von Schüler*innen in Deutschland.

Was ist die Position? Die psychische Gesundheit von Jugendlichen würde immer schlechter, schreibt die Generalsekretärin der Bundesschülerkonferenz. Social Media leiste dazu einen erheblichen Beitrag. Der Fokus der Debatte liege aber zu stark auf Verboten. „An erster Stelle muss bessere Medienbildung in Schulen stehen, denn sonst ist das Verbot nichts anderes als eine Problemverschiebung.“


Deutscher Bundesjugendring: Manipulative Designs verbieten

Oktober 2025: „Stellungnahme zur Konsultation zum Digital Fairness Act“

Wer ist das? Der Deutsche Bundesjugendring vertritt deutsche Jugendverbände und Landesjugendringe.

Was ist die Position? „Junge Menschen haben Rechte auf Schutz, Teilhabe und Befähigung – auch digital“, schreibt der Verein in einem Statement zum Digital Fairness Act, einem geplanten Digitalgesetz der EU. Der Bundesjugendring lehnt „pauschale Zugangsbeschränkungen“ ab und fordert sicher gestaltete Räume. Funktionieren soll das etwa über „verbindliche Verbote manipulativer Gestaltung“. Konkrete Beispiele seien „endlose Feeds, Lootbox-Mechaniken oder manipulative Abo-Taktiken“.


ACT Youth Advisory: Verbote können isolieren

November 2024: „The ACT Youth Advisory Council’s Response to the Online Safety Amendment“

Wer ist das? Der ACT Youth Advisory vertritt Jugendliche im „Australian Capital Territory“, wo auch die australische Hauptstadt Canberra liegt.

Was ist die Position? Der ACT-Jugendrat hätte das australische Social-Media-Verbot am liebsten verhindert. Statt Jugendliche auszusperren, so die Forderung, solle die Regierung die Plattformen regulieren. Die Jugend-Vertreter*innen sahen etwa das Recht auf freie Meinungsäußerung in Gefahr – und das Recht auf sicheren und freien Zugang zu Informationen. Sie warnten außerdem davor, dass das Verbot vulnerable junge Menschen isolieren könne.


Deutscher Lehrerverband: „weder umsetzbar noch sinnvoll“

Juni 2025: „Digitale Teilhabe ist Realität und muss gelernt werden“

Wer ist das? Der Deutsche Lehrerverband ist eine der größten Organisationen von Lehrer*innen in Deutschland.

Was ist die Position? Eine gesetzliche Altersgrenze für soziale Medien ist „weder realistischerweise umsetzbar noch sinnvoll“, schreibt Verbandspräsident Stefan Düll. Kinder und Jugendliche müssten lernen, sich in der digitalen Welt sicher und verantwortungsvoll zu bewegen. Es könne nicht die Lösung sein, Jugendlichen „plötzlich mit dem 16. Geburtstag“ einen Zugang zu geben. „Wir sollten nicht ständig diskutieren, was Kindern verboten wird – sondern was wir ihnen ermöglichen.“


BzKJ: Völliges Verbot „zu weitgehend“

Dezember 2024: „Junge Menschen haben ein Recht auf digitale Teilhabe“

Wer ist das? Die Bundeszentrale für Kinder- und Jugendmedienschutz ist als Bundesbehörde zuständig für die Durchsetzung von Kinderrechten im Netz auf Grundlage des EU-Gesetzes über digitale Dienste (DSA).

Was ist die Position? „Kinder und Jugendliche haben ein Recht auf digitale Teilhabe und darauf, digitale Lebensräume sicher zu erkunden“, sagte BzKJ-Direktor Sebastian Gutknecht bereits Ende 2024. „Das völlige Verbot von Social Media für unter 16-Jährige“ halte er für „zu weitgehend.“ Die Anbieter in der EU hätten die gesetzliche Pflicht, „ihre Plattformen für junge Menschen mit strukturellen Vorsorgemaßnahmen möglichst sicher zu gestalten“.


Landesanstalt für Kommunikation: „erhebliche Bedenken“

Februar 2026: „Social-Media-Verbot – Worum geht’s?“

Wer ist das? Die „Landesanstalt für Kommunikation“ (LFK) aus Baden-Württemberg ist eine von 14 deutschen Aufsichtsbehörden für privaten Rundfunk und Online-Medien.

Was ist die Position? Nach einer Sammlung von Pro- und Contra-Argumenten zieht die Behörde ein Fazit: Demnach sei der Schutz von Kindern und Jugendlichen komplex, und es bestünden „erhebliche Bedenken gegen vermeintlich einfache Lösungsvorschläge“. Insbesondere zu beachten seien „Fragen bezüglich der Umsetzbarkeit und der Reichweite eines Verbots“ sowie „unbeabsichtigte negative Folgen“.


BfDI: „keinesfalls“ undifferenzierte Altersgrenzen

Dezember 2025: Stellungnahme für den Thüringer Landtag

Wer ist das? Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) berät unter anderem die Bundesregierung bei Datenschutzgesetzgebung.

Was ist die Position? „Keinesfalls sollte undifferenziert für jedes soziale Medium in Gänze eine bestimmte Altersgrenze festgelegt werden“, schreibt Bundesdatenschutzbeauftragte Louisa Specht-Riemenschneider in einer Stellungnahme für den Thüringer Landtag. Kinder und Jugendliche hätten ein Recht auf soziale Teilhabe. Altersbeschränkungen müssten allenfalls risikobasiert sein. Aussehen könne das so: „Die Grundversion des Dienstes ist kinderfreundlich und für alle zugänglich. Erst wenn jemand eine Funktion anschalten oder einen Bereich besuchen möchte, der mit einem hohen Risiko verbunden ist, wird die Altersprüfung eingesetzt.“

Durchblick statt Schnellschüsse

Recherchen wie diese sind nur möglich durch eure Unterstützung.


Berliner Psychotherapeut*innen: mehrstufiger Schutz

Januar 2026: „Psychotherapeutenkammer warnt (…) und fordert wirksamen Schutz“

Wer ist das? Die Psychotherapeutenkammer Berlin vertritt die Interessen approbierter Psychotherapeut*innen in der deutschen Hauptstadt.

Was ist die Position? Die Therapeut*innen warnen vor Schäden für die psychische Gesundheit durch „Überkonsum von Plattformen wie Instagram, TikTok und YouTube“, auch wenn bisherige Studien keine Kausalitäten zeigen. Deshalb fordern sie ein Mindestalter und Kontrollen. „Datenschutzkonforme technische Verfahren müssen sicherstellen, dass Kinder unter einem festgesetzten Mindestalter nicht einfach Accounts erstellen“. Die Therapeut*innen fordern aber auch „sichere Voreinstellungen und Schutzmechanismen gegen exzessive Nutzung“.


Australian Psychological Society: Warnung vor Einsamkeit

November 2025: „Psychologists call for consideration for young Australians‘ mental health (…)“

Wer ist das? Die „Australian Psychological Society“ (APS) bezeichnet sich selbst als „führende Organisation“ für Psycholog*innen in Australien.

Was ist die Position? Im Vorfeld des australischen Social-Media-Verbots mahnten dortige Psycholog*innen zur Vorsicht. Zwar könnte die Maßnahme junge Menschen vor Risiken schützen. Aber ohne sinnvolle Alternativen könne der Entzug sozialer Medien eine Lücke in ihr soziales Leben reißen und Gefühle wie „Einsamkeit, Angst und Kummer“ erhöhen.


BAJ: Zugang sicher gestalten

Januar 2026: „Prävention schafft Schutz – pauschale Verbote nicht!“

Wer ist das? Die im Jahr 1951 gegründete Bundesarbeitsgemeinschaft Kinder- und Jugendschutz setzt sich „für ein gutes und gesundes Aufwachsen von Kindern und Jugendlichen“ ein.

Was ist die Position? Die BAJ ist gegen ein pauschales Nutzungsverbot von Social Media vor dem 16. Lebensjahr. Die zentrale Frage sei nicht, ob Minderjährige Zugang zu sozialen Netzwerken haben dürfen, sondern wie dieser Zugang gestaltet wird. Es gehe darum, dass Kinder und Jugendliche geschützt werden und sich entwickeln können. Wichtig sei es, Eltern zu unterstützen und bestehende Regeln durchzusetzen.


EKKJ: „vermeintliche Lösung für komplexes Problem“

November 2025: „Social Media: altersgerechter Zugang und Regeln statt Verbote“

Wer ist das? Die Eidgenössische Kommission für Kinder- und Jugendfragen ist eine staatliche Fachstelle aus der Schweiz, die Wissen für Bundesbehörden aufbereitet.

Was ist die Position? Aus Sicht der EKKJ sind „pauschale Verbote von Social Media für Kinder und Jugendliche nicht zielführend und nur eine vermeintliche Lösung für ein komplexes Problem“. Verbote seien bezüglich der negativen Folgen „weitgehend unwirksam“, so die Kommission weiter. „Gleichzeitig schränken sie positive und notwendige Lernprozesse ein, verhindern den Erwerb sinnvoller Kenntnisse und Kompetenzen und verunmöglichen wichtige Erfahrungen.“


Molly Rose Foundation: „Kinder brauchen Plattformen“

Januar 2025: „Joint statement (…) on a social media ban for under-16s“

Wer ist das? Die britische Molly Rose Foundation engagiert sich dafür, dass junge Menschen keinen Suizid begehen. Ihr Statement zum Social-Media-Verbot haben insgesamt 42 Organisationen unterzeichnet, darunter die 1884 gegründete britische Kinderschutzorganisation NSPCC.

Was ist die Position? „Gemeinsam glauben wir, dass Social-Media-Verbote die falsche Lösung sind“, halten die Unterzeichner*innen fest. Verbote würden dabei scheitern, Kindern Sicherheit zu bringen. Kinder, darunter queere und neurodivergente, bräuchten Plattformen für soziale Kontakte, Unterstützung durch Gleichgesinnte und vertrauenswürdige Hilfsangebote. Wenn Jugendliche die riskanten Plattformen dann mit 16 Jahren nutzen dürften, würden sie vor einer Klippe stehen.


Leopoldina: 13 Jahre als „verbindliches Mindestalter“

August 2025: „Soziale Medien und die psychische Gesundheit von Kindern und Jugendlichen“

Wer ist das? Die Leopoldina ist eine vom Bund und dem Land Sachsen-Anhalt finanzierte Gelehrtengesellschaft, die Politik und Öffentlichkeit beraten will.

Was ist die Position? „Strategien, die vorrangig auf Altersbeschränkungen setzen, greifen zu kurz“, schreiben die Forschenden. Dennoch empfehlen sie 13 Jahre als verbindliches Mindestalter für Social-Media-Accounts, pochen jedoch auf weitere Maßnahmen je nach Alter. Zudem kritisieren die Forschenden das „Prinzip der Aufmerksamkeitsökonomie“, also das Geschäftsmodell vieler populärer Plattformen. Das fördere „technologische Strategien zur Maximierung der Nutzerbindung“ und schaffe „gezielt suchtfördernde Strukturen“.


ÖAW: „Gefahr, dass das Ziel nicht erreicht wird“

Februar 2026: „Alterssperren auf Social-Media: Technische Grenzen und Möglichkeiten“

Wer ist das? Die Österreichische Akademie der Wissenschaften (ÖAW) ist eine 1847 gegründete Gelehrtengesellschaft aus Wien.

Was ist die Position? Das Institut für Technikfolgen-Abschätzung der ÖAW hat untersucht, wie sich ein Social-Media-Verbot durchsetzen ließe. Demnach könne Altersfeststellung im Internet „grundsätzlich Sinn machen“, es brauche aber eine breite gesellschaftliche Debatte. Weiter warnt die Studie vor der Gefahr, „dass trotz weitreichender Einschnitte für alle Internetnutzer:innen das Ziel, nämlich das eines besseren Schutzes von Minderjährigen, nicht erreicht wird“.


EDRi: Hürden werden umgangen

November 2025, „Why age verification misses the mark and puts everyone at risk“

Wer ist das? European Digital Rights (EDRi) ist der Dachverband von Organisationen für digitale Freiheitsrechte.

Was ist die Position? EDRi lehnt Social-Media-Verbote ab. Stattdessen plädiert der Verband dafür, die Ursachen für Gefahren im Netz zu bekämpfen. „Kinder brauchen und verdienen Online-Räume, in denen sie andere treffen können, Trost und Sicherheit finden, Ideen erproben und austauschen, Beziehungen aufbauen, lernen und spielen.“ Es sei sehr wahrscheinlich, dass junge Menschen Hürden umgehen.


Superrr: „Verbot ist Kurzschlussreaktion“

Februar 2025: „Nicht sehen, nicht sprechen, nicht hören“

Wer ist das? Superrr ist eine gemeinnützige Organisation, die sich für feministische Digital- und Technologiepolitik einsetzt.

Was ist die Position? „Ein Verbot ist eine Kurzschlussreaktion, die eine Auseinandersetzung mit den wirklichen Problemen verweigert“, hält Superrr fest. Wenn auf einer Straße viel Verkehr sei, laute die Lösung auch nicht, Kinder zu Hause einzuschließen. „Viel von dem, was als schädlich für Kinder beschrieben wird, schadet uns allen.“ Deshalb stellt Superrr die Frage nach einer digitalen Welt ,“die nicht nur aus uns und unserer Zeit Gewinn schlagen möchte“.


GMK: Verbot „greift langfristig zu kurz“

Dezember 2024: „Zum australischen Social-Media-Verbot aus medienpädagogischer Sicht“

Wer ist das? Die Gesellschaft für Medienpädagogik und Kommunikationskultur engagiert sich seit 1984 sich für Medienpädagogik und Medienkompetenz.

Was ist die Position? Ein Social-Media-Verbot könne kurzfristig attraktiv erscheinen, „greift jedoch langfristig zu kurz“, schreibt die GMK. Es würde weder die Bedürfnisse noch die Rechte von Kindern und Jugendlichen ausreichend berücksichtigen. Stattdessen brauche es unter anderem Hilfestellungen für Familien und Regulierung von Plattformen.


Stiftung Bildung: „Verbot schwächt Rechte junger Menschen“

Januar 2026: „Kinderrechte wahren, Medienkompetenz stärken, Teilhabe ermöglichen“

Wer ist das? Die Stiftung Bildung ist eine gemeinnützige Spendenorganisation, die sich für gute Bildung in Deutschland engagiert.

Was ist die Position? Die Stiftung spricht sich klar gegen ein Social-Media-Verbot nach australischem Vorbild aus. „Ein solches Verbot wird den komplexen Realitäten digitaler Lebenswelten nicht gerecht und schwächt langfristig die Rechte, die Resilienz und das Vertrauen junger Menschen“, schreibt die Organisation. Stattdessen brauche es einen Ansatz, der Schutz, Befähigung und Teilhabe verbinde.


Arbeiterwohlfahrt: „weder zielführend noch angemessen“

Januar 2026: „Gegen ein Social-Media-Verbot bis 16 Jahre“

Wer ist das? Die Arbeiterwohlfahrt (AWO) engagiert sich für eine sozial gerechtere Gesellschaft.

Was ist die Position? Die AWO lehnt ein generelles Social-Media-Verbot bis 16 Jahre ab und zweifelt, ob es rechtlich und technisch durchsetzbar wäre. Mit Blick auf betroffene Jugendliche sei das Verbot „weder zielführend noch angemessen“. Es gehe an der Alltagsrealität der meisten jungen Menschen vorbei und schränke Teilhabe ein. Stattdessen brauche es unter anderem Medienbildung und Sozialarbeit; außerdem müssten Plattformen ihre Angebote jugendgerecht gestalten.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Neue Melde-App: Was im EU-Aktionsplan gegen Cybermobbing fehlt

12. Februar 2026 um 13:45

Die EU-Kommission hat einen Aktionsplan gegen Cybermobbing unter Minderjährigen vorgelegt. Dazu gehört eine neue Melde-App, die viele Nachrichtenmedien aufgreifen. Bei näherer Betrachtung kratzt der Aktionsplan jedoch nur an der Oberfläche. Eine Analyse.

Eine Frau und ein Kind gehen Hand in Hand einen Feldweg entlang.
Was hilft gegen Mobbing? (Symbolbild) – Alle Rechte vorbehalten IMAGO/Westend61; Bearbeitung: netzpolitik.org

„Du stinkst“, „du bist hässlich“, „geh sterben“ – auf dem Schulhof können Sätze fallen, die viele Erwachsene selten hören. Häufen sich solche Dinge gegenüber einer bestimmten Person über längere Zeit, spricht man von Mobbing. Inzwischen passiert das auch online.

Gegen dieses sogenannte Cybermobbing will die EU-Kommission mit einem neuen Aktionsplan vorgehen. Ihre Ankündigung hat sie mit dem Bild aus einer Fotodatenbank illustriert. Zu sehen ist eine sonderbare Computer-Tastatur. Statt einer Umschalttaste hat sie eine feuerrote Taste mit der Aufschrift „STOP Cyberbullying“. Ein Finger bewegt sich vom rechten Bildrand auf diese Taste zu. Das erweckt den Eindruck, man könne Cybermobbing quasi per Knopfdruck beenden.

Was wir auf dem Bild nicht sehen: Menschen. Etwa einen Teenager, der sich einer Pädagogin anvertraut oder zwei Freund*innen, die sich gegenseitig Trost spenden. Es könnte eine Nebensache sein, doch in diesem Fall ist das Motiv mit der fiktiven Tastatur ein Sinnbild dafür, wie die EU-Kommission das Thema vorwiegend angeht: technisch und distanziert.

Die EU-Kommission, so geht es aus dem 18-seitigen Aktionsplan hervor, möchte Cybermobbing primär als ein Problem von Plattformregulierung und digitaler Infrastruktur bearbeiten. Die Beziehungen zwischen Kindern, Jugendlichen und Erwachsenen spielen eine Nebenrolle. Zeit und Vertrauen – die für gute Fürsorge oftmals entscheidenden knappen Ressourcen – stehen nicht im Zentrum. Das zeigt ein näherer Blick auf die drei Säulen des Aktionsplans.

Erste Säule: Mit Plattformregulierung gegen Cybermobbing

In der ersten von drei Säulen des Aktionsplans gegen Cybermobbing zitiert die EU-Kommission einschlägige Digitalgesetze, allen voran das Gesetz über digitale Dienste (DSA). Es ist das wohl wichtigste Regelwerk für Plattformen, auf denen auch Minderjährige Inhalte teilen können, etwa Instagram, TikTok, Snapchat.

„Soziale Medien sind der primäre Kanal, über den Kinder und Heranwachsende Cybermobbing ausgesetzt werden“, heißt es im Aktionsplan. Folglich will die EU-Kommission bei der bevorstehenden Prüfung der DSA-Regeln für Minderjährige den „Fokus“ auf Cybermobbing und Meldemechanismen stärken. Zudem gebe es bald Leitlinien für vertrauensvolle Hinweisgeber*innen („Trusted Flaggers“). Das sind zum Beispiel NGOs, die mit besonderer Expertise Inhalte auf Plattformen recherchieren und melden.

Dabei fällt unter den Tisch, dass Inhalte auf Plattformen nur ein Symptom von Mobbing unter Kindern und Jugendlichen sind. Primär geht es beim Mobbing allerdings nicht um regulierbaren „Content“, sondern um zwischenmenschliche Beziehungen.

Mehr als 80 Prozent der Fälle von Cybermobbing geschehen im schulischen Umfeld, das zeigt eine deutsche Studie des „Bündnis gegen Cybermobbing“ aus dem Jahr 2024. Dafür haben rund 4.200 Schüler*innen von sieben bis 20 Jahren, 1.000 Eltern und 630 Lehrer*innen ihre Erfahrungen geschildert. Demnach kennen zwei Drittel der Betroffenen die Täter*innen persönlich. Offline und online gehören beim Mobbing eng zusammen.

Eine ebenso 2024 veröffentlichte Umfrage des Deutschen Jugendinstituts (DJI) macht anschaulich, welche Form Cybermobbing häufig annimmt. Demnach gibt es Kinder und Jugendliche, die andere online bedrohen oder beleidigen, deren Fotos verbreiten, sie aus Online-Gruppen ausschließen – oder neue Gruppen gründen, um sich dort über sie lustig zu machen.

Wo genau Cybermobbing mehrheitlich geschieht, hat wiederum das Sinus-Institut mit der Krankenkasse Barmer näher erforscht. Das Ergebnis: „Eindeutiger Spitzenreiter unter den Cybermobbing-Kanälen ist weiterhin unangefochten WhatsApp.“ Diesen Messenger nannte demnach jede*r zweite Befragte. Das dürfte damit zusammenhängen, dass WhatsApp für viele die Plattform schlechthin für Klassenchats ist. Wer nachts im Klassenchat gemobbt wird, sitzt am nächsten Morgen wieder mit den Bullys zusammen im Klassenzimmer.

Nachrichten auf WhatsApp sind allerdings Ende-zu-Ende-verschlüsselt und deshalb privat. Das heißt, ein großer Teil von Cybermobbing bietet kaum Anknüpfungspunkte für Plattformregulierung. Für Betroffene steht vielmehr im Mittelpunkt, wie Konflikte in der eigenen Schulklasse ausgetragen werden, wie Lehrer*innen und Aufsichtspersonen helfen können.

Zweite Säule: Mit Info-Material gegen Cybermobbing

Die zweite Säule der EU-Kommission dreht sich um Prävention und Aufklärung. Wie die Kommission betont, müsse Prävention alle Akteur*innen einbeziehen – Gleichaltrige, Täter*innen, Eltern, Betreuer*innen, Lehrkräfte, „die gesamte Schulgemeinschaft“ und die Zivilgesellschaft.

Laut Aktionsplan will die EU-Kommission diesen Akteur*innen vor allem eines bieten: Infomaterial. Es geht primär um Leitlinien, Ressourcen und Werkzeugkästen, um Digitalkompetenz und Bildung.

Kaum eine Rolle spielt im Aktionsplan, dass es beispielsweise in deutschen Schulen vor allem an Zeit und Personal fehlt. Zuletzt hatte etwa die Leopoldina dieses Thema behandelt. In ihrem Diskussionspapier schreiben die Forschenden der Wissenschaftsgesellschaft darüber, wie sich soziale Medien auf die psychische Gesundheit von Kindern und Jugendlichen auswirken. Demnach gebe es in Deutschland keinen Mangel an Infomaterial. „Häufig scheitert schlicht die Umsetzung in den Schulen.“ Die Gründe dafür seien vielfältig. „Es fehlt unter anderem an Fachpersonal, Zeit“ oder „Fortbildungsmöglichkeiten für Lehrkräfte“, so die Leopoldina.

Info-Kampagnen kosten vergleichsweise wenig. Teuer ist es dagegen, Pädagog*innen einzustellen, sie auf Fortbildungen zu schicken und ihnen die Zeit einzuräumen, ihre Kenntnisse im schulischen Alltag anzuwenden. Die Zuständigkeit dafür liegt in den Mitgliedstaaten, in Deutschland bei den Bundesländern.

Spielräume hat die EU dennoch. Darauf geht der Aktionsplan zumindest in Ansätzen ein. So nennt die Kommission etwa das Programm Erasmus+. Es soll „allgemeine und berufliche Bildung, Jugend und Sport“ fördern. Dafür müssen Organisationen Anträge stellen. Bei deren Prüfung will die EU verstärkt auf Projekte für gutes Schulklima achten. Der Einfluss auf Cybermobbing geschieht also eher indirekt. Der Aktionsplan macht keine direkten finanziellen Zusagen und nennt keine messbaren Zielgrößen.

Dritte Säule: Mit einer App gegen Cybermobbing

Die dritte und letzte Säule aus dem Aktionsplan hat Nachrichtenmedien offenbar am meisten interessiert: „EU will mit Melde-App gegen Cybermobbing vorgehen“, titelte zum Beispiel tagesschau.de.

In einer separaten Ankündigung schreibt die EU-Kommission von einer „Online-Sicherheits-App“, mit der Opfer „zurückschlagen“ können, auf Englisch: „fight back“. Zumindest auf dem dazugehörigen Symbolbild sind Menschen zu sehen: drei Jungs – möglicherweise bereit „zurückzuschlagen“.

Einen Prototypen für die App will die EU-Kommission laut Aktionsplan selbst vorlegen. Auf dessen Basis könnten die Mitgliedstaaten ab dem dritten Quartal dieses Jahres eigene Versionen entwickeln.

Was die Online-Safety-App genau können soll, beschreibt die Kommission eher knapp. Drei Schwerpunkte lassen sich herauslesen.

  1. Helfen. Demnach könnte die App Anlaufstellen und Beratungsangebote für Betroffene bündeln. Die Rede ist etwa von Hilfs-Hotlines und Kinderschutz. Es geht also um fachliche und emotionale Begleitung. Vorbild sei die französische App „3018“ der NGO E-Enfance. Im Google Play Store wurde die App nur rund 10.000 Mal heruntergeladen. Die EU-Kommission bezeichnet „3018“ als „erfolgreich“.
  2. Löschen. Die Online-Safety-App könne laut Aktionsplan per Programmierschnittstelle einen direkten Draht zu Online-Plattformen bekommen. So könnten Nutzer*innen über die App deren Inhalte melden. Grundlage ist der DSA, der Plattformen dazu verpflichtet, solche Meldungen zeitnah zu prüfen. Allerdings müssen Plattformen laut DSA auch selbst zugängliche und benutzerfreundliche Meldeverfahren einrichten. Das wirft die Frage auf, welchen Sinn der Umweg über eine separate App hätte.
  3. Anzeigen. Offenbar stellt sich die EU-Kommission vor, dass Minderjährige über die App auch die Polizei einschalten können. Im Aktionsplan ist das allerdings noch nicht kindgerecht formuliert. Die Rede ist von „maßgeschneiderter Unterstützung durch koordinierte Überweisung an zum Beispiel Strafverfolgungsbehörden“. Die App soll auch elektronische Beweise sicher „speichern und übermitteln“ können.

Je nach Ausgestaltung könnte die „Online-Safety-App“ also sehr unterschiedliche Richtungen einschlagen. Laut EU-Kommission hänge der Erfolg der App davon ab, ob Mitgliedstaaten sie zugänglich machen und unterstützen. Der Erfolg dürfte allerdings vielmehr davon abhängen, ob Kinder und Jugendliche die App überhaupt benutzen möchten.

In Deutschland gibt es bereits Anlaufstellen für hilfesuchende Kinder und Jugendliche, etwa die Nummer gegen Kummer oder Juuport. Beides sind gemeinnützige Vereine. Arbeit im sozialen Bereich ist oft ehrenamtlich oder prekär. Anfang 2025 hat die Stadt Berlin der „Nummer gegen Kummer“ Mittel gestrichen. Betroffen sind demnach 100 der insgesamt 3.800 ehrenamtlichen Mitarbeiter*innen in Deutschland.

Geht es nach dem Aktionsplan der EU-Kommission, bekommen Hilfsangebote wie die „Nummer gegen Kummer“ zwar keine Aussicht auf bessere Finanzierung. Aber sie sollen sich wohl um die Integration in eine Melde-App kümmern – zusammen mit unter anderem TikTok, Facebook, Instagram und Polizeibehörden.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Jugendschutz-Streit: Pornhub jetzt offen für Ausweiskontrollen in der EU

03. Dezember 2025 um 15:22

Zwar hat ein deutsches Verwaltungsgericht die verhängten Netzsperren gegen Pornhub gekippt. Dennoch will die Plattform anscheinend Alterskontrollen in der EU einführen, wie der Konzern auf Anfrage von netzpolitik.org mitteilt. Hinter dem möglichen Kurswechsel steckt eine Strategie.

Eien Person hat ein Smartphone in der Hand, auf dem das Logo von Pornhub zu sehen ist.
Ausweiskontrollen für alle – zieht Pornhub mit? (Symbolbild) – Alle Rechte vorbehalten IMAGO/Starface; Bearbeitung: netzpolitik.org

Lange hat sich Pornhub in Deutschland dagegen gewehrt, das Alter seiner Nutzer*innen zu kontrollieren. Pornhub ist eine der weltgrößten Pornoseiten und zugleich eine der meistbesuchten Websites. Im Namen des Jugendschutzes soll Pornhub etwa die Ausweise aller Besucher*innen prüfen, um Minderjährige fernzuhalten. In Deutschland setzt sich die Medienaufsicht dafür ein. Während sich die Pornoseite seit Jahren vor deutschen Gerichten gegen die Regulierungsbehörde stemmt, kündigt Mutterkonzern Aylo nun einen Kurswechsel an.

„Aylo ist einer der ersten Teilnehmer am Pilotprogramm der Europäischen Kommission zur Einführung der Altersverifikation über die europäische Altersverifikations-App“, schreibt ein Sprecher auf Anfrage von netzpolitik.org.

Die EU ist ein weiterer Player bei der Durchsetzung von Jugendschutz im Netz – und ein größerer als die deutsche Medienaufsicht. Aktuell arbeitet die EU-Kommission an einer App zur Alterskontrolle. Diese App können altersbeschränkte Dienste wie etwa Pornoseiten vorschieben, um ihre Besucher*innen zu filtern. Schon jetzt testen das fünf Mitgliedstaten. Künftig sollen die Funktionen der App in der digitalen Brieftasche (European Identity Wallet, EUDI) aufgehen, die laut Plan im Jahr 2026 kommen soll.

Widersprüchliche Signale von Pornhub-Mutter Aylo

Warum bekennt sich Pornhub plötzlich zum Einsatz dieser Alterskontroll-App – sogar als einer der ersten? Auf Anfrage teilt der Konzern mit, sich schon seit Jahren für effektive und durchsetzbare Alterskontrollen eingesetzt zu haben. „Wir alle wollen die Sicherheit von Minderjährigen im Internet gewährleisten, und wir alle tragen gemeinsam die Verantwortung dafür“, so ein Sprecher auf Englisch.

Noch vor einem Jahr führte die Argumentation von Pornhub allerdings in eine andere Richtung. In ihrem ersten Interview mit einem deutschsprachigen Medium sagte Alex Kekesi, Leiterin für Community- und Markenmanagement bei Pornhub, damals gegenüber netzpolitik.org: Wenn Websites des Alter von Nutzer*innen kontrollieren, berge das „reale Gefahren“. Konkret sagte sie:

Wie viele Websites für Erwachsene gibt es weltweit? Vermutlich Hunderttausende, wenn nicht Millionen. Wie soll eine Regierung all diese Seiten überwachen können? Es ist schlicht unmöglich, überall das Alter zu kontrollieren. Bei Kontrollen auf Website-Ebene werden gerade große Plattformen zur Zielscheibe, weil sie dann gesperrt werden oder schwerer zugänglich sind. Das treibt das Publikum zu kleineren Websites, die oft nicht einmal ihre Inhalte prüfen und sich an keine Altersvorgaben halten.

Stattdessen plädierte die Pornhub-Managerin für Kontrollen auf Ebene von Betriebssystemen. Demnach sollte das Alter direkt bei der Einrichtung eines Geräts geprüft werden. Nun scheint es, dass Pornhub doch klein beigibt und sich den Anforderungen der EU-Kommission beugen will.

Mit Sicherheit sagen lässt sich das derzeit aber nicht. Denn auf konkrete Rückfragen zu den geplanten Alterskontrollen reagierten sowohl die EU-Kommission als auch Aylo nebulös.

„Es gab Aufrufe, Pornos zu verbieten“

Die Pressestelle der EU-Kommission konnte auf Anfrage von netzpolitik.org zunächst nichts Näheres dazu sagen, ob Pornhub überhaupt Teil eines „Pilotprogramms“ ist. Wenn wir eine weitere Antwort erhalten, werden wir den Artikel ergänzen.

Alyo wiederum möchte auf Nachfrage nicht näher benennen, wann genau Pornhub die Alterskontroll-App für EU-Nutzer*innen einführen will. Einerseits schreibt der Sprecher: „Wir sind entschlossen, in allen Ländern, in denen wir geschäftlich tätig sind, stets die gesetzlichen Vorgaben einzuhalten.“ Das deutet auf eine zeitnahe Einführung der Alterskontrollen hin.

Andererseits schreibt der Sprecher: „Wir glauben, dass eine solche Lösung wirksam sein kann, wenn sie branchenweit eingesetzt wird.“ Zudem müsse die Abwanderung von Nutzer*innen zu anderen Websites verhindert werden. Das deutet darauf hin, dass Pornhub den Einsatz der App an Bedingungen knüpft – die auf absehbare Zeit nicht eintreten. Denn technisch lässt sich nicht zuverlässig verhindern, dass Menschen genervt eine Seite ohne Alterskontrollen ansteuern.

Strategie: Testballon

Die Widersprüche ergeben mehr Sinn, wenn man die zugrundeliegende Strategie der Plattform betrachtet. Während Regierungen weltweit den Druck auf Pornoseiten erhöhen, erprobt Pornhub je nach Land verschiedene Reaktionen – wohl um herauszufinden, was dem Konzern am meisten nutzt. Pornhubs Reaktionen lassen sich mit Testballons vergleichen.

  • In einigen Bundesstaaten der USA hat Pornhub selbst den Zugriff auf die Seite blockiert. Statt sich den dortigen Gesetzen für Alterskontrollen zu beugen, hat Pornhub den Einbruch von Klicks in Kauf genommen.
  • Im Juni 2025 hat Pornhub dasselbe in Frankreich getan und den Zugang für dortige Nutzer*innen blockiert. „Website-basierte Altersüberprüfung funktioniert nicht. Es schützt keine Kinder und setzt die Daten von Millionen Franzosen Datenschutzverletzungen und Hacking aus“, warnte der Konzern auf Englisch und plädierte einmal mehr für Alterskontrollen auf Ebene von Betriebssystemen. „Ihre Regierung wird Ihnen diesbezüglich nicht die Wahrheit sagen, aber wir werden es tun.“
  • In Großbritannien wiederum hat Pornhub im Sommer 2025 Alterskontrollen eingeführt, wie es der dortige Online Safety Act verlangt.

Warum also zeigt sich Pornhub neuerdings offen für Alterskontrollen in der EU? Ein Faktor könnte sein, dass Brüssel ein weiteres Druckmittel in der Hand hat. Dort hat die EU-Kommission Pornhub nämlich als „sehr große Plattform“ (VLOP) nach dem Gesetz über digitale Dienste (DSA) eingestuft. Diesen Status haben nur die größten Online-Dienste in der EU. Er geht mit erweiterten Pflichten einher. Betroffene Dienste müssen besonders transparent sein und verstärkt Risiken eindämmen, auch für Minderjährige. Andernfalls drohen Geldbußen. Pornhub wehrt sich gegen die Einstufung als VLOP und beruft sich auf angeblich gesunkene Nutzungszahlen.

Ein weiterer Faktor dürfte sein, dass die geplante Alterskontroll-App der EU zumindest ein Stück weit den Anforderungen von Pornhub entgegenkommt. Zwar bringt die App keine Alterskontrolle auf Ebene des Betriebssystems, wie es der Konzern oftmals gefordert hat. Aber die App verspricht – je nach konkreter Ausgestaltung – Datensparsamkeit. Das könnte verhindern, dass zahlreiche externe Anbieter sensible Ausweisdaten horten, wie es Gutachter*innen jüngst in Australien beobachtet haben.

EU-Kommission gibt klares Jein zu Alterskontrollen

Verwaltungsgericht Düsseldorf kippt Netzsperren

Im Ringen zwischen Pornhub und EU-Kommission ist das letzte Wort also noch lange nicht gesprochen. Zumindest in Deutschland hat die Plattform jüngst einen Etappensieg erzielt. Am 19. November hat das Verwaltungsgericht Düsseldorf die gegen Pornhub und die Schwesterseite YouPorn verhängten Netzsperren wieder gekippt.

Angeordnet wurden die Netzsperren von der Landesanstalt für Medien Nordrhein-Westfalen, nachdem Pornhub in Deutschland keine Alterskontrollen einführen wollte. Sowohl Pornhub als auch betroffene Provider sind deshalb vor Gericht gezogen. Auch wenn sich Netzsperren kinderleicht umgehen lassen, gelten sie als besonders gravierende Maßnahme, das vor allem autoritäre Staaten gerne einsetzen.

Der Rechtsstreit auf Deutschland-Ebene macht anschaulich, wie unterschiedlich Pornhub gemäß seiner Testballon-Strategie handelt. In den USA und Frankreich hatte Pornhub den Zugang zur Website freiwillig blockiert. In Deutschland wiederum ging die Plattform vor Gericht, um nicht blockiert zu werden.

Der Grund für Pornhubs jüngsten Etappensieg in Düsseldorf liegt im Wandel der Zuständigkeiten auf nationaler und EU-Ebene. Die Plattform konnte mit Blick auf die verhängten Netzsperren erfolgreich argumentieren, dass nicht etwa die Anordnungen der deutschen Medienaufsicht Vorrang haben, sondern EU-Recht. Deshalb durften die betroffenen Internet-Provider die Netzsperren wieder aufheben.

Medienaufsicht kämpft um Zuständigkeit

All das ist aber nicht endgültig. Die deutsche Medienaufsicht will die Einschränkung ihrer Kompetenzen nicht hinnehmen und hat bereits Beschwerde gegen die Beschlüsse aus Düsseldorf eingelegt. Das bestätigt die Behörde auf Anfrage von netzpolitik.org. Darüber entscheiden wird das Oberverwaltungsgericht in Münster. Auch das Hauptsacheverfahren läuft weiter. In diesem Verfahren geht es ebenso darum, ob für Pornhub der europäische oder der nationale Rechtsrahmen Vorrang hat.

Vor den deutschen Verwaltungsgerichten werden also noch zwei Konflikte ausgetragen. Für Pornhub geht es darum, mit welcher Regulierungsbehörde sich die Plattform künftig herumschlagen muss. Für die deutsche Medienaufsicht geht es darum, ob sie nach jahrelangem Kampf gegen frei verfügbare Pornografie in Deutschland ihre Zuständigkeit gegenüber Brüssel einbüßt.

„Den betroffenen Kindern ist es vermutlich ziemlich egal, wer sie schützt, nur passieren müsste es“, kommentiert Tobias Schmid, Direktor der Landesanstalt für Medien NRW. Ganz so entspannt, wie das Zitat es nahelegt, dürfte die Haltung seiner Behörde jedoch nicht sein. Denn mit ihrem Vorgehen gegen Pornoseiten konnte die Landesanstalt für Medien über viele Jahre lang öffentliche Aufmerksamkeit für ihre Arbeit gewinnen und sogar ihre Instrumente erweitern.

Jüngst hat die Novelle des Staatsvertrags für Jugendmedienschutz (JMStV) der Medienaufsicht zwei neue mächtige Werkzeuge beschert. Diese Machterweiterung geht direkt auf das Engagement der Behörde gegen Pornoseiten zurück. So soll die Medienaufsicht künftig einfacher Netzsperren anordnen können und widerspenstigen Diensten über Zahlungsdienstleister den Geldhahn abdrehen dürfen. Selbst wenn die Medienaufsicht bald einen Teil ihrer Zuständigkeit für Pornoseiten verlieren sollte – diese Instrumente bleiben.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

400 Schulen besucht: Was Kinder im Netz erleben, und was Politik daraus lernen kann

18. September 2025 um 09:15

In seinem Buch „Allein mit dem Handy“ beschreibt Digitaltrainer Daniel Wolff lebhaft, was Kinder ihm beigebracht haben – über ihre Erlebnisse im Netz und ihre Angst vor den Eltern. Das Buch hebt die Debatte um Jugendmedienschutz auf ein neues Level. Eine netzpolitische Rezension.

Zwei Kinder, eines hat ein gelbes Smartphone in der Hand. Die Gesichter sind nicht zu erkennen.
Smartphones versprechen schier unendlichen Spaß (Symbolbild) – Alle Rechte vorbehalten IMAGO/Shotshop; Bearbeitung: netzpolitik.org

Kinder waren wir alle mal, auch wenn nicht alle eine digitale Kindheit hatten. Daran erinnert Autor Daniel Wolff die Leser*innen seines Buchs immer wieder, und er appelliert direkt an ihr Einfühlungsvermögen. „Stellen Sie sich bitte für einen Moment kurz vor, Sie wären heute noch mal jung“, schreibt er. „Würden Sie nicht auch versucht sein, unendlich viel Spaß und Anerkennung auf Social-Media-Plattformen zu suchen (und zu finden), die drei Viertel Ihrer Freunde täglich und nächtlich permanent nutzen?“

Das Zitat ist ein gutes Beispiel für die besondere Perspektive des Buchs. Als Digitaltrainer ist Wolff durch Hunderte Schulen gereist, darunter Grundschulen und weiterführende Schulen. Er hat mit Kindern, Jugendlichen, Eltern und Lehrer*innen gesprochen. Anschaulich gibt er wieder, wie Kinder etwa über Grusel-Videos oder aufdringliche Pädokriminelle erzählen. Über verlockende Smartphone-Spiele, die einem förmlich das Geld aus der Tasche ziehen; und über Tricks, um heimlich mit dem Handy im Bett die Nacht durchzumachen.

Die Wirren der Digitalgesetzgebung kümmern ihn ebenso wenig wie akademische Forschungsdesigns. „Ich bin kein Wissenschaftler, sondern Pragmatiker“, schreibt Wolff, und das merkt man seinem Buch an. Er teilt seine Erfahrungen aus dem direkten Austausch mit vielen Kindern und Eltern, und füllt damit eine wichtige Lücke in der Debatte um Jugendmedienschutz.

Sein Buch zeigt, wie die Mühen von Gesetzgebern und Aufsichtsbehörden oftmals weit entfernt von dem sind, was Kinder und Eltern in ihrem Alltag beschäftigt. Während Politiker*innen weltweit vor allem auf technische Lösungen hoffen, macht Wolff mit Nachdruck klar: Ohne intensive Anstrengungen von Eltern wird das nichts.

Einerseits kommt diese Rezension spät, denn das Buch ist bereits 2024 erschienen. Zugleich könnte sie kaum aktueller sein, denn Anfang September hat das Familienministerium eine neue Expert*innen-Kommission einberufen. Ein Jahr lang soll sie Empfehlungen entwickeln, um Kinder und Jugendliche im Netz besser zu schützen. Dabei sollen Fachleute aus mehreren Disziplinen zusammenkommen.

Auch diese Rezension will Verknüpfungen herstellen. Sie rückt acht im Buch besprochene Probleme in den Mittelpunkt und stellt die Frage: Was lässt sich daraus netzpolitisch lernen?

1. Smartphones fressen Schlafenszeit

🚧 Das Problem: Auf seiner Tour durch deutsche Schulen ist Digitaltrainer Wolff vielen auffällig müden Kindern begegnet. Er beschreibt ihre Augenringe, teils schon in dritten Klassen. Lehrkräfte und Eltern würden von „zunehmend unausgeschlafenen, fahrigen und/oder aggressiven Kindern“ berichten. Der mutmaßliche Grund: Mehr als die Hälfte der deutschen Kinder von 6 bis 13 Jahren würden ein Smartphone mit ins Bett nehmen.

„Vielen Eltern scheint nicht einmal im Ansatz klar zu sein, dass Kinder ein Gerät mit einem extrem hohen Aufforderungscharakter wie ein modernes Smartphone, das sich in ihrem Schlafzimmer befindet, tatsächlich nachts auch nutzen!“, schreibt Wolff. Kinder und Jugendlichen ein Smartphone mit ins Bett zu geben sei die mit Abstand „schädlichste Idee“ der Elterngeneration. In fast jeder Grundschule hätten bereits einzelne Kinder die Nacht vor einem neuen Schultag im Internet durchgemacht.

Wolffs Fazit:

Mit einer einzigen konzertierten Maßnahme könnten wir mit einem Schlag in kürzester Zeit den Bildungsstandard und alle schulischen Leistungen in ganz Deutschland positiver beeinflussen als mit allen milliardenschweren Schulreformen zusammen: KEIN SMARTPHONE INS KINDERBETT! Ausgeschlafene Kinder sind fröhlicher, konzentrierter, friedfertiger, freundlicher – und leistungsfähiger!

Damit das funktioniert, empfiehlt der Digitaltrainer, dass die ganze Familie mitmacht. „Keiner in der Familie nutzt abends nach dem Zähneputzen noch digitale Geräte – und morgens vor dem Zähneputzen auch nicht!“ Die Handys könnten in dieser Zeit etwa in ein Familienladegerät kommen, das an einem zentralen Punkt in der Wohnung steht.

🧭​ Die netzpolitische Perspektive: Aktuell kreist die Debatte in Politik und Nachrichtenmedien vor allem um Handys in der Schule und um soziale Medien. Es geht um Gesetze und Kontrollen. Wie eine Familie nachts mit ihren Handys umgeht, hat damit zunächst wenig zu tun. Das Beispiel zeigt aber: Jugendmedienschutz wird mit Gesetzen und Schulverboten allein nicht funktionieren. Man muss alles in den Blick nehmen, was Kinder mit ihren Handys machen. Wenn es um Schlafmangel geht, ist auch die Debatte um einen späteren Schulbeginn relevant, der einem gesunden Schlafrhythmus näher käme.

2. Messenger-Gruppen mit Kindern explodieren

WhatsApp-Sticker mit süßen Katzen
Dieses Paket mit WhatsApp-Stickern verzeichnet mehr als 2,8 Millionen Downloads. - Alle Rechte vorbehalten Screenshot: getstickerpack.com

🚧 Das Problem: Schon wenn die Schüler*innen einer Klasse nur miteinander einen Messenger nutzen, ist Jugendmedienschutz gefragt. Wolff berichtet von sprudelnden Nachrichten im Klassenchat, oftmals Sticker und Emojis. Hunderte Nachrichten pro Tag in fünften und sechsten Klassen, Tausende in siebten und achten Klassen, auch in der Nacht. „Selbst wenn wir Erwachsenen eine solche Nachrichtenflut innerhalb weniger Stunden nicht kennen – tut es so gut wie jeder Siebtklässler!“, schreibt Wolff.

Der meistgenutzte Messenger sei WhatsApp. „Ich habe noch keine Schule kennengelernt, bei der die Klassenchats am Ende nicht doch im Wesentlichen über WhatsApp gelaufen sind“, schreibt Wolff. Durch Klassenchats entstehe ein „nie endender 24-Stunden-Schultag“. Ab dem ersten Klassenchat werde WhatsApp „gefühlt sozial so unverzichtbar, dass nahezu alle Kinder unbedingt ein Smartphone haben wollen. Aus ihrer Sicht: müssen.“

Die Beschreibungen des Digitaltrainers zeigen: Klassenchats sind wie ein belebter Schulhof, aber die Große Pause auf diesem virtuellen Hof dauert den ganzen Tag. Und es sind meist keine Erwachsenen in Sicht. „Meiner ganz persönlichen, sehr groben Einschätzung nach findet etwa 70 Prozent des Cybermobbings an deutschen Schulen auf WhatsaApp statt“, warnt Wolff. Die letzten, die davon etwas mitbekämen, seien oft die Eltern.

Er rät deshalb zum engen Kontakt zwischen Eltern und Kindern, und zwar von Anfang an. „Erlauben Sie Ihrem Kind WhatsApp nur, wenn Sie bei Bedarf mitlesen dürfen“, schreibt er. Zum Beispiel könne man sagen:

Ich werde das nicht tun, um dich zu kontrollieren, sondern um dich zu schützen, weil ich als dein Elternteil auch im Internet verantwortlich für dich bin, solange du noch ein Kind bist. Ich werde dir aber immer vorher Bescheid sagen, immer mit dir gemeinsam reinsehen – und niemals alleine.

Das hätte sogar einen Effekt auf den ganzen Klassenchat. „Wenn in einer Klasse bekannt ist, dass es Eltern gibt, die ab und zu mal in den Klassenchat reinsehen, tauchen wundersamerweise von vornherein weder brutale Sachen dort auf – noch gruselige, eklige, nackige oder politisch zweifelhafte!“, schreibt Wolff.

🧭​ Die netzpolitische Perspektive: Die politische und mediale Debatte um Jugendmedienschutz beschreibt oftmals Gefahren von Außen, etwa durch schädliche Inhalte oder Kontaktaufnahme durch Fremde. Die damit verbundene Hoffnung ist, dass sich die meisten Gefahren durch Abschottung der Kinder mit technischen Mitteln abwenden lässt.

Dabei geriet zuletzt in den Hintergrund, was Kinder und Jugendliche erleben, wenn sie schlicht untereinander online kommunizieren. Wie der genutzte Messenger heißt oder welche Altersfreigabe er hat, ist dafür zweitrangig. Für dieses konkrete Szenario sind vor allem Eltern oder Aufsichtspersonen gefragt.

3. Kinder testen mit Gewalt und Horror ihre Grenzen

🚧 Das Problem: Ob aus Neugier oder Gruppendruck, als Mutprobe oder durch den Reiz des Verbotenen – Kinder suchen und finden mit dem Smartphone Inhalte für Erwachsene, etwa Horror und Grusel. „Gewaltdarstellungen sind auf Kinder-Smartphones unvermeidbar“, hält Digitaltrainer Wolff fest. Er schreibt:

In den 3. und 4. Klassen heben bei der Frage: ‚Habt ihr schon einmal etwas so Grausames, Blutiges oder Brutales gesehen, dass ihr nicht mehr schlafen konntet?‘, fast immer alle Kinder, die bereits ein eigenes Smartphone besitzen, die Hand.

Wer danach sucht, finde solche Videos auch auf YouTube und TikTok. Hinzu kommen Websites mit Sitz im Ausland, die gezielt verstörende Inhalte verbreiten. „Kinder, die WhatsApp auch in größeren Gruppen wie Klassenchats nutzen, können jederzeit Links für extrem brutale, grausame oder gruselige Videos geschickt bekommen“, warnt Wolff.

Der Digitaltrainer empfiehlt etwa YouTube nur in Hörweite der Eltern zu schauen. Allerdings rät Wolff auch: „Bereiten Sie Ihr Kind auf das Unvermeidliche vor“. Eltern sollten vorher über die vielen „schlimmen“ Sachen sprechen, die es gebe. „Dann ist Ihr Kind vorbereitet und weiß, dass Sie im Falle eines Falles ein kompetenter Ansprechpartner sind!“

🧭​ Die netzpolitische Perspektive: In Politik und Nachrichtenmedien werden vor allem Maßnahmen wie Filter und Alterskontrollen diskutiert. Sie sollen es Kindern schwerer machen, potenziell schädliche Inhalte zu finden. Dabei wird unterschätzt, wie gezielt Kinder solche Inhalte suchen, weil die Anreize dafür so stark sind, etwa Neugier und Gruppendruck. Deshalb muss Teil der Lösung sein, möglichst viele Kinder für das – wie Wolff es nennt – „Unvermeidbare“ zu rüsten.

4. Wo „für Kinder“ draufsteht, ist nicht „für Kinder“ drin

Eine animierte Figur wird zum Zombie und wirkt entsetzt.
Screenshot eines Videos, das wir auf YouTube Kids gefunden haben. Eine Figur wird zum Zombie, betrachtet entsetzt ihre kreidebleichen Hände und wimmert, während ihre Augen unkontrolliert umherrollen. Altersstufe: bis 4 Jahre. - Alle Rechte vorbehalten Screenshot: YouTube Kids

🚧 Das Problem: Online-Angebote mit Labels wie „ab 0 Jahren“ oder „ab 6 Jahren“ sind trügerisch. So würden zunächst kinderfreundliche Spielen oftmals nicht kinderfreundliche Werbeclips anzeigen, schreibt Wolff, darunter rassistische Werbung. „Hunderttausende Spiele-Apps spülen täglich millionenfach minderwertigen Mist auf die Bildschirme unserer Kinder“, kritisiert er.

Ein Knackpunkt ist die schiere Masse an Inhalten, wie aus dem Buch hervorgeht – und der mangelnde Wille, das angemessen zu prüfen. Zum Beispiel würden sogar auf einer dezidiert für Kinder vermarkteten Plattform wie YouTube Kids Inhalte landen, die nicht für Kinder geeignet sind. Das konnte netzpolitik.org mühelos bestätigen: Das oben abgebildete Zombie-Grusel-Video erschien über Empfehlungen auf YouTube Kids, selbst bei der niedrigsten Altersstufe bis 4 Jahre.

Möglich ist so etwas, weil große Plattformen die Massen an neuen Inhalten oftmals nur flüchtig prüfen, etwa anhand von Stichworten, auch wenn Uploads als kindgerecht gekennzeichnet wurden. Das ist kein Vergleich zur sorgfältigen, händischen Kuratierung von Sendungen, die etwa im klassischen Kinderfernsehen zu sehen sind.

🧭​ Die netzpolitische Perspektive: Schon jetzt gibt es Rechtsgrundlagen, die Plattformen zur Risikominderung für Minderjährige verpflichten, etwa das Gesetz über digitale Dienste (DSA). Das könnte etwa über Empfehlungssysteme oder Inhaltsmoderation passieren. Das Gesetz ist allerdings recht neu; die dazu gehörigen Aufsichtsbehörden nehmen erst langsam ihre Arbeit auf. Weil sorgfältiger Umgang mit hochgeladenen Inhalten teuer ist, dürften sich Online-Konzerne gegen alles wehren, das Geld kostet.

5. Die Sogwirkung optimierter Feeds ist unwiderstehlich

🚧 Das Problem: Werbefinanzierte Plattformen wie TikTok, Instagram oder YouTube haben ein Interesse daran, die Aufmerksamkeit ihrer Nutzer*innen zu binden. Mehr Nutzungszeit bedeutet mehr Werbung und mehr Geld. Inhalte, Features, Oberflächen und Algorithmen werden dahingehend optimiert. Digitaltrainer Wolff vergleicht etwa TikTok mit einem „Trommelfeuer der Sensationen“.

Mit Blick auf YouTube schreibt der Autor:

Stellen Sie sich aus Kindersicht einen Bildschirm mit einer Million Programmen vor, auf dem ganz einfach immer was Spannendes und Lustiges läuft! Und das Beste: Man kann diesen Bildschirm auch noch in die Hose stecken und dann heimlich auf dem Klo oder im Bett weitergucken!

Umso stärker sind die Anreize für Kinder und Jugendliche, das Gerät möglichst intensiv zu nutzen. Eltern rät Wolff: „Schaffen Sie Alternativen für Ihr Kind!“, also Aktivitäten, bei denen digitale Geräte stören.

🧭​ Die netzpolitische Perspektive: Die enorme Sogwirkung algorithmisch sortierter Feeds hat die EU-Kommission bereits auf dem Schirm, etwa in den Leitlinien zum Schutz von Minderjährigen auf Basis des Gesetzes über digitale Dienste (DSA). Demnach müssen Dienste Maßnahmen ergreifen, um Risiken zu mindern, zum Beispiel: kein unendliches Scrollen in einem Feed; keine Push-Benachrichtigungen, entschärfte Empfehlungssysteme. Auch in diesem Fall sind also Werkzeuge für Aufsichtsbehörden vorhanden, aber die Durchsetzung rollt erst an. Tech-Konzerne werden ihre finanziellen Interessen schützen wollen und sich dagegen wehren.

Die EU-Kommission sieht den Widerstand kommen. „Wenn es um die Sicherheit unserer Kinder im Internet geht, glaubt Europa an Eltern, nicht an Gewinne“, behauptete jüngst Kommissionspräsidentin Ursula von der Leyen (CDU) in ihrer Rede zur Lage der Union, in der sie vor allem Alterskontrollen befürwortete. In anderen Bereichen wie Datenschutz oder KI-Regulierung gibt es immer wieder Beispiele dafür, dass sich Lobby-Interessen am Ende doch durchsetzen.

6. Handy-Spiele nutzen alle Tricks, um an Taschengeld zu kommen

Video-Uploads auf YouTube zu BrawlStars
Viele Kinder lieben Brawl Stars. Auf YouTube heizen Brawl-Stars-Influencer zusätzlich den Kommerz an. - Alle Rechte vorbehalten Screenshot: YouTube/ LukasBS

🚧 Das Problem: Begeisterte Kinder und Jugendliche lassen bei Anbietern von Smartphone-Spielen die Kassen klingeln. Per In-App-Kauf können Nutzer*innen zum Beispiel häufiger gewinnen oder seltene, virtuelle Gegenstände erwerben. Das ist für Kinder und Jugendliche nicht nur verlockend, weil es Spaß macht, sondern auch, weil es soziale Anerkennung bringt. „Vor allem für die Jungs wird es sehr schnell sehr kompetitiv, weil alle anderen immer sehen können, wie viel und wie gut man in letzter Zeit so gespielt hat“, schreibt Digitaltrainer Wolff.

Wenn sie dürfen oder können, machen manche Kinder ihr Lieblingsspiel „zum absoluten Lebensmittelpunkt“, schreibt Wolff. „Es gibt dann nichts anderes mehr auf der Welt als Brawl Stars (sehr beliebt in den Klassen 3 bis 7) oder Fortnite (meist ab den 5. Klassen aufwärts).“ Bereits Grundschulkinder würden Hunderte Euro für Smartphone-Games ausgeben.

Dabei würden Anbieter an allerlei Tricks nutzen, damit Kinder das Handy nicht mehr weglegen wollen und möglichst viel Geld ausgeben. Zum Beispiel Glücksspiel-ähnliche Lootboxen, also virtuelle Geschenkkartons, die man für echtes Geld kaufen muss. Meist ist nichts Interessantes drin, selten aber schon. Hinzu kommen manipulative Aufforderungen wie „Schnell dieses Special-Angebot kaufen: NUR HEUTE gibt es noch 45 Extra-Diamanten zum Preis von 10“, schreibt Wolff.

Die Gaming-Branche ist inzwischen das größte Segment der Unterhaltungsindustrie, noch vor Musik oder Filmen. Ein Teil der Einnahmen dürfte von Eltern kommen, die damit ihre Kinder glücklich machen wollen – oder einfach nur ruhigstellen. Wolff schlussfolgert:

Wir haben zugelassen, dass eine völlig unregulierte milliardenschwere Industrie mit allen Psycho-Tricks der Welt den Wunsch unserer Kinder nach Anerkennung industriell monetarisiert und täglich millionenfach aberntet – und haben noch nicht einmal begriffen, dass und wie das passiert.

🧭​ Die netzpolitische Perspektive: Abzocke und Manipulation durch Handy-Spiele ist in der öffentlichen Debatte um Jugendmedienschutz selten Thema. Dabei schadet das auch erwachsenen Gamer*innen. Mühen beispielsweise zur Regulierung von Lootboxen gibt es seit Jahren, allerdings mit wenig Erfolg. Zumindest im Gesetz über digitale Dienste (DSA) gibt es Ansätze, manipulative Designs bei Diensten einzudämmen.

Wie groß ist wohl der politische Wille, am Finanzierungsmodell einer Milliardenindustrie wie der Gaming-Branche zu rütteln? Eine Gelegenheit hätte die EU-Kommission: Mit dem geplanten Digital Fairness Act will sie Lücken im Online-Verbraucherschutz schließen.

7. Kinder haben Angst vor der Reaktion ihrer Eltern

🚧 Das Problem: „Millionen Kinder der Welt verschweigen eisern, was ihnen online tags und nachts so begegnet“, schreibt Digitaltrainer Wolff. „Die Eltern wiederum leben fröhlich vor sich hin und glauben, dass es bei der Internetnutzung ihrer Kinder keine wesentlichen Probleme gäbe“.

Der Grund für das Schweigen ist Wolff zufolge simpel: Kinder wollen ihr Smartphone behalten. Sie befürchten, dass Eltern ihnen das Gerät wegnehmen, wenn sie erfahren, welche schlimmen Dinge damit passiert sind. Wegnehmen aber ist aus Sicht der Kinder und Jugendlichen „die gefühlt härteste Strafe im digitalen Zeitalter“.

Wolff rückt hier etwas in den Mittelpunkt, das in Debatte um Jugendmedienschutz selten zur Sprache kommt: Vertrauen. „Denn nur wenn Ihr Kind Ihnen vertrauen kann, wird es sich eines Tages an Sie wenden – wenn es dagegen Angst vor Strafen oder Handy-Verbot hat, so gut wie nie“, schreibt Wolff. Deshalb appelliert er eindringlich an Eltern: „Teilen Sie Ihrem Kind möglichst frühzeitig (am besten schon bei der Handy-Übergabe) mit, dass Sie ihm das Smartphone wegen Inhalten aus dem Internet nicht wegnehmen werden.“

🧭​ Die netzpolitische Perspektive: Maßnahmen zum Jugendmedienschutz werden oftmals mit Blick auf die verschiedenen Grundrechte von Kindern und Jugendlichen diskutiert, etwa den Schutz vor entwicklungsbeeinträchtigenden Inhalten, Teilhabe, Privatsphäre und Datenschutz. Kaum diskutiert wird aber, wie sich das Vertrauensverhältnis zwischen Kindern und ihren Aufsichtspersonen bewahren und stärken lässt.

Relevant ist das gerade mit Blick auf das derzeit vieldiskutierte Social-Media-Verbot für Minderjährige. Ein solches Verbot könnte bewirken, dass Kinder die verbotenen Dienste heimlich weiternutzen – und entsprechend noch höhere Hürden sehen, sich bei Problemen vertrauensvoll an Erwachsene zu wenden. Immerhin müssten sie dann zugeben, dass sie etwas Verbotenes gemacht haben. Maßnahmen zum Jugendmedienschutz müssten sich daran messen lassen, was sie für das Vertrauen zwischen Kindern und Eltern bedeuten.

8. Digitale Medienerziehung ist harte Arbeit

🚧 Das Problem: Es gibt keine einfache technische Lösung für Jugendmedienschutz. „Stellen Sie sich darauf ein, dass die Einhaltung von Medienzeiten eine Ihrer zentralen Erziehungsaufgaben in den nächsten Jahren sein wird“, schreibt Digitaltrainer Wolff. „Es wird anstrengend, nervig und jeden Tag erneut ermüdend sein. Sie werden schreien, Ihr Kind wird weinen und/oder Sie hassen. Und es wird sich lohnen – alleine schon, weil es keine Alternative gibt!“

Zum Beispiel sollten sich Eltern ausführlich die Zeit für einen Mediennutzungsvertrag nehmen, bevor sie ihrem Kind ein Handy geben, rät Wolff. Vorlagen für dieses oftmals mehrseitige Dokument gibt es online. „Ja, einen Mediennutzungsvertrag auszuarbeiten ist aufwendig, mühsam und anstrengend“, schreibt er. „Aber: Wenn Sie keine klaren Regeln haben, wird es in den nächsten Jahren garantiert noch aufwendiger, mühsamer und anstrengender!“

🧭​ Die netzpolitische Perspektive: Weinende Kinder, die ihre schreienden Eltern hassen – solche Bilder zeichnen Politiker*innen nicht, wenn sie etwa Alterskontrollen fordern. Wer will sich schon gern sagen lassen, dass etwas „aufwendig, mühsam und anstrengend“ wird? Stattdessen stehen technische Maßnahmen im netzpolitischen Fokus, und zwar solche, die Sorgenfreiheit versprechen. Gegen sexualisierte Gewalt soll die Chatkontrolle helfen, also die Massenüberwachung vertraulicher Kommunikation. Gegen schädliche Inhalte sollen Alterskontrollen helfen, also das massenhafte Abfragen von Ausweisdaten und biometrischen Daten.

Aus dem Blick gerät dabei die zentrale Rolle von Eltern und Aufsichtspersonen. Hier fällt häufig das Argument, man könne den ohnehin überlasteten Eltern nicht noch mehr zumuten. Doch auch hier gibt es politische Ansätze. Wie viel möchte der Staat tun, um Eltern mehr Zeit und Energie für ihre Kinder zu gewähren – etwa durch mehr Kindergeld oder Regelungen für flexiblere Arbeitszeiten? Im Vergleich dazu sind Gesetze für mehr Überwachung und Kontrolle im Netz billig zu haben – und leider oft wertlos.

Und jetzt? Ein Ausblick

Auch Digitaltrainer Wolff nennt in seinem Buch konkrete, politische Ideen. „Was aus meiner Sicht alle Schulen baldmöglichst einführen sollten, ist ein ‚echtes‘ Smartphone-Verbot“, schreibt er. Genau das wird gerade kontrovers diskutiert – unter anderem das Kinderhilfswerk und der Bundeselternrat sind gegen pauschale Verbote. Stattdessen sollten Schüler*innen, Lehrer*innen und Eltern gemeinsame Regeln entwickeln.

Weiter plädiert Wolff in seinem Buch für eine verpflichtende Altersverifikation bei Social-Media-Plattformen. Fachleute aus den Bereichen Kinderschutz und digitale Grundrechte sehen das allerdings kritisch. Die Kritik reicht von der Warnung, dass Alterskontrollen allenfalls ein Baustein sein können bis hin zur generellen Ablehnung. Ein Problem: Solche Kontrollsysteme stellen nur eine trügerische Sicherheit her; zugleich schaffen sie neue Gefahren für Minderjährige und für Erwachsene, die sich massenhaft online verifizieren müssten.

Schließlich spricht sich Wolff für ein Schulfach „Digitalität“ aus. Zu viele Eltern würden sich dem Thema Medienkompetenz verweigern; die Erziehungsaufgabe bliebe an den Schulen hängen. Einen Blick auf Schulen hat auch die Wissenschaftsakademie Leopoldina in einem aktuellen Diskussionspapier geworfen. Demnach fehle es nicht an Materialien, sondern an Fachpersonal, Zeit und Fortbildungsmöglichkeiten.

Die Suche nach netzpolitischen Lösungen ist ein Thema für sich. „Allein mit dem Handy“ geht hier nicht in die Tiefe. Stattdessen überzeugt das Buch durch eine umfassende Problembeschreibung. Das gelingt, weil der Autor immer wieder die Perspektive einbringt, die er von den Kindern und Jugendlichen gelernt hat. Zum Beispiel, dass man auf das Thema Spaß nie verzichten sollte:

Wenn Sie mit Kindern und/ oder Jugendlichen über Smartphones und das Internet sprechen und dabei nicht auch über Spaß reden, hören sie Ihnen schon nach kürzester Zeit überhaupt nicht mehr zu!


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

  • Es gibt keine weiteren Artikel
❌