🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
✇netzpolitik.org

Autoritäres Instrument: Eine Klarnamenpflicht schadet der Demokratie

Von: Markus Reuter

Merz will eine Klarnamenpflicht im Netz. Doch die verschlechtert das Leben vieler Menschen und bedroht gleich mehrere Grundrechte. Der Kanzler wäre gut beraten, die Forderung sofort wieder einzupacken – und stattdessen vor der eigenen Haustüre zu kehren. Ein Kommentar.

Illustration eines geöffneten Kopfes mit einem kleinen Menschen, der in die Gitterstäbe greift, die den Kopf verschließen.
Die Klarnamenpflicht schränkt viele Grundrechte ein, zum Beispiel die Meinungsfreiheit. (Symbolbild) – Alle Rechte vorbehalten IMAGO / ANP

Nun hat also die uralte Forderung nach einer Klarnamenpflicht im Netz mit dem Bundeskanzler die höchste Ebene deutscher Politik erreicht. Besser wird die Forderung dadurch nicht. Eine Klarnamenpflicht ist nicht wirkungsvoll, sondern autoritär, falsch und extrem gefährlich für gleich mehrere Grundrechte.

Mit der derzeitigen Debatte um ein Social-Media-Verbot für Jugendliche, die vermutlich mit flächendeckenden Ausweiskontrollen umgesetzt würde,  ergibt sich allerdings gerade ein Möglichkeitsfenster für diese Art der Einschränkung des freien Internets. Dabei ist die Debatte sogar schon soweit entgleist, dass sogar die im Gesetz als freiwillig festgeschriebene digitale Brieftasche der EU von Mitgliedern der Bundesregierung jetzt als Pflicht-Instrument zur Identifizierung gefordert wird.

Dabei ist eine Klarnamenpflicht im Internet und sozialen Netzwerken bislang als Unterdrückungsinstrument von autoritären Ländern wie China bekannt.

Für freie und demokratische Gesellschaften sind Anonymität und Pseudonymität im Internet jedoch unerlässlich. Dafür gibt es zahlreiche Gründe. Und nicht umsonst ist die Anonymität im Netz in Deutschland gesetzlich festgeschrieben.

Klarnamenpflicht verschlechtert das Leben vieler Menschen

Wer eine Klarnamenpflicht im Internet oder sozialen Netzwerken einführen will, verschlechtert das Leben vieler Menschen. Wir haben schon vor Jahren zahlreiche fiktive, aber alltägliche Beispiele aufgeschrieben, die zeigen, dass Pseudonymität und Anonymität dem Schutz der Grundrechte und der freien Entfaltung und Entwicklung von Menschen dienen.

Die Möglichkeit unter einem erfundenen Namen im Internet aufzutreten, ist elementar für die Pressefreiheit, die freie Entfaltung der Persönlichkeit, die Meinungsfreiheit, die Freiheit der Kunst, die informationelle Selbstbestimmung und die Religionsfreiheit. Wir alle brauchen anonyme Orte im Netz. Das trifft nicht nur für marginalisierte Gruppen und Minderheiten zu, aber für diese besonders.

Wir alle brauchen anonyme Orte im Netz

Anonym heißt nicht gewaltvoll

Die Befürworter:innen der Klarnamenpflicht ignorieren die demokratische Notwendigkeit von Anonymität und Pseudonymität. Sie bleiben aber auch den Beweis schuldig, dass diese schwerwiegende Maßnahme überhaupt etwas bringt. Es ist nämlich alles andere als wissenschaftlich gesichert, dass durch eine Klarnamenpflicht der Diskurs befriedet wird.

Die Idee hinter der Forderung ist die Annahme, dass Menschen „mit offenem Visier“ zurückhaltender kommunizieren würden. Dafür gibt es wenig Belege. Im Gegenteil gibt es Studien, die zeigen, dass anonyme Nutzer:innen weniger aggressiv kommunizieren und solche die zeigen, dass Rassisten ganz offen hetzen.

Oftmals spielen Umfeld, Kultur und wirksame Moderation auf den jeweiligen Plattformen die entscheidende Rolle, wie diskutiert wird und wie Nutzer:innen auftreten. Dort wo Nutzer:innen selbst bestimmen können, wen sie aus ihrer Kommunikation ausschließen wollen, wird der Diskurs besser.

Es gibt zahlreiche Beispiele für Orte im Netz, in denen Menschen anonym oder pseudonym, aber vollkommen zivilisiert, achtsam und geregelt miteinander kommunizieren.

Rechtsdurchsetzung statt neuer Einschränkungen

Die Bundesregierung sollte nicht mit diesem gefährlichen Instrument gegen die Bevölkerung vorgehen. Sie sollte stattdessen das EU-Gesetz über digitale Dienste (DSA) gegen Plattformen durchzusetzen und gegen Plattformen vorgehen, wenn diese gegen EU-Gesetze verstoßen.

Man könnte den Kampf gegen Hass und Hetze in Form von gut ausgebildeten Polizeien und Staatsanwaltschaften unterstützen und Möglichkeiten schaffen, gegen strafbare Formen der Kommunikation einfacher und besser vorzugehen.

16 Beispiele, warum Pseudonymität im Netz unverzichtbar ist

Schlüsselfertiges autoritäres Haus für die AfD

Was früher noch eine eher hypothetische Warnung von Bürgerrechtlern war, ist heute leider die neue Realität. Was passiert eigentlich, wenn wir autoritäre Instrumente in einer Demokratie schaffen, die dann in die Hände der Falschen fallen? Genau vor diesem Problem stehen wir.

Die gesichert rechtsextreme AfD ist kurz davor, stärkste Partei zu werden. Eine Klarnamenpflicht würde eine mögliche Absicherung der Macht der AfD unterstützen, wenn die Rechtsradikalen an die Regierung kommen. Man baut den Zerstörern der Demokratie unnötigerweise ein schlüsselfertiges Haus, das die diese gleich beziehen können – anstatt ihnen Steine in den Weg zu legen, wo man nur kann.

Kritik nur noch mit Nummernschild?

Vielleicht sollte Friedrich Merz zunächst bei sich selbst anfangen. Er könnte zum Beispiel noch heute aufhören, auf der Hass- und Hetzplattform X zu posten. Denn dort findet genau der vergiftete Diskurs statt, der nun kritisiert wird – er wird dort durch den Eigentümer Elon Musk sogar noch aufgeheizt und befeuert. Wer als Bundeskanzler so einer toxischen Plattform durch die eigene Anwesenheit Relevanz und Seriosität verleiht, sollte von gepflegten demokratischen Diskursen besser schweigen.

Merz hat zudem wenig verstanden von der demokratischen Wichtigkeit anonymer Kommunikation, wenn er die Klarnamenpflicht auf sich selbst bezieht und aus seiner privilegierten, mächtigen Rolle als Bundeskanzler eine Zwangsoffenlegung der Namen aller Menschen fordert, die „sich sich kritisch mit unserem Land und unserer Gesellschaft auseinandersetzen.“ Kritik nur noch mit Nummernschild, oder wie ist das zu verstehen?

In Merzens Kopf schwirrt vermutlich herum, dass er als Bundeskanzler öfter einmal Gegenstand von Beleidigungen ist. Die kann er allerdings mit der ganzen Macht eines Bundeskanzlers und der Unterstützung des Bundeskriminalamts bekämpfen. Aber Privilegien und die damit verbundene Verantwortung zu verstehen, war offenbar noch nie Sache eines Kanzlers, der Privatflugzeuge fliegt, aber sich zur Mittelschicht zählt.

Merz befeuert selbst die verrohte Debattenkultur

Die ohne Frage schlechter werdende Diskurskultur, die gesellschaftliche Verrohung und das feindliche Klima hängen unmittelbar mit dem Aufstieg der AfD und ihren Narrativen zusammen. Durch permanente Diskursverschiebung und anhaltende Abwertung von Menschen verschieben die Rechtsextremen die Grenzen des Sagbaren und ermutigen Menschen zu hetzen und Grenzen zu überschreiten.

Wenn ein Friedrich Merz selbst von „kleinen Paschas“ über muslimische Jugendliche redet oder davon, dass Geflüchtete einem die Zahnarzttermine wegnehmen, dann ist dies ein Ausdruck eben genau jener Entgrenzung, die wiederum andere motiviert auch entgrenzt zu kommunizieren.

Wer also Hass und Hetze im Netz verringern will, der sollte sich selbst mit Menschenfeindlichkeit und Diskriminierung zurückhalten – und lieber ganz konkret die AfD und ihre Diskurse bekämpfen statt diese in die demokratische Mitte zu heben und zu normalisieren.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Jugendschutz-Debatte: SPD-Politiker*innen fordern Ausweispflicht oder Netzsperren

Von: Sebastian Meineck · Chris Köver

Wichtige SPD-Politiker*innen verlangen ein Social-Media-Verbot bis 14 Jahre. Alle Nutzer*innen ab 16 Jahren sollen sich ausweisen, widerspenstigen Unternehmen drohen Netzsperren. Was hat der Vorstoß zu bedeuten? Die Analyse.

Ein Smartphone, umwickelt mit eiserner Kette und Vorhänge-Schloss.
Keine sozialen Medien bis zum 14. Geburtstag (Symbolbild) – Alle Rechte vorbehalten IMAGO/imagebroker; Bearbeitung: netzpolitik.org

Mit einem Impulspapier hat die SPD den Druck in der Debatte um ein Social-Media-Verbot in Deutschland erhöht. Mehrere hochrangige Politiker*innen fordern darin ein komplettes Verbot sozialer Medien für alle Menschen unter 14 Jahren. Alle Nutzer*innen – auch Erwachsene – müssten sich flächendeckend gegenüber Plattformen ausweisen. Unternehmen, die die neue Ausweispflicht nicht umsetzen, müssen dem Papier zufolge mit Netzsperren rechnen.

Die Debatte dreht sich um die Frage: Sollen Kinder und Jugendliche künftig noch auf sozialen Medien durch Feeds scrollen, posten und kommentieren dürfen? Australien hat diese Frage für sich schon beantwortet. Seit vergangenem Dezember gilt dort ein Social-Media-Verbot für alle unter 16 Jahren. Seitdem mehren sich die Rufe nach einem ähnlichen Modell in der EU. Dänemark, Griechenland und Spanien diskutieren darüber. Frankreich hat bereits ein solches Gesetz auf den Weg gebracht.

In Deutschland gab es bislang vereinzelte Forderungen nach einem Social-Media-Verbot, etwa von SPD-Justizministerin Stefanie Hubig, CDU-Digitalminister Karsten Wildberger oder dem Grünen-Politiker Cem Özdemir.

Am 15. Februar meldete sich schließlich eine Gruppe einflussreicher SPD-Politiker*innen gemeinsam zu Wort. Zu den Unterzeichner*innen gehören neben Justizministerin Stefanie Hubig auch Mecklenburg-Vorpommerns Ministerpräsidentin Manuela Schwesig und Katarina Barley, eine der Vizepräsident*innen des EU-Parlaments. Der deutsche Vize-Kanzler Lars Klingbeil hat zwar nicht unterzeichnet, das Papier aber öffentlich unterstützt. Was der SPD-Vorstoß bedeutet, zeigt unsere Analyse.

Welches Gewicht hat das Papier?

Das SPD-Impulspapier hat bereits ein enormes Medienecho ausgelöst. Wichtige Vertreter*innen einer deutschen Regierungspartei formulieren darin erstmals klare Forderungen nach einem kompletten Social-Media-Verbot.

In erster Linie dürfte das Papier wohl eine Signalwirkung Richtung Brüssel haben. Denn Alterskontrollen, wie auch andere Maßnahmen zur Plattform-Regulierung, lassen sich nach geltendem Recht nur auf EU-Ebene wirksam anwenden. Der Vorstoß der SPD in Deutschland könnte damit eine ähnliche Funktion haben wie auch jene aus Spanien oder Frankreich: Sie sollen den Druck auf die EU-Kommission erhöhen, eine EU-weite Regelung zu finden.

Denn bislang gibt es kein EU-Regelwerk, das Social-Media-Plattformen feste Altersgrenzen auferlegt. Stattdessen gilt seit 2024 das Gesetz über digitale Dienste (DSA). Es schreibt unter anderem vor, was Plattformen wie TikTok, Instagram oder YouTube tun müssen, um Kinder und Jugendliche vor Risiken zu schützen. Alterskontrollen sind demnach nur eine von mehreren möglichen Maßnahmen. Nationale Regeln, die über den DSA hinausgehen, sind nach EU-Recht nicht möglich: Der DSA hat Vorrang.

Das dürften auch die Verfasser*innen des SPD-Papiers wissen. Sie schließen mit den Worten, entsprechende Regelungen seien „vorrangig auf europäischer Ebene zu treffen“. Konkret soll die EU die Forderungen im Rahmen des geplanten Digital Fairness Acts umsetzen. Es ist das nächste große Digitalgesetz, bis Ende des Jahres will die Kommission einen Entwurf vorlegen.

In Brüssel verhandeln Kommission, Rat und Parlament derzeit außerdem über ein weiteres Gesetzespaket, das ebenfalls Alterskontrollen für Plattformen und App-Stores vorsieht: Die Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern, kurz: CSA-VO.

Der Impuls der SPD dürfte sich auch an den eigenen Koalitionspartner richten, die Union. In der Regierung zuständig für Jugendmedienschutz ist Bundesfamilienministerin Karin Prien (CDU). Sie hat zwar schon signalisiert, dass sie sich ein Verbot gut vorstellen könne. Allerdings sagte ein Regierungssprecher Anfang der Woche: Die Bundesregierung werde keinen Vorschlag vorlegen, solange die vom Familienministerium einberufene Expert*innenenkommission noch keine Ergebnisse vorgelegt hat. 16 Fachleute sollen darin bis zum Sommer ein Konzept für „Kinder- und Jugendschutz in der digitalen Welt“ entwerfen.

Ausweiskontrollen, Netzsperren: Das fordert das SPD-Papier

Das Papier der SPD sieht eine Social-Media-Regulierung in drei Stufen vor.

Erstens sollen alle Kinder und Jugendliche bis 14 Jahren Social-Media-Plattformen wie TikTok oder Instagram nicht mehr nutzen dürfen. Die Anbieter sollen dazu verpflichtet werden, „den Zugang technisch wirksam zu unterbinden“.

Zweitens soll es für Jugendliche im Alter von 14 und 15 Jahren eine „Jugendversion“ der Plattformen geben, die mehrere Kriterien erfüllt. Sie darf demnach keine algorithmisch sortierten Inhalte zeigen, wie es etwa der For-You-Feed auf TikTok tut. Anbieter dürfen keine personalisierte Inhalte ausspielen. Und sie müssen Funktionen wie Push-Benachrichtigungen und Endlosfeeds abschalten, die darauf ausgelegt sind, Nutzer*innen möglichst lange an die Plattform zu binden.

Erziehungsberechtigte sollen den 14- und 15-Jährigen den Zugang zu den betroffenen Plattformen freischalten. Passieren soll das nach Vorstellung der SPD mit Hilfe der geplanten digitalen Brieftasche (EUDI-Wallet). Das ist eine offizielle App, die künftig allen EU-Bürger*innen zur Verfügung stehen soll. Damit sollen sie sich im Netz ausweisen können, so zumindest das Versprechen der EU. Der Start in Deutschland ist für den 2. Januar 2027 geplant.

Drittens soll es für Menschen ab 16 Jahren einen vollen Zugang zu sozialen Medien geben. Doch auch hier sollen die algorithmisch optimierten Empfehlungssysteme standardmäßig deaktiviert ein – also auch für Erwachsene. Die Verfasser*innen sehen darin eine „Rückkehr zum klassischen Social-Media-Prinzip“. Konkret erklären sie das so: „Ohne weitere Einstellungen sehe ich auf meiner Seite ausschließlich Inhalte von Personen und Accounts, denen ich aktiv folge.“

Sollten sich Plattformen nicht an die Vorgaben halten, fordern die Unterzeichner*innen eine Reihe von Sanktionen. Diese dürften nicht erst nach „langen Prüfverfahren“ greifen, sondern müssten schnell erfolgen, wenn etwa Kinder und Jugendliche gefährdet seien. Die Rede ist von „sofortigen Anordnungen“ und „empfindlichen Sanktionen“ – bis hin zu Netzsperren als „Ultima Ratio“.

Nur knapp erwähnt das Papier Aufklärung und Prävention. Medienbildung an Schulen, Schulsozialarbeit und Elternberatung wolle die SPD stärken. Solchen Maßnahmen fallen aber in der Regel in die Zuständigkeit der Länder und müssten von ihnen finanziert werden.

Welche Schwächen hat das Papier?

An mehreren Stellen argumentiert das Papier unsauber, weckt falsche Erwartungen oder blendet grundrechtliche Abwägungen aus. Folgende Aspekte fallen ins Auge.

  • Altersgrenze: Auf Seite eins argumentieren die Verfasser*innen ausführlich gegen Social-Media-Verbote. Sie fordern Schutz statt Ausschluss. Sie schreiben, ein generelles Verbot würde Kindern und Jugendlichen ihren „virtuellen Lebensraum nehmen und die eigentliche Problematik nicht in Gänze adressieren“. Auf Seite zwei wiederum fordern die Verfasser*innen ohne weitere Begründung ein generelles Social-Media-Verbot für alle unter 14 Jahren. Das ist widersprüchlich.
  • Definition: Das Papier definiert nicht, welche sozialen Medien gemeint sind. Deshalb ist unklar, ob auch kleinere nicht-kommerzielle Netzwerke wie das Fediverse eingeschränkt werden sollen – also Dienste, bei denen die befürchteten Risiken kaum oder nicht bestehen.
  • Netzsperren als Sanktion gegen Online-Plattformen sind verfassungsrechtlich bedenklich, gerade verbunden mit der Forderung, dass Konsequenzen „schnell“ sein müssen. Denn Netzsperren gelten als scharfes Schwert, das insbesondere in autoritären Regimen zum Einsatz kommt. Sie schränken Grundrechte wie Meinungs- und Informationsfreiheit empfindlich ein. Der DSA sieht Netzsperren lediglich bei sehr schweren Verstößen vor – und nur zeitlich beschränkt.
  • Eignung: Einige der im Papier beschriebenen Risiken sind nicht auf soziale Medien beschränkt. Zum Beispiel setzen auch viele Games auf Suchtmechanismen, die Menschen immer wieder ins Spiel hineinziehen und zu teuren In-App-Käufen verleiten. Hassrede und psychischer Druck wiederum sind auch ein großes Problem in Messengern, etwa beim Cybermobbing. Das heißt, die geforderten Regeln passen nur teilweise zu den beschriebenen Risiken.
  • Wirksamkeit: Mit simplen Werkzeugen wie VPN-Diensten lassen sich sowohl Netzsperren als auch Altersschranken umgehen – Jugendliche in Australien tun das schon ersten Berichten zufolge. Das wirft die Frage auf, ob die Forderungen überhaupt eine Wirkung haben. Das SPD-Papier thematisiert das nicht.

Durchblick statt Schnellschüsse

Recherchen wie diese sind nur möglich durch eure Unterstützung.

  • Bots: An zwei Stellen wechselt das SPD-Papier überraschend das Thema. Statt um Jugendschutz geht es plötzlich um Bots. „Wir brauchen mehr Handhabe darüber, dass sich hinter einem Account tatsächlich ein Mensch verbirgt“, heißt es. Demnach sollen die geforderten Alterskontrollen gegen „Bots“ schützen sowie gegen Netzwerke „zur gezielten Manipulation“. Diese Argumente stammen aus der kontroversen Debatte um Klarnamenpflicht. Sie haben kaum Anknüpfungspunkte zur laufenden Jugendschutz-Debatte.
  • Ausweispflicht: Um ihr Alter nachzuweisen, sollen Menschen künftig die digitale Brieftasche (EUDI-Wallet) nutzen, heißt es im SPD-Papier.  Aber laut EU-Recht darf es keinen Zwang zur digitalen Brieftasche geben. In der entsprechenden EU-Verordnung (eIDAS) steht: Die Nutzung der digitalen Brieftasche ist „freiwillig“. Wer sie nicht nutzt, darf „in keiner Weise eingeschränkt oder benachteiligt werden“.
  • Teilhabe: Der Fokus auf die EUDI-Wallet wirft ein weiteres Problem auf. Wer keine Ausweispapiere hat, kann sich auch keine digitale Brieftasche einrichten – und hätte damit künftig keinen Zugang mehr zu Plattformen wie Instagram, TikTok oder YouTube. Das schränkt die digitale Teilhabe ein. Allein in Deutschland leben Hunderttausende Menschen ohne Papiere.
  • Datenschutz: Die Verfasser*innen versprechen Jugendschutz „ohne Einschränkung der Anonymität“. Doch die im Papier beschriebenen Lösungen für Alterskontrollen sind nicht anonym. Zwar will die EU die Kontrollen in der kommenden digitalen Brieftasche datensparsam gestalten. Ein 2025 präsentierter Prototyp funktionierte aber nicht anonym, sondern pseudonym. Ein Pseudonym lässt sich oftmals auf eine Person zurückführen. An anderer Stelle verweist das SPD-Papier auf bereits heute in Deutschland anerkannte Verfahren für Alterskontrollen im Jugendmedienschutz. Diese Verfahren sind teils sehr invasiv: Nutzer*innen müssen je nach Anbieter ihren Ausweis vor die Kamera halten, ihr Gesicht biometrisch scannen oder Daten über die Schufa abgleichen lassen.

Welche Stärken hat das Papier?

Bisher war die Debatte in Deutschland von knappen Forderungen geprägt. Meist haben sich Politiker*innen pauschal für oder gegen ein Social-Media-Verbot ausgesprochen. Das SPD-Papier liefert auf mehreren Ebenen Differenzierung.

  • Die Verfasser*innen zeichnen ein ambivalentes Bild sozialer Medien und legen auch deren Vorteile ausführlich dar: Etwa, dass sie Raum für soziale Kontakte bieten, für demokratischen Diskurs, Information, Teilhabe und Selbstbestimmung, oder dass sie Menschen eine Stimme geben, „die sonst kaum Gehör finden“.
  • Das Papier benennt konkrete Risiken, für die es strengere Regeln geben soll: Es geht um algorithmisch sortierte Feeds, die Desinformation verbreiten können, öffentliche Debatten verzerren und gesellschaftliche Gruppen polarisieren. Um Suchtmechanismen, die menschliche Aufmerksamkeit ausnutzen. Um sozialen Druck und psychische Belastungen.
  • Das Papier behandelt junge Menschen nicht als homogene Gruppe, sondern fordert je nach Altersgruppe abgestufte Vorschriften.
  • Außerdem erkennt das Papier an, dass die beschriebenen Risiken nicht nur junge Menschen betreffen, sondern alle: „Auch Erwachsene sind von Polarisierung, Hassrede und algorithmisch gesteuerten Aufmerksamkeitsökonomien betroffen.“ Entsprechend sollen die vorgeschlagenen Einschränkungen für Menschen ab 16 Jahren ebenso für Erwachsene gelten.

Was passiert als nächstes?

Die Debatte hat eine Eigendynamik, seit Australien im Dezember 2025 mit dem Social-Media-Verbot für unter 16-Jährige vorgeprescht ist. Angefeuert von Nachrichtenmedien wird sie oftmals auf eine simple, binäre Frage verengt: Social-Media-Verbot – ja oder nein.

Am Wochenende will die CDU auf ihrem Parteitag über einen Antrag entscheiden, der ein Verbot für unter 16-Jährige fordert, begleitet mit verpflichtender Altersverifikation. Bereits im Vorfeld hat Bundeskanzler Friedrich Merz „Sympathien“ dazu geäußert. Der Chef der Schwesterpartei CSU, Markus Söder, bewertet ein Verbot weiterhin zurückhaltend.

Die nationalen Vorstöße können ein Druckmittel sein, um die EU zu einer Initiative zu bewegen, und die Kommission hat den Ball bereits aufgegriffen. Digitalkommissarin Henna Virkkunen hat sich für eine EU-weite Lösung ausgesprochen – ohne vorwegzunehmen, ob es auf ein Verbot hinauslaufen soll. Eine konkrete Gelegenheit für strengere Social-Media-Regulierung wäre der geplante Digital Fairness Act. Verbote würden sich allerdings mit dem frisch verhandelten Gesetz über digitale Dienste (DSA) beißen, das abgestufte Regeln je nach Dienst und Risiko vorsieht.

Interessierte können sich den Sommer wohl im Kalender vormerken. Nicht nur die Verfasser*innen des SPD-Papiers pochen auf diesen Zeitraum. Auch die EU-Kommission wolle bis Sommer eine Entscheidung fällen, und die vom Familienministerium einberufene Expert*innen-Kommission soll bis dahin Ergebnisse vorlegen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Geschichten aus dem DSC-Beirat: Leicht lädiert am zweiten Geburtstag

Von: Svea Windwehr

Seit zwei Jahren gelten neue Regeln für Plattformen in der EU. Die haben schon kleine Fortschritte bewirkt und machen Hoffnung. Aber um sie wirksam durchzusetzen, ist noch viel zu tun.

Ein bunter Kuchen auf dem eine Kerze in Form der Ziffer "2" steht.
2 Jahre Digital Services Act, Grund zum Gratulieren? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Kelly Sikkema

Der DSC-Beirat ist ein Gremium aus Zivilgesellschaft, Forschung und Wirtschaft. Er soll in Deutschland die Durchsetzung des Digital Services Act begleiten und den zuständigen Digital Services Coordinator unterstützen. Svea Windwehr ist Mitglied des Beirats und berichtet in dieser Kolumne regelmäßig aus den Sitzungen.

Seit dem 17. Februar 2024, also seit genau zwei Jahren, gilt in der EU der Digital Services Act. Das Regelwerk soll Nutzende schützen und mehr Transparenz und Fairness gegenüber Online-Plattformen und -Diensten schaffen. Gibt es etwas zu feiern?

Die Bilanz ist gemischt: Ein erstes Verfahren gegen X wurde zum Abschluss gebracht, viele andere Ermittlungen laufen noch. Die Rahmenbedingungen für Forschungsdatenzugang stehen endlich, in der Praxis gibt es aber noch massive Probleme. Zivilgesellschaft und Forschende haben unzählige Verfahren angestoßen und liefern wichtige Evidenz zu DSA-Verstößen, sind jedoch Repression und Delegitimierung ausgesetzt.

Pünktlich zum Geburtstag hat sich der neu berufene DSC-Beirat in neuer, kleinerer Konstellation zu seiner ersten gemeinsamen Sitzung getroffen und sich mit dem Stand der DSA-Durchsetzung beschäftigt. Der Beirat ist im Vergleich zu seiner letzten Besetzung geschrumpft, da die vier Vorschläge der AfD im Plenum des Deutschen Bundestages keine Mehrheit fanden. Deshalb und wegen der christ-demokratischen Definition von Zivilgesellschaft ist insbesondere von deren gesetzlich angedachter Stärke im Beirat des DSC nicht viel übrig geblieben.

Fortschritt in kleinen Schritten

Bei der Durchsetzung des DSA geht es nach wie vor oft schleppend voran. Der Koordinator für Digitale Dienste in Deutschland prüft noch, ob weitere außergerichtliche Streitbeilegungsstellen und Trusted Flagger zugelassen werden sollen. Während die Streitbeilegungsstellen etwa bei strittigen Moderationsentscheidungen zwischen Nutzer:innen und Plattformen vermitteln sollen, agieren die Trusted Flagger als vertrauenswürdige Hinweisgeber, deren Meldungen die Plattformen priorisiert bearbeiten sollen. Aktuell gibt es in Deutschland vier Organisationen, die als Trusted Flagger anerkannt sind, sowie zwei Streitbeilegungsstellen.

Von inzwischen insgesamt 30 durch den DSC eingeleiteten Verwaltungsverfahren gegen in Deutschland ansässige Plattformen wegen DSA-Verstößen scheint noch keines zum Abschluss gekommen zu sein. Und auch auf europäischer Ebene wurde seit der Verhängung eines Bußgelds gegen X im Dezember 2025 kein weiteres Verfahren zu Ende gebracht.

Immerhin kleine Fortschritte gibt es beim Datenzugang für Forschende. Nachdem detaillierte Hinweise, wie genau der Datenzugang ausgestaltet werden soll, Ende Oktober 2025 endlich in Kraft getreten sind, können Forschende Anträge auf Datenzugang bei ihren nationalen Aufsichtsbehörden stellen. Über dieses durch den DSA neu geschaffene Recht können sie zum ersten Mal qualitative und quantitative Daten von Plattformen anfragen, um systemische Risiken zu erforschen. Damit schafft der DSA längst überfällige Rahmenbedingungen, die unabhängige Forschung und ein besseres Verständnis von Online-Plattformen ermöglichen sollen – und potenziell wichtige Grundlagen für Durchsetzungsverfahren schaffen können.

Beim deutschen DSC sind seitdem immerhin neun Anträge auf Datenzugang eingegangen. Das klingt vielversprechend, allerdings wurden die meisten der neun Anträge wieder zurückgezogen, da die benötigten Daten auch über den niedrigschwelligeren Datenzugang über Schnittstellen der Plattformen angefragt werden konnten. Diese Möglichkeit, Daten über APIs anzufragen, funktioniert in der Praxis je nach Plattform durchwachsen bis schlecht – mangelnder Zugang zu Forschungsdaten ist einer der DSA-Verstöße, die zum Bußgeld gegen X beigetragen haben. Die Gesellschaft für Freiheitsrechte und Democracy Reporting International haben X kürzlich zum zweiten Mal deswegen verklagt.

Es ist also noch zu früh, um sich über große Durchbrüche beim Datenzugang zu freuen, aber immerhin können Forschende jetzt das System ausprobieren, Anträge stellen und auf Durchsetzung pochen, wenn die Plattformen sich weigern.

Ebenfalls hoffnungsvoll stimmen die kürzlich veröffentlichten vorläufigen Ergebnisse zu einem Verfahren gegen TikTok. Dort kommt die Europäische Kommission zu dem Schluss, dass die Videoplattform nicht genug getan hat, um Risiken von suchtfördernden Mechanismen insbesondere für Minderjährige zu mindern, beispielsweise endlose Feeds und hoch-personalisierte Empfehlungen. Das ist spannend, weil die Kommission davon ausgeht, dass TikTok das „grundlegende Design“ der Plattform ändern muss, um diesen Risiken beizukommen.

Sollte die Kommission bei dieser Einschätzung bleiben und nach Abschluss des Verfahrens Bußgelder gegen TikTok verhängen, hätte der Fall Auswirkungen weit über TikTok hinaus: Endlose Feeds und hoch-personalisierte Empfehlungen sind Kernelemente aller großen sozialen Netzwerke und Videosharingplattformen. Hier zeigt der DSA sein Potenzial, einerseits strukturelle Änderungen zu erstreiten, die das Businessmodell der Plattformen direkt betreffen. Das könnte zu anderen und besseren digitalen Räumen führen .

Andererseits zeigt die Argumentation, dass der DSA sinnvolle Werkzeuge bietet, um den Features und Plattform-Praktiken zu begegnen, die in der Debatte um Verbote von sozialen Medien für Kinder und Jugendliche im Fokus stehen: süchtigmachendes Design, Personalisierung basierend auf Unmengen persönlicher Daten, Produktdesign, das die Rechte und Interessen von Kindern wahrt.

Ein solches Verbot wurde Anfang Februar von Spaniens Premierminister Pedro Sanchez angekündigt, wofür er prompt von Elon Musk als Tyrann und Verräter Spaniens betitelt wurde. Daraufhin solidarisierte sich die Europäische Kommission mit Sanchez, während sie gleichzeitig festhielt, dass nur die Europäische Kommission durch den DSA weitere Verpflichtungen gegenüber sehr großen Online-Plattformen aussprechen darf. Angesichts des Eifers von Mitgliedstaaten wie Spanien, Italien, Griechenland, Frankreich und den Niederlanden bleibt abzuwarten, ob sich EU-Regierungen diesem Machtwort aus Brüssel beugen werden. Ob es also europäische Verboten von sozialen Medien geben wird, ist nach wie vor unklar.

Keine Durchsetzung ohne Repression

Solidarisch hatte sich die Europäische Kommission Ende Dezember auch gegenüber Mitgliedern eines angeblichen „globalen Zensur-industriellen Komplexes“ gezeigt, nachdem sie vom US-Außenministerium mit Visa-Sanktionen belegt worden waren, unter ihnen die beiden Geschäftsführerinnen von HateAid. HateAid ist eine der Organisationen, die als Trusted Flagger in Deutschland zugelassen sind.

Mit diesen Sanktionen markiert die Trump-Regierung Menschen als politische Feinde, die Online-Plattformen für Verstöße gegen geltendes Recht zur Verantwortung ziehen, bestraft sie und versucht, sie an ihrer Arbeit zu hindern.

Seit den Sanktionen gegen Zivilgesellschaft und Forschende vom Dezember hat ein neuer Bericht des Rechtsausschusses des US-Abgeordnetenhauses die Situation weiter verschärft. Die Beschäftigung des Ausschusses mit dem DSA ist getrieben von Jim Jordan, einem republikanischen Abgeordneten, der seit Jahren damit beschäftigt ist, die angebliche Zensur von US-Amerikaner:innen durch den DSA zu beweisen.

Auf 160 Seiten breitet der Bericht Jordans wirre Fantasie aus, dass die Europäische Kommission, unterstützt von der europäischen Zivilgesellschaft, nur ein Ziel mit dem DSA verfolge: die Unterdrückung konservativer, US-amerikanischer Stimmen. Dabei stützt sich der Bericht auf massenweise E-Mails, Screenshots und Dokumente, die Jordan durch Herausgabeverlangen von US-Plattformen bekam – wogegen sich Plattformen offensichtlich nicht oder kaum gewehrt haben.

Der Jordan-Bericht stellt jedoch nicht nur eine Reihe von Falschbehauptungen auf, sondern identifiziert und markiert auch eine ganze Reihe von Kommissionsmitarbeitenden und Vertreter:innen der Zivilgesellschaft, die an Workshops der Kommission zur DSA-Durchsetzung teilnahmen oder anderweitig an der Durchsetzung des DSA beteiligt sind. Ein gefundenes Fressen für jene Kräfte, die genau diese Arbeit verhindern wollen.

Die Repressionen gegen HateAid und Co. werden also wahrscheinlich nicht die letzten gegen Menschen und Organisationen gewesen sein, die sich um die Durchsetzung des DSA bemühen. Auf Seite der Behörden scheint man auch nach dem Shitstorm um Trusted Flagger und der Demontage des Stanford Internet Institute auf Druck rechtskonservativer Politiker kaum auf solche Szenarien vorbereitet sein – um nur zwei Beispiele zu nennen, in denen rhetorische Delegitimierungen durch rechte Akteure zu Einschüchterung, Gefahren für Einzelpersonen und dem Verlust von institutionellen Strukturen geführt haben.

Aufsichtsbehörden, Politik und die Kommission sind jetzt gefragt, nicht nur ihre Solidarität auszudrücken, sondern konkrete Maßnahmen zum Schutz von Zivilgesellschaft und Forschung zu ergreifen. Dabei darf aber nicht nur in die USA geschaut werden: Auch in Deutschland und anderen Mitgliedstaaten setzen konservative und rechte Kräfte die Zivilgesellschaft immer stärker unter Druck. Vom Anti-NGO-Kurs der Union über die Gemeinnützigkeitsdebatte und Kontoschließungen linker Organisationen bis zu physischen Angriffen gegen Aktivist:innen – wenn es der Politik ernst damit ist, zivilgesellschaftliche Arbeit zu schützen, darf sie nicht zwischen politisch genehmen und unbequemen Organisationen unterscheiden.

Ein ganzheitlicher Ansatz muss her: nachhaltige und großzügige Finanzierung, rechtliche Absicherung und vor allem eine Regierungspartei, die versteht, dass die Delegitimierung von NGOs letztlich nur einer Seite hilft – den Feinden demokratischer und offener Gesellschaften.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Social-Media-Debatte: Ursachenbekämpfung statt Verbote

Von: Laura Jaruszewski

In Los Angeles stehen Meta und Google vor Gericht, in der EU muss TikTok nachschärfen. In beiden Fällen geht es um ihr süchtig machendes Design. Das verweist auf einen besseren Weg im Kinder- und Jugendschutz: Ursachenbekämpfung statt Verbote. Ein Kommentar.

Auf einer Wand sind Like-Symbole, ein Herz und ein Smiley, wie sie bei Social Media aussehen, gesprüht.
Es braucht etwas anderes, um Kinder zu schützen. Und Erwachsene auch. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Foto von George Pagan III auf Unsplash

„Ich male mir die Welt, so wie sie mir gefällt.“ – Das gelingt den Plattformbetreibern hinter Instagram, Youtube, Snapchat oder TikTok bisher ganz gut. Das in Los Angeles eröffnete Verfahren könnte an diesem Prinzip jedoch rütteln und zeigen, dass es etwas anderes als ein Verbot für Jugendliche braucht, um die negativen Effekte sozialer Medien zu reduzieren.

Die 20-jährige Hauptklägerin will Meta und Google für ihr süchtig machendes Design zur Verantwortung ziehen. Vor Gericht gibt sie an, seit über zehn Jahren von sozialen Medien abhängig zu sein – einem Effekt, dem sich die Unternehmen laut interner Dokumente bewusst waren. Und wenn man ehrlich ist: Es ist ein Effekt, den die kommerziellen Plattformen wollen, damit sich die Aufenthaltszeit auf Plattformen verlängert, sie mehr Werbung an die Nutzer*innen abspielen und so mehr Gewinne einfahren können.

Wenn in den USA eine Person vor Gericht geht, deren Generation bisher am frühesten in der digitalen Welt aufgewachsen ist, führt das unweigerlich zu der Frage, wie für diese und nachfolgende Generationen eine bessere und andere Version von sozialen Medien aussehen könnte. Denn ob mit dem Verfahren letztlich ein Präzedenzfall geschaffen werden kann oder nicht – der Prozess stärkt eine andere Stoßrichtung als das derzeit heiß diskutierte Social-Media-Verbot.

Ein Verbot ist die falsche Antwort

Von einem Verbot sozialer Medien für junge Menschen werden viele negative Effekte erwartet: Für Minderheiten oder vulnerable Gruppen fällt ein Kanal zur Vernetzung und Gemeinschaftsbildung weg, ebenso ein Kanal zur Information, Menschen ohne Papiere könnten ganz ausgeschlossen sein und auf Kinder und Jugendliche entfallen die Folgen je nach Familiensituation und Wohnort ungleich.

Diese Nebeneffekte müssten weniger ins Gewicht fallen, wenn unterm Strich auf den Plattformen und ohne Verbot das ursprüngliche Ziel erreicht werden würde: Schutz von Kindern und Jugendlichen vor digitalem Missbrauch, vor Mobbing sowie übermäßigem Konsum und Sucht.

Ein Blick nach Australien zeigt, dass Verbote einerseits löchrig bleiben und andererseits große Risiken für Privatsphäre und Datenschutz bergen. Wie die australische Regierung erwartet hatte, finden Jugendliche einfach Schlupflöcher, das Verbot zu umgehen. Sie ändern ihren Standort über VPN-Verbindungen, legen sich neue Accounts an, wechseln auf nicht betroffene Apps oder nutzen Accounts von älteren Personen. Mit KI-generierten Bildern, Ausweisen von Älteren oder durch einfaches Stirnrunzeln bestehen sie Altersabfragen, die jetzt zur Architektur von Plattformen dazugehören.

Sollte die australische Regierung an diesen Stellen nachschärfen, bleiben Alterskontrollen aus datenschutzrechtlicher Perspektive trotzdem bedenklich. Ein vorab durchgeführtes Gutachten verzeichnet massive Bedenken, wie erhobene Daten gesammelt und an Behörden weitergegeben werden könnten. Das ist der eine Fall. Der andere Fall ist auch datenschutzrechtlich problematisch, wenn personenbezogene Daten aus Alterskontrollen an Drittanbieter weitergegeben werden, wie der Fall von Discord deutlicht.

Plattformen in die Pflicht nehmen statt Probleme in die Zukunft verlagern

Der Medienrechtler Stephan Dreyer erwartet, dass ein EU-Verbot den Jugendschutz auf sozialen Plattformen verschlechtern würde, wie er gegenüber netzpolitik.org darlegte.

Dazu kommt: Soziale Medien sind allgegenwärtiger Teil des Lebens auf der ganzen Welt. Haben Jugendliche die magische Grenze von 16 Jahren überschritten, sind sie zusammen mit den Älteren weiterhin endlosen Feeds, manipulativem Design, personalisierten Empfehlungssystemen und Dopamin-Kicks ausgesetzt. Statt „Cybergrooming“ heißt die Gefahr dann „digitale Gewalt“, wie der Grok-Skandal gerade deutlich vor Augen geführt hat.

Und warum eigentlich nur Jugendliche? Sind nicht auch gestandene Mittvierziger dem suchtmachenden Design der Plattformen verfallen und geraten nicht auch Boomerinnen in den Strudel, der sie in den verschwörungsideologischen Kaninchenbau zieht? Werden nicht uns allen polarisierende Inhalte von intransparenten Algorithmen gezeigt, damit wir möglichst lange mit den Plattformen interagieren und sie uns mit personalisierter Werbung zuballern können.

Bessere Plattformen für alle

Ein Verbot für Jugendliche macht die Plattformen nicht besser. Anstatt Plattformen zur Umsetzung von Alterskontrollen zu zwingen und junge Menschen auszuschließen, müssen die Plattformen zu einer anderen Architektur verpflichtet werden. Fairness by Design und by Default nennt sich der Ansatz, der digitale Plattformen dazu verpflichtet, ihre Webseiten und Apps nutzerfreundlich und manipulationsfrei zu gestalten. Die EU ist gegenüber TikTok einen Schritt gegangen, aber die Liste an manipulativen Techniken ist lang.

Ein Verbot ist letztlich eine platte und hilflose Maßnahme. Es erinnert an überforderte Eltern, die den Kindern das Handy wegnehmen, weil sie nicht weiterwissen. Dabei könnten auch die Verbotsbefürworter*innen beim Ansatz Fairness by Design auf ihre Kosten kommen. Er wäre einer von mehreren Ansätzen, die Plattformen nachhaltig zu verändern. Und es gibt Gesetzgebungen wie das Digitale-Dienste-Gesetz oder wie das geplante Gesetz für digitale Fairness, mit denen man Plattformen verändern kann.

Die Politik muss sich nur trauen – und nicht weiter vor der Lobby der Tech-Riesen einknicken.

 


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Trilog zu Alterskontrollen: Warnung vor „Ausweispflicht für weite Teile des Internets“

Von: Sebastian Meineck · Chris Köver

Sowohl der Rat als auch das EU-Parlament haben Nein gesagt zur verpflichtenden Chatkontrolle. Aber die umstrittene Verordnung birgt weitere Risiken für digitale Grundrechte – und zwar flächendeckende Alterskontrollen. Worüber Kommission, Parlament und Rat jetzt verhandeln.

Ein Stoppschild im Vordergrund. Im Hintergrund eine Fahrbahn mit zwei Schranken.
Die EU will neue Barrieren schaffen (Symbolbild) – Schild: Efrem Efre / Free Pexels Licence; Hintergrund: IMAGO/ Breuel-Bild

Es war ein merkliches Aufatmen Ende vergangenen Jahres. Nach mehr als drei Jahren Verhandlungen hatten sich Vertreter*innen der EU-Staaten im Rat auf eine gemeinsame Position zur sogenannten Chatkontrolle geeinigt, einem der weitreichendsten Überwachungsprojekte der EU.

Hinter der Chatkontrolle stecken Pläne der EU-Kommission, Anbieter von Messengern wie Signal oder WhatsApp auf Anordnung dazu verpflichten zu können, die Kommunikation von Nutzer*innen zu durchleuchten. Vertrauliche Nachrichten müssten sie dann in großem Stil nach sogenannten Missbrauchsdarstellungen durchsuchen – ein fundamentaler Angriff auf sicher verschlüsselte Kommunikation. Anlass ist der Vorschlag für eine Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern, kurz: CSA-VO.

Fachleute aus unter anderem Kinderschutz, Wissenschaft, Zivilgesellschaft sind gegen das Vorhaben Sturm gelaufen. Mit dem Nein von Rat und EU-Parlament dürfte die Chatkontrolle vom Tisch sein. Kaum beachtet geblieben ist dabei jedoch ein weiteres Überwachungsvorhaben im Vorschlag der Kommission, und zwar die Einführung von Alterskontrollen.

Die EU-Kommission möchte Anbieter nämlich auch dazu verpflichten dürfen, das Alter ihrer Nutzer*innen zu überprüfen. Betroffen sind Dienste, die Erwachsene nutzen können, um sexuelle Kontakte zu Minderjährigen anzubahnen. Das nennt sich Grooming.

Alterskontrollen laufen oftmals auf invasive Maßnahmen heraus. Nutzer*innen müssten dann zum Beispiel ihr Gesicht biometrisch vermessen lassen, damit eine Software ihr Alter schätzt, oder mithilfe von Dokumenten wie dem Ausweis belegen, dass sie erwachsen sind. Mindestens würde es damit für Millionen Nutzer*innen schwerer, sich frei im Netz zu bewegen. Wenn es nicht gelingt, solche Kontrollen sicher zu gestalten, drohen Datenschutz-Verletzungen und massenhafte Überwachung.

Kommission, Rat und Parlament haben teils widersprüchliche Positionen zu den Alterskontrollen. Aktuell verhandeln sie im sogenannten Trilog über die Verordnung – und damit auch über die Zukunft von Alterskontrollen in der EU. Wir liefern die Übersicht über die zentralen Positionen und die Risiken dahinter.

Das will die EU-Kommission

Der Vorschlag der EU-Kommission sieht eine Verpflichtung zu Alterskontrollen bei „interpersonellen Kommunikationsdiensten“ vor, einfach ausgedrückt: Anbietern mit Chatfunktion.

Sie sollen zunächst selbst das Risiko für Grooming einschätzen, also ob ihre Dienste zum Zweck des „sexuellen Kindesmissbrauchs“ eingesetzt werden könnten. Dabei spielt etwa eine Rolle, wie viele Kinder den Dienst überhaupt verwenden, wie leicht sie von Erwachsenen auf der Plattform kontaktiert werden können und welche Möglichkeiten es gibt, solche Kontakte zu melden.

Potenziell von Grooming betroffene Anbieter sollen dann das Alter ihrer Nutzer*innen überprüfen, um Minderjährige „zuverlässig“ zu identifizieren. Die Konsequenz sollen Maßnahmen zur Risikominderung sein. Zwar nennt der entsprechende Artikel im Entwurf kein konkretes Beispiel – denkbar wären aber zum Beispiel eingeschränkte Chat-Funktionen, die keine Gespräche mit Fremden erlauben.

Vergangene Recherchen über Grooming legen nahe: Diese Regelung könnte viele populäre Plattformen treffen, etwa TikTok, Instagram und Roblox oder das unter Gamer*innen beliebte Discord. Auch Messenger wie WhatsApp oder Signal könnten dazu verpflichtet werden, das Alter ihrer Nutzer*innen zu prüfen.

Entscheidend sind hier die Worte „zuverlässig identifizieren“. Eine schlichte Altersabfrage dürfte kaum genügen. Es geht auch nicht bloß darum, dass Anbieter Schutzfunktionen für Minderjährige bereithalten müssen, damit betroffene Minderjährige (oder ihre Aufsichtspersonen) sie einsetzen können. Stattdessen könnte es sein, dass Nutzer*innen in großem Stil beweisen sollen, dass sie schon erwachsen sind.

Zusätzlich sieht die Kommission eine weitere Altersschranke vor, die noch einen Schritt früher ansetzt, und zwar bei „Stores für Software-Anwendungen“. Darunter dürften mindestens der Google Play Store und Apples App Store fallen, je nach Auslegung auch Spiele-Marktplätze wie Steam. Auch dort müssten Nutzer*innen demnach ihr Alter nachweisen, bevor sie Zugang bekommen.

Das will der Rat der EU

Der Rat der EU vertritt die Regierungen der Mitgliedstaaten. Geht es um Alterskontrollen, deckt sich die Ratsposition weitgehend mit dem Vorschlag der Kommission. Auch der Rat will, dass Anbieter, die ein Risiko zur Kontaktaufnahme mit Kindern bei sich feststellen, das Alter ihrer Nutzer*innen kontrollieren. Das Gleiche will der Rat für App Stores.

Für die Ausgestaltung dieser Kontrollen stellt der Rat weitere Anforderungen auf. Demnach sollen die Maßnahmen Privatsphäre und Datenschutz wahren, transparent, akkurat und dabei auch zugänglich und diskriminierungsfrei sein. Der Rat spricht damit Aspekte an, die sich auch an anderer Stelle in EU-Regeln finden, etwa in den Leitlinien zum Jugendschutz im Netz auf Grundlage des Gesetzes über digitale Dienste (DSA).

Der Knackpunkt: Keine Technologie wird all diesen Anforderungen gerecht. Um den Anspruch zu erfüllen, akkurat zu sein, müssten Prüfungen wohl invasiv sein – sonst lassen sie sich täuschen. Typisch sind Kontrollen mit biometrischen Daten oder auf Basis von Dokumenten wie Ausweispapieren. Erstere können Menschen diskriminieren, die nicht ausreichend in den Trainingsdaten eines KI-Systems repräsentiert sind, etwa Women of Color. Letztere können Menschen ausschließen, die keine Papiere haben.

Das will das EU-Parlament

Das EU-Parlament will bei Alterskontrollen einen anderen Weg einschlagen, wie dessen Position zeigt. Streichen will das Parlament demnach die Pflichten für Alterskontrollen auf der Ebene von App-Stores.

Die Marktplätze sollen demnach bloß deutlich ausweisen, wenn Apps erst ab einem bestimmten Alter vorgesehen sind. Zudem sollen sie bei Apps, die das verlangen, die Zustimmung von Erziehungsberechtigten sicherstellen. Diese Maßnahmen könnten etwa Apple und Google bereits umgesetzt haben: Dort gibt es entsprechende Vorkehrungen für Accounts von Minderjährigen, die an Eltern-Accounts gekoppelt sind.

Für die Anbieter von Kommunikationsdiensten will das Parlament im Gegensatz zu Rat und Kommission keine verpflichtenden Alterskontrollen, sondern optionale. Risiken mindern müssen betroffene Anbieter dennoch; sie hätten allerdings die Wahl, auf welche Weise sie das tun.

Weniger invasive Methoden zur Altersprüfung haben einige Plattformen bereits heute im Einsatz. So will TikTok das Verhalten von Nutzer*innen auf Signale untersuchen, die auf ein zu geringes Alter hindeuten, etwa, mit welchen Accounts sie interagieren.

Das Parlament fordert zudem eine Reihe von Auflagen für Alterskontrollsysteme und wird dabei konkreter als der Rat. Demnach soll es für Nutzer*innen weiterhin möglich sein, anonyme Accounts einzurichten, und es sollen keine biometrischen Daten verarbeitet werden dürfen. Zudem sollen Kontrollen nach dem Zero-Knowledge-Prinzip erfolgen. Praktisch heißt das: Anbieter, bei denen man das eigene Alter nachweist, sollen nichts weiter erfahren, außer ob man die nötige Altersschwelle überschreitet. Ein mögliches Werkzeug dafür ist die von der EU in Auftrag gegebene Alterskontroll-App, die künftig Teil der digitalen Brieftasche (EUDI-Wallet) werden soll.

Für Dienste, die sich an Kinder unter 13 Jahren richten, fordert das Parlament zusätzlich, dass sie standardmäßig in ihren Funktionen hohe Sicherheitsstandards wählen. Sie sollen etwa verhindern, dass Nutzer*innen persönliche Daten teilen oder Screenshots machen können.

Gesondert verlangt das Parlament außerdem Regeln für Pornoplattformen. Diese besondere Gruppe von Anbietern soll verpflichtend das Alter von Nutzer*innen kontrollieren. Das entspräche jedoch im Tenor den Anforderungen aus bereits bestehenden EU-Gesetzen wie der Richtlinie über audiovisuelle Mediendienste und dem DSA.

Das steht auf dem Spiel

Alterskontrollen sind nicht nur ein Thema für Kinder und Jugendliche – es geht nämlich darum, alle Nutzer*innen zu kontrollieren, um Minderjährige herauszufiltern. Die deutsche Europa-Abgeordnete Birgit Sippel (SPD) warnt: „Eine verpflichtende Altersverifikation würde eine Ausweispflicht für weite Teile des Internets bedeuten, und zwar vor allem auch für Erwachsene.“ Diese Warnung würde jedoch voraussetzen, dass die EU eine Pflicht zu Alterskontrollen sehr streng auslegt.

Wenn bei Alterskontrollen die Plattformen zum Türsteher werden und Daten auch für andere Zwecken nutzen können, wäre das „höchst problematisch“, so Sippel weiter. Deshalb brauche es Safeguards wie das Zero-Knowledge-Prinzip. „Schließlich darf die Anonymität und Nutzung von Pseudonymen nicht gefährdet werden.“ Außerdem warnt die Abgeordnete davor, Alterskontrollen als Allheilmittel zu betrachten. „Um Kinder effektiv zu schützen, braucht es eine strukturelle Reform der Plattformen, damit Profit nicht mehr aus dem Geschäft mit missbräuchlichen Inhalten geschlagen werden kann.“ Abgeordnete aus anderen Fraktionen haben sich auf Anfrage von netzpolitik.org nicht geäußert.

Für European Digital Rights (EDRi), dem Dachverband von Organisationen für digitale Freiheitsrechte, beobachtet Politikberater Simeon de Brouwer das Gesetzesvorhaben. „Verpflichtende Altersverifikation bei Diensten für zwischenmenschliche Kommunikation ist gefährlich, weil sie die freie Rede unterdrückt“, warnt er. Je nach Art der Kontrollen könnten ganze Gesellschaftsgruppen ausgeschlossen werden – etwa Menschen ohne Papiere. Außerdem warnt er vor Einschüchterung („chilling effects“), wenn der Zugang zu sicherer Kommunikation hinter verpflichtenden Kontrollen steht.

Auch Alterskontrollen auf App-Marktplätzen lehnt de Brouwer ab. „Ein derartiges Maß an Kontrolle und aufdringlicher Datenverarbeitung sollte nicht normalisiert werden – besonders nicht an einem solchen Nadelöhr.“ Es entstehe keine Sicherheit, sondern Kontrolle, wenn der Zugang zu digitalen Werkzeugen vom Überwinden zentraler Prüfsysteme abhängig gemacht wird.

Svea Windwehr ist Co-Vorsitzende des Vereins für progressive Digitalpolitik D64. „Alle bekannten Technologien zur Altersbestimmung im Netz weisen signifikante Schwächen auf“, schreibt sie auf Anfrage. So seien etwa KI-gestützte Altersschätzungen häufig ungenau und „bergen massive Diskriminierungspotenziale, da ihre Leistung stark von Geschlecht, Alter, Hautfarbe und anderen Merkmalen abhängt“. Verifikation anhand von Ausweisdokumenten wiederum könne „eine signifikante Barriere für gesellschaftliche Teilhabe darstellen“.

Unterm Strich würden neue Pflichten zur Altersverifikation „einen Bärendienst für die Privatsphäre von jungen Menschen im Netz“ darstellen, warnt Windwehr. Vor allem würden sie nichts an den strukturellen Problemen ändern, die Plattformen zu unsicheren Räumen für Kinder machen können. „Der politische Anspruch sollte darin bestehen, an der Wurzel des Problems anzusetzen und Plattformen für ihre Produkte zur Verantwortung zu ziehen, statt vulnerable Nutzende auszuschließen.“

So geht es jetzt weiter

Beim Gesetz steht die EU unter gewissem Zeitdruck. Obwohl viele Dienstleister wie etwa Meta bereits jetzt eine freiwillige Chatkontrolle durchführen, fehlt dafür eine dauerhafte Rechtsgrundlage. Möglich ist die Maßnahme nur durch eine vorübergehende Ausnahmeregelung mit Blick auf die Datenschutz-Richtlinie für elektronische Kommunikation. Die Frist dafür endet jedoch im April 2026. Zumindest Kommission und Rat wollen sie um zwei Jahre verlängern; das Parlament müsste dem noch zustimmen.

Weil der Rat sich jahrelang nicht auf eine Position zur Chatkontrolle einigen konnte, war das ganze Gesetzesvorhaben für lange Zeit blockiert. Erst mit der Einigung auf die Ratsposition Ende November wurde der Weg frei für die informellen Trilog-Verhandlungen zwischen Kommission, Rat und Parlament. Beim Trilog versuchen die drei EU-Organe einen Kompromiss zu finden. Verhandelt wird hinter verschlossenen Türen. Dauer: ungewiss; ein Ergebnis ist nicht garantiert.

„Trotz der Differenzen zeigen das Europäische Parlament und der Rat die feste Absicht, intensiv an dem Vorschlag zu arbeiten und so schnell wie möglich eine Einigung zu erzielen“, sagte jüngst der spanische Abgeordnete Javier Zarzalejos (EVP) während einer Ausschuss-Sitzung am 27. Januar. Er ist der zuständige Berichterstatter der konservativen Fraktion im Parlament.

Nach dem ersten Verhandlungstermin am 9. Dezember sollen Verhandlungen auf technischer Ebene am 15. Januar begonnen haben. Aus diesen bis dato zwei Terminen könne Zarzalejos von „guter Atmosphäre und beachtlichem Fortschritt“ berichten. Diskutiert habe man bisher insbesondere das neue EU-Zentrum – das ist die geplante zentrale Anlaufstelle zur Umsetzung der Verordnung. Der nächste Trilog-Termin soll der 26. Februar sein.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Kehrtwende in UK: Pornhub widersetzt sich britischen Alterskontrollen

Von: Sebastian Meineck

Ein halbes Jahr lang hat sich Pornhub den britischen Alterskontrollen gebeugt und massenhaft Nutzer*innen überprüft. Jetzt macht der Konzern eine Kehrtwende und kündigt seinen Rückzug aus dem Vereinigten Königreich an. Dahinter steckt ein geschickter PR-Stunt. Die Analyse.

Ein Screenshot der Kopfzeile von Pornhub. Eine Uno-Reverse-Karte in Orange.
In UK legt Pornhub eine 180-Grad-Wende hin. – Bildschirm: IMAGO/ZumaPress; Karte: Wikimedia / Mete Ölçer / CCO; Montage: netzpolitik.org

Seit dem 25. Juli vergangenen Jahres müssen im Vereinigten Königreich Apps und Websites das Alter ihrer Nutzer*innen kontrollieren, falls es dort pornografische Inhalte zu sehen gibt. So verlangt es der Online Safety Act, den die britische Medienaufsicht Ofcom durchsetzt.

Ein halbes Jahr lang ist Pornhub, eine der meistbesuchten Websites der Welt, diesen Regeln gefolgt. Um zu beweisen, dass sie schon erwachsen sind, mussten sich britische Nutzer*innen etwa über eine Kreditkarte oder ihren Mobilfunkanbieter verifizieren lassen. Doch damit soll bald Schluss sein.

Wie Pornhubs Mutterkonzern Aylo nun bekanntgab, wird die Plattform am 2. Februar für britische Nutzer*innen dichtmachen. Die Ausnahme sind diejenigen, die vor dem Stichtag bereits einen Account angelegt hatten. Das gleiche gilt für die kleineren Schwesterseiten Redtube und YouPorn.

Zur Begründung schreibt der Konzern, das britische Gesetz habe sein Ziel verfehlt, den Zugang Minderjähriger zu Inhalten für Erwachsene einzuschränken. Die Erfahrung nach sechs Monaten habe das gezeigt. Weiter heißt es auf Englisch:

Wir können innerhalb eines Systems, das unserer Ansicht nach sein Versprechen des Jugendschutzes nicht einlöst und sogar gegenteilige Auswirkungen hatte, nicht weiter operieren. Wir sind der Auffassung, dass dieses Regelwerk in der Praxis den Datenverkehr in dunklere, unregulierte Bereiche des Internets verlagert und zudem die Privatsphäre sowie die persönlichen Daten von Bürger:innen des Vereinigten Königreichs gefährdet hat.

Pornhub spielt damit auf gleich drei Punkte an, die Kritiker*innen von Alterskontrollen häufig ins Feld führen.

  • Erstens, dass neugierige Kinder und Jugendliche ihre Recherche nach sexuellen Inhalten nicht beenden, wenn sie bei populären Pornoseiten auf eine Alterskontrolle stoßen – sondern diese Hürde entweder mit Tools wie VPN-Diensten überwinden oder auf andere Seiten ausweichen.
  • Zweitens, dass strenge Alterskontrollen generell Nutzer*innen zu weniger regulierten Angeboten mit möglicherweise weniger Inhaltsmoderation locken.
  • Und drittens, dass sich durch Alterskontrollen Berge sensibler Daten anhäufen können; verlockend sowohl für Kriminelle als auch für staatliche Überwachung.

Künstliche Verknappung

Neu ist diese Kritik nicht, auch nicht für Pornhub. Auf Grundlage dieser Argumente hätte die Plattform von Anfang an die Alterskontrollen im Vereinigten Königreich zurückweisen können. Zum Vergleich: In mehreren US-Bundesstaaten hat die Plattform ihre Geschäfte eingestellt statt Kontrollen einzuführen.

Die jetzige Kehrtwende nach sechs Monaten britischer Alterskontrollen legt nahe, dass Aylo einen PR-Stunt hinlegt. Besonders ins Auge fällt die Ankündigung, dass Brit*innen die Plattform weiter nutzen können, sofern sie bis 2. Februar einen Account anlegen. Diese von Aylo selbst gewählte Frist ist künstliche Verknappung – also eine bewährte Marketing-Strategie. Droht ein landesweiter Aufnahme-Stopp neuer Nutzer*innen, dürften sich viele vorher noch schnell einen Account anlegen, für alle Fälle.

Was Aylo nicht weiter ausführt: Auch ohne Account dürften britische Nutzer*innen künftig Pornhub erreichen können, wenn sie ihre britische IP-Adresse verschleiern, zum Beispiel per VPN oder Tor-Netzwerk.

Mehrfach verknüpft Aylo in seinem Blogbeitrag valide Argumente mit eigenen Konzerninteressen. So warnt Aylo ausdrücklich vor Pornoseiten, die keine Alterskontrollen durchführen, Uploader*innen nicht verifizieren, Inhalte nicht moderieren – und dennoch auftauchen, wenn Brit*innen nach „free porn“ googeln. Im Kontrast dazu kann sich Pornhub selbst als vorbildlich inszenieren und schreibt in polierter PR-Prosa von seiner „Bibliothek vollständig moderierter, einvernehmlicher Erwachsenen-Unterhaltung“.

In der Tat hat die Plattform inzwischen umfassende Richtlinien eingeführt, um Uploader*innen und Inhalte zu prüfen. Geschehen ist das allerdings erst nach jahrelangen Skandalen zu laxen Kontrollen und nicht-einvernehmlichen Aufnahmen auf der Plattform – was Aylo an dieser Stelle unerwähnt lässt. Früher hatte sich Pornhub mit diesen Maßnahmen mühsam aus einer internationalen Image-Krise herausgearbeitet; heute verkauft die Plattform es als Alleinstellungsmerkmal.

Strategie: Flucht nach vorn

Ein Smartphone zeigt die Nachricht, die Aylo während der Sperre in Frankreich anzeigte.
Aylos PR-Stunt gegen Alterskontrollen in Frankreich appellierte an den französischen Freiheitsbegriff „liberté“. - Alle Rechte vorbehalten IMAGO/MaxPPP

Inzwischen wählt Pornhub wiederholt die Flucht nach vorn als Strategie. Klar erkennbar ist das spätestens seit 2023, als Pornhub die eigenen Krisen in der Netflix-Doku „Money Shot“ aufarbeiten ließ – und sich dabei fast nebenbei als Stellvertreter der gesamten Branche überhöhte.

Während Regierungen und Aufsichtsbehörden weltweit Druck mit verschärften Alterskontrollen machen, erprobt Pornhub-Mutter Aylo unterschiedliche Reaktionen. Augenscheinlich lotet der Konzern dabei die eigenen Optionen aus. So hatte Pornhub auch in Frankreich feierlich eine freiwillige Selbst-Sperre verkündet; das war im Juni 2025.

Derweil sind Sperren in Deutschland kein Thema, wobei es hierzulande ähnlich strenge Pflichten für Alterskontrollen gibt. Stattdessen streitet sich Pornhub seit Jahren mit der deutschen Medienaufsicht vor Gericht. Noch vor wenigen Monaten hatte Pornhub auf Anfrage von netzpolitik.org zumindest Bereitschaft signalisiert, in der EU Ausweise zu kontrollieren.

Ruf nach Jugendschutz auf Geräte-Ebene

Den prominenten Appell für einen strategischen Umgang von Pornoseiten mit kommender Regulierung gab es bereits im Jahr 2022, und zwar durch den Unternehmer Fabian Thylmann. Er ist ehemaliger Geschäftsführer des Aylo-Vorgängers Manwin. Im Gespräch mit dem Bayerischen Rundfunk sagte Thylmann damals, es brauche strenge Gesetze für Pornoseiten und der Pornhub-Mutterkonzern solle mitwirken. Dahinter steckt ein simples Kalkül: Wenn eine Regulierung nicht mehr zu vermeiden ist, dann können sich große Plattformen ihre Vormachtstellung sichern, indem sie aktiv mitmachen und mitbestimmen.

Genau das versucht Aylo offenbar heute. So betont Aylo: „Wir bleiben der Zusammenarbeit mit dem Vereinigten Königreich, der Europäischen Kommission und anderen internationalen Partnern verpflichtet.“ Den geplanten Rückzug aus dem Vereinigten Königreich verbindet der Konzern mit einer klaren netzpolitischen Forderung. Demnach sollten alle Smartphones, Tablets und Computer zuerst in einem Kinderschutz-Modus ausgehändigt werden, der bekannte Websites für Erwachsene ab Werk blockiert.

Diese Forderung nach Jugendschutz auf Geräte-Ebene anstelle von Alterskontrollen hat Aylo bereits wiederholt vorgebracht. Auf etwaige Bedenken zu den Fallstricken von Filtersystemen für Jugendliche geht der Konzern an dieser Stelle nicht ein.

Der Kurs, den nicht zuletzt die Europäische Union etwa mit der Richtlinie für audiovisuelle Mediendienste (AVMD-RL) und dem Gesetz über digitale Dienste (DSA) beim Jugendschutz einschlägt, geht ohnehin in eine andere Richtung. Großflächige Ausweiskontrollen scheinen vor allem politisch gewollt zu sein. Statt Pornoseiten stehen in der aktuellen Debatte derzeit insbesondere Social-Media-Seiten im Fokus, während Kinder und Jugendliche auch jenseits davon eine Vielzahl an Risiken im Netz erleben.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Maximaler Nervenkitzel: Das sind die Tricks der Glücksspiel-Industrie

Von: Sebastian Meineck

Katsching und Klimper-klimper: Mit raffinierten Mechanismen fesseln Anbieter von Glücksspielen Menschen an die Geräte und verdienen Milliarden. In ihrem Vortrag auf dem 39C3 nimmt Forscherin Elke Smith die Tricks auseinander – und zeigt, wo Regulierung ansetzen könnte.

Ein Mann jubelt seinen Smartphone-Bildschirm an.
Gezielt hervorgerufene Ekstase am Bildschirm (Symbolbild) – Alle Rechte vorbehalten IMAGO/Panthermedia, Bearbeitung: netzpolitik.org

Die Slotmaschine rattert, blinkt und klingelt, während ihre Walzen rotieren. Die Lootbox schüttelt sich und pulsiert, als würde sie gleich explodieren, begleitet von anschwellenden Glockenklängen. Für viele Gamer*innen bedeutet das Spaß und Nervenkitzel, ob beim klassischen (Online-)Glücksspiel für Erwachsene oder in Glücksspiel-ähnlichen Games, die teils sogar für Kinder freigegeben sind.

Für die Psychologin und Neurowissenschaftlerin Elke Smith bedeutet Glücksspiel dagegen Arbeit. Denn sie erforscht an der Universität zu Köln menschliche Entscheidungs- und Lernprozesse – darunter jene Mechanismen, die beim Zocken im Hintergrund ablaufen. In ihrem Vortrag auf dem 39. Chaos Communication Congress erklärt Smith die zentralen Tricks von Glücksspiel, die sich inzwischen auch in klassischen Online-Games ausbreiten.

Geschätzt 2,4 Prozent der deutschen Bevölkerung zwischen 18 und 70 Jahren sind laut Gesundheitsministerium süchtig nach Glücksspielen, haben also eine als Krankheit anerkannte Verhaltensstörung. Derweil liegen die Umsätze für legales Glücksspiel in Deutschland bei knapp 63,5 Milliarden Euro. Dennoch kommt der Vortrag der Glücksspiel-Forscherin Smith ohne Verteufelung aus. Vielmehr umreißt sie den Graubereich zwischen Spaß und Suchtgefahr.

Deshalb macht Glücksspiel so viel Spaß

Psychologin Elke Smith auf dem 39C3
Psychologin Elke Smith auf dem 39C3. - Alle Rechte vorbehalten media.ccc.de

Ein besonders auffälliger Glücksspiel-Mechanismus, den Smith hervorhebt, sind audiovisuelle Effekte, die bei hohen Gewinnen noch stärker werden. Darunter fallen zum Beispiel die zu Beginn erwähnten klingelnden und glitzernden Slotmaschinen und Lootboxen. Gerade bei einem Gewinn können virtuelle Funken sprühen, Goldmünzen hageln und Fanfaren blasen. Solche Elemente sind kein bloßes Beiwerk, sondern tragen dazu bei, Menschen durch Reize zu belohnen und damit zum Weiterspielen zu motivieren.

Sogenannte Near Misses sind Fälle, in denen Spieler*innen den Eindruck bekommen, nur ganz knapp verloren zu haben, etwa wenn bei der Slotmaschine das Gewinnsymbol fast getroffen wurde. Zwar macht es finanziell keinen Unterschied, ob man knapp oder deutlich verliert – es fühlt sich aber anders an.

Ein weiterer Mechanismus, den Smith hervorhebt, sind als Verluste getarnte Gewinne, auf Englisch: losses disguised as wins. In diesem Fall bekommen Spielende einen Bruchteil ihres Einsatzes als scheinbaren Gewinn zurück, begleitet mit audiovisuellen Belohnungsreizen.

Bei der Jagd nach Verlusten („chasing losses“) versuchen Spieler*innen wiederum, das verlorene Geld aus vorigen Runden durch immer weitere Einsätze wieder zurückzuholen.

Nicht zuletzt kann sich Glücksspiel auch der sogenannten Kontroll-Illusion („illusion of control“) bedienen. Das ist eine kognitive Verzerrung: Üblicherweise können Menschen durch ihre Entscheidungen tatsächlich ihre Umwelt beeinflussen, dazu lernen und ihre Fähigkeiten verbessern. Beim Glücksspiel dagegen haben Entscheidungen oftmals keinen Einfluss auf das Ergebnis – es fühlt sich nur so an. Als Beispiel nennt Smith die Entscheidung, wann genau man bei einer Slotmaschine den Knopf drückt, um die rollenden Walzen zu stoppen.

Mechanismen breiten sich in Spiele-Apps aus

Diese und weitere Mechanismen sind nicht auf (Online-)Casinos begrenzt, sondern verbreiten sich auch in klassischen Spiele-Apps, wie Smith ausführt. Die Integration von Glücksspiel-Elementen wie Zufall, Risiko und Belohnung nennt sie „Gamblification“ – und deren Effekte hat sie selbst untersucht.

Gemeinsam mit Forschungskolleg*innen hat Smith gemessen, wie Zuschauer*innen auf YouTube-Videos reagieren, in denen Gamer*innen sich beim Öffnen von Lootboxen filmen. Solche Videos erreichen auf YouTube ein Millionenpublikum und zeigen: Glücksspiel-Mechanismen wirken möglicherweise sogar dann, wenn man anderen nur beim Spielen zuschaut.

Konkret haben die Forschenden Views, Likes und Kommentare von 22.000 Gaming-Videos mit und ohne Lootboxen miteinander verglichen. Das Ergebnis: Der Lootbox-Content hat das Publikum messbar stärker eingenommen als anderer Gaming-Content: mehr Views, mehr Likes, mehr Kommentare. „Dieses erhöhte Engagement könnte mit den Glücksspiel-ähnlichen Eigenschaften der durch Lootboxen vermittelten Belohnungsstruktur zusammenhängen“, heißt es auf Englisch in dem Paper, das im Mai 2025 beim Journal Scientific Reports erschienen ist.

Um ihre Online-Spiele zu optimieren, können Anbieter auf A/B-Testing mit großen empirischen Datenmengen zurückgreifen, erklärt Smith in ihrem Vortrag. Das heißt: Sie können Features einfach ausprobieren und messen, was am besten funktioniert. Schließlich bekommen sie täglich kostenlos neue Daten von Millionen Gamer*innen. Auf diese Weise entstehen Produkte, die von Anfang an so gestaltet sind, dass sie die Belohnungsmechanismen der Spieler*innen am besten ausnutzen. Smith nennt das „Neuroexploitation by design“.

Das sind die Ansätze für Regulierung

Gegen Ende ihres Vortags geht Smith auf Ansätze ein, um die Gefahren von Glücksspiel-Mechanismen einzudämmen. In Deutschland gibt es etwa den Glücksspielstaatsvertrag. Manche Normen zielen direkt auf Glücksspiel-Mechanismen ab: So muss bei einem virtuellen Automatenspiel etwa ein einzelnes Spiel mindestens fünf Sekunden dauern, der Einsatz darf einen Euro pro Spiel nicht übersteigen. Das soll das Feuerwerk aus Risiko und Belohnung eindämmen.

Ob Lootboxen in die Kategorie Glücksspiel fallen, beschäftigt internationale Gerichte und Gesetzgeber bereits seit Jahren. In Deutschland hatte jüngst der Bundesrat strengere Regeln gefordert. Am 21. November hielten die Länder fest, dass Lootboxen und andere Glücksspiel-ähnliche Mechanismen in Videospielen besser reguliert werden sollen, um Suchtgefahr zu reduzieren. In Belgien und den Niederlanden gibt es bereits strengere Regeln.

Auf EU-Ebene gibt es derzeit kein spezifisches Recht zur Regulierung von Lootboxen, wie die Wissenschaftlichen Dienste des Bundestags den Sachstand im Herbst 2024 zusammenfassen. Allerdings kommen je nach Kontext verschiedene EU-Gesetze in Frage, etwa das Gesetz über digitale Dienste (DSA), das manche Anbieter dazu verpflichtet, Risiken für ihre Nutzer*innen zu erkennen und zu minimieren. Derzeit plant die EU-Kommission zudem den Digital Fairness Act, der Lücken im Verbraucherschutz schließen soll.

„Ich denke, es wäre wichtig, vor allem junge Menschen vor diesen Mechanismen zu schützen“, warnt Smith mit Blick auf Glücksspiel-Mechaniken in Spielen. Damit verweist die Forscherin auf eine Leerstelle in den aktuellen Debatten um Jugendschutz im Netz, die vor allem um Alterskontrollen für soziale Medien kreisen.

Ein fertiges Regulierungs-Konzept für Glücksspiel-Mechanismen hat die Forscherin zwar nicht. In welchem Spannungsfeld man sich bei dem Thema bewegt, bringt sie jedoch in Reaktion auf eine Frage aus dem Publikum auf den Punkt: „Gibt es einen Bereich vom Spieldesign, der Spaß macht, Nervenkitzel birgt, profitabel ist für die Anbieter und im Bereich des sicheren Spielens liegt?“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Social-Media-Bann in Australien startet: Ein dunkler Tag für den Jugendschutz im Netz

Von: Sebastian Meineck

Kein TikTok, kein YouTube und kein Instagram für Menschen unter 16 Jahren: Mit dem Social-Media-Bann betritt Australien netzpolitisches Neuland mit weltweiter Signalwirkung. Jugendlichen ist damit kein Stück geholfen. Ein Kommentar.

Ein junger Mensch im Bett mit Smartphone vor dem Gesicht
Der Klassiker: Mit dem Smartphone ins Bett – Alle Rechte vorbehalten IMAGO/phototek; Bearbeitung: netzpolitik.org

Am 10. Dezember beginnt das Social-Media-Verbot in Australien. Menschen unter 16 Jahren dürfen Plattformen wie TikTok, Instagram und YouTube nicht mehr nutzen, Hunderttausende Jugendliche verlieren Schätzungen zufolge ihre Accounts. Die australische Regierung hofft damit, junge Menschen vor den Gefahren des Internet zu bewahren.

Der australische Social-Media-Bann ist vor allem Symbolpolitik, und nur aus dieser Perspektive ist er ein Erfolg. Denn weltweit schauen jetzt Konzerne, Politik und Medien nach Australien. Vermutlich klopfen sich die Verantwortlichen allein deshalb schon auf die Schultern. Regierungen anderer Länder könnten sich das australische Modell sogar zum Vorbild nehmen. Hoffentlich tun sie das nicht.

Denn die australische Regierung erweckt nur den Eindruck von Handlungsfähigkeit. Es scheint nur so, als könnte sie harte Kante gegen Tech-Konzerne zeigen, die andere Regulierungsversuche oftmals geschickt umschiffen. In Wahrheit ist den betroffenen Jugendlichen mit dem Social-Media-Bann nicht geholfen. Ihre Bedürfnisse und Probleme spielen keine Rolle; die Regulierung verfehlt ihr Ziel.

Schon wer Social Media mit Alkohol oder Tabak vergleicht, hat das Problem nicht verstanden. Es geht nicht um nachweislich schädliche Substanzen, sondern um vielfältige, digitale Räume. In solchen digitalen Räumen suchen Jugendliche Spaß und soziale Kontakte, Aufklärung und Vorbilder. Das australische Social-Media-Verbot versperrt Jugendlichen lediglich den offiziellen Zugang zu einer Auswahl dieser Räume. (Update, 17:50 Uhr: Auf YouTube sollen sie zumindest ohne Account noch Videos sehen können.)

Was junge Menschen statt plumper Sperren brauchen, sind sichere, digitale Räume. Sie brauchen Kompetenzen, um sich zunehmend eigenständig in diesen digitalen Räumen zu bewegen. Und sie brauchen Vertrauenspersonen, die Zeit haben, sie einfühlsam zu begleiten.

Was Kinder im Netz erleben, und was Politik daraus lernen kann

Die Konsequenz des australischen Verbots: Junge Menschen werden ihren Bedürfnissen nach Spaß und Gemeinschaft, ihrer Neugier und ihrem Durst nach neuen Erfahrungen anderswo im Netz weiter nachgehen. Viele werden auf weniger bekannte Websites ausweichen. Und auf Dienste, die nicht vom Verbot betroffen sind, etwa Spiele und Messenger wie WhatsApp. Gerade WhatsApp ist für viele Kinder und Jugendliche selbst ein soziales Netzwerk und Schauplatz für Mobbing. Andere Jugendliche wiederum dürften die Altersschranken mithilfe von VPN-Software oder anderen Tricks digitaler Selbstverteidigung einfach überwinden.

Mutige Netzpolitik sieht anders aus

Das Social-Media-Verbot in Australien führt sogar zu noch mehr Kontrollverlust. Zuvor hatten Regulierungsbehörden klare Ansprechpersonen bei den großen Konzernen. Wenn auch widerspenstig haben sie zunehmend Maßnahmen für mehr Jugendschutz umgesetzt. Künftig müssen sich Plattformen wie TikTok und Instagram nicht einmal mehr darum bemühen, sichere Räume für australische Jugendliche unter 16 Jahren zu schaffen. Weil unter 16-Jährige dort offiziell nicht mehr sein dürfen.

Der Social-Media-Bann in Australien ist nicht mutig oder radikal, er ist eine Scheinlösung. Mutige Netzpolitik würde widerspenstige Tech-Konzerne unter Androhung hoher Geldbußen in die Verantwortung nehmen und sich nicht davor scheuen, das vor Gericht auszufechten. Weg mit manipulativen Designs; weg mit auf Sogwirkung optimierten Feeds, die jüngere und ältere Menschen stundenlang an den Bildschirm fesseln. Her mit sicheren Voreinstellungen, die verhindern, dass Fremde mit krimineller Energie Kontakt zu Minderjährigen anbahnen können. Her mit fair bezahlten und gut ausgestatteten Moderationsteams, die Meldungen von Nutzer*innen sorgfältig bearbeiten.

Das und mehr liefert Australien nicht. Stattdessen lässt der Staat die Jugendlichen mit ihren Problemen und Bedürfnissen allein. Das macht den 10. Dezember zu einem dunklen Tag für Jugendliche in Australien – und auch für Erwachsene.

Denn Millionen Menschen müssen in Australien künftig für ihre digitale Teilhabe den Ausweis zücken, um die Altersschranken zu überwinden. Massenhaft werden dabei sensible Daten bei teils zweifelhaften Drittanbietern landen. Nach diesem Schatz dürften sich sowohl Polizeibehörden als auch Online-Kriminelle schon jetzt die Finger lecken.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Online-Alterskontrollen: Google stellt Zusammenarbeit mit Sparkassen vor

Von: Karoline Tanck

Die EU erhöht den Druck, Alterskontrollen im Internet einzuführen. Google will dafür jetzt mit den Sparkassen zusammenarbeiten und stellt eine Lösung vor, die auf dem Smartphone und im Browser funktionieren soll.

rotes Sparkassen Schild über Filialeneingang
Die Sparkasse bescheinigt: Ja, diese Person ist volljährig. – Alle Rechte vorbehalten IMAGO / CHROMORANGE

Google und die Sparkassen kündigten am Dienstag eine Zusammenarbeit für eine Altersverifikation im Internet an. In dem Modell sollen die Sparkassen einen Altersnachweis für ihre Kund*innen ausstellen, den Google dann über eine Schnittstelle an Webseiten und Apps weiterreicht, die einen solchen Nachweis der Volljährigkeit erfordern. Die Schnittstelle soll „in den kommenden Monaten“ zur Verfügung stehen und sowohl im Chrome-Browser als auch auf Android-Smartphones funktionieren.

Die Sparkassen haben bereits in einem kleineren Rahmen Erfahrung mit den Altersnachweisen. Sie hatten solche Nachweise für das Projekt „Kulturpass“ angeboten, ein Angebot, mit dem Jugendliche nach ihrem 18. Geburtstag ein Guthaben für Kulturangebote bekamen. Dieses Projekt hatte der Verband Ende 2024 auch auf einem Workshop zu Altersverifikation im Bundesfamilienministerium (BMFSFJ) vorgestellt.

Kein Rückschluss auf Identität soll möglich sein

Google hat jetzt eine Programmierschnittstelle entwickelt, über die als einziger Datenpunkt die Information weitergereicht wird, dass jemand über 18 Jahre alt ist. Weitere Daten wie der Name oder das genaue Geburtsdatum sollen dabei nicht offengelegt werden, so dass keine Rückschlüsse auf die Identität der Person möglich sein sollen, die eine Seite oder App benutzt.

Damit geht Google auf eines der größten Bedenken gegen die Alterskontrollen ein. Fachleute für Privatsphäre wie die Electronic Frontier Foundation (EFF) hatten in der Vergangenheit davor gewarnt, dass Personen ihre Identität offenlegen müssten, um etwa Pornoseiten oder andere Angebote für Erwachsene zu besuchen. Auch bestehe die Gefahr, dass Nutzer*innen über mehrere Seiten hinweg verfolgt werden könnten. Beides soll Googles neue Schnittstelle nach eigenen Angaben verhindern.

EU-Kommission drängt auf Alterskontrollen

Tech-Konzerne und Plattformen stehen in der EU zunehmend unter Druck, Alterskontrollen einzuführen, wo Inhalte nicht für Kinder und Jugendliche bestimmt sind. Noch sieht man im Netz häufig schlichte Altersabfragen, die man mit einem Klick überwinden kann, etwa: „Bist du schon 18?“ Künftig sollen aber strengere Schranken den Zutritt zu Online-Angeboten begrenzen – etwa, um nicht jugendfreies Videos zu schauen oder im Netz eine Flasche Wein zu kaufen.

Parallel zu Googles Lösung hat auch die EU-Kommission eine eigene App in Auftrag gegeben. Sie wird derzeit von der deutschen T-Systems und der schwedischen Scytáles entwickelt. Ihre Funktion: bestätigen, dass man über 18 ist. Mitgliedstaaten sollen die App als Vorlage verwenden, um ihre eigenen nationalen Versionen zur Verfügung zu stellen, etwa in der Marktplätzen von Apple und Google.

Gesetzlich vorgeschrieben sind Alterskontrollen in der EU bislang nicht. Laut dem Gesetz über Digitale Dienste (Digital Services Act, DSA) sind Online-Plattformen allerdings dazu verpflichtet, für „ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen“ zu sorgen. Anbieter können selbst abwägen, wie sie den Verpflichtungen nachkommen. Die Kommission hat jedoch in neuen Richtlinien klar gemacht, dass sie für Pornoseiten oder Online-Glücksspiel harte Alterskontrollen bevorzugt.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

  • Es gibt keine weiteren Artikel
❌