🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
✇netzpolitik.org

Ein „Kuss“ für Verschlüsselung: Kampagne kämpft für sichere Kommunikation

Von: Markus Reuter

Die EU-Kommission wird demnächst neue Überwachungsansätze vorstellen und plant unter dem Deckmantel „rechtmäßiger Zugang“ einen weiteren Angriff auf die verschlüsselte Kommunikation. Europäische Digitalorganisationen machen dagegen jetzt mobil.

Vorhängeschloss an einer Türe
Polizeien und Geheimdienste wollen Zugang zu verschlüsselter Kommunikation. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Kaffeebart

Der Dachverband europäischer Digitalorganisationen EDRi hat eine neue Kampagne zum Schutz von Verschlüsselung und privater Kommunikation gestartet. Hintergrund der Kampagne „Keep It Safe and Secure“ (KISS) ist, dass die verschlüsselte Kommunikation in der EU nicht nur durch die Chatkontrolle-Gesetzgebung unter Druck steht, sondern auch durch weitere Projekte.

Staatliche Akteure wie Polizeien und Geheimdienste begehren unter dem Deckmantel des Going-Dark-Narrativs Zugriff auf die Inhalte der Kommunikation. Außerdem beklagt EDRi, dass eine staatlich alimentierte Hacking-Industrie Menschen aus Aktivismus, Politik, Wirtschaft und Journalismus ins Visier nehme und die IT-Sicherheit aller Menschen gefährde.

Die EU hatte im letzten Jahr unter dem Schlagwort ProtectEU einen Fahrplan zum Ausbau der Überwachung vorgestellt. Die Angriffe auf die Verschlüsselung verstecken sich hinter der Formulierung „Rechtmäßiger Zugang zu Daten für Strafverfolgung“. Die Pläne sehen neben einem Angriff auf Verschlüsselung auch den Ausbau der Vorratsdatenspeicherung vor. Die EU-Kommission will noch im ersten Quartal eine Folgenabschätzung dazu veröffentlichen.

Schwachstellen und Hintertüren

Europol und andere Strafverfolgungsbehörden, so heißt es in der Kampagne, drängten unter anderem darauf, Hacking-Methoden zu legalisieren, welche die Verschlüsselung schwächen. Diese Methoden sind immer damit verbunden, Schwachstellen und Hintertüren in Hard- und Software einzubauen oder auszunutzen.

Zu den Methoden gehören wie bei der Chatkontrolle ursprünglich geplant das Client-Side-Scanning, bei dem Inhalte wie Texte, Bilder oder Videos auf einem Gerät oder in einem Kommunikationskanal schon vor der Verschlüsselung gescannt werden. Weitere Ansätze sind unsichere Verschlüsselungsmethoden, bei denen nicht nur die Kommunizierenden Schlüssel haben, sondern Behörden „Nachschlüssel“ zum Entschlüsseln der Kommunikation besitzen. Ein weiterer Ansatz sind Systeme, bei denen Behörden als unsichtbarer „Geist“ an verschlüsselter Kommunikation teilnehmen und die Kommunikation so mitlesen können.

Schutz von Verschlüsselung gefordert

In einer Petition fordern EDRi und die Bündnispartner der Kampagne von den EU-Abgeordneten Schutz von Verschlüsselung und ein Verbot von Staatstrojanern. Die massive Mobilisierung im Rahmen Chatkontrolle sei ein klares Zeichen dafür gewesen, dass den Menschen Verschlüsselung wichtig ist. „Wenn wir die Verschlüsselung verlieren, verlieren wir auch das Vertrauen in alles, was wir online tun, und gefährden damit die Sicherheit unserer demokratischen Gesellschaft, unserer Wirtschaft und unserer Menschenrechte“, heißt es weiter.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Von Kinderhilfswerk bis Lehrerverband: So breit ist die Kritik am Social-Media-Verbot

Von: Sebastian Meineck

Bundeskanzler Friedrich Merz (CDU) findet ein Social-Media-Verbot bis 16 Jahre sympathisch. Viele Organisationen aus Kinderschutz, Wissenschaft und Pädagogik lehnen das Verbot allerdings ab – und warnen vor Schäden für Kinder und Jugendliche. Die Übersicht.

Ein Kind und eine erwachsene Person halten sich an den Händen. Ihre Köpfe sind mit bunten Fäden umwickelt. Sie schauen auf digitale Geräte.
Wie führt man Kinder in die digitale Welt? (Symbolbild) – Alle Rechte vorbehalten IMAGO/Westend61

Bekommt Deutschland ein Social-Media-Verbot nach australischem Vorbild? Druck machen zumindest wichtige Politiker*innen aus den Regierungsparteien SPD und CDU. Die Debatte kocht auch international, weil in Australien seit dem 10. Dezember ein solches Verbot gilt.

Medienwirksam sprechen sich Staats- und Regierungschefs für ähnliche Maßnahmen aus, darunter der französische Präsident Emmanuel Macron und der spanische Ministerpräsident Pedro Sánchez. Unter Expert*innen gibt es aber viel Skepsis und Ablehnung. Das zeigen mehr als 20 Positionspapiere und Stellungnahmen von unter anderem Kinderschutz-Organisationen, Pädagog*innen, Schüler*innen und Forschenden.

Viele sprechen sich klar gegen ein Social-Media-Verbot aus und warnen vor gravierenden Folgen. Doch selbst Befürworter*innen eines Social-Media-Verbots argumentieren vorsichtig und nennen Altersbeschränkungen allenfalls als eine von vielen Maßnahmen. Ein Konsens ist erkennbar, dass vor allem Plattformen sichere Räume für Kinder und Jugendliche schaffen müssen.

Hier kommt, ohne Anspruch auf Vollständigkeit, eine Übersicht wichtiger Stimmen und deren Argumente.


Deutsches Kinderhilfswerk: „Verbote entmündigen Kinder“

November 2025, „Unsere Haltung zu Social-Media-Verboten“

Wer ist das? Das deutsche Kinderhilfswerk ist ein 1972 gegründeter Verein. Dessen Mitglieder engagieren sich für „eine kinderfreundliche Gesellschaft, in der die Kinder ihre Interessen selbst vertreten“.

Was ist die Position? „Pauschale Verbote entmündigen Kinder und Jugendliche“, schreibt das Kinderhilfswerk. Sie stünden in krassem Widerspruch zum Recht auf digitale Teilhabe, das die UN-Kinderrechtskonvention garantiert. Den kompetenten und sicheren Umgang müssten Kinder und Jugendliche durch aktive Nutzung lernen. „Verbote würden die positiven sozialen Kommunikationswege in diesem Bereich abschneiden und Kindern einen Rückzugsort ihrer Lebenswelt ohne angemessenen Ersatz nehmen.“


UNICEF: „Verbote können nach hinten losgehen“

Dezember 2025: „Age restrictions alone won’t keep children safe online“

Wer ist das? UNICEF ist das 1946 gegründete Kinderhilfswerk der Vereinten Nationen.

Was ist die Position? „Social-Media-Verbote bergen eigene Risiken und könnten sogar nach hinten losgehen“, warnt die NGO auf Englisch. Gerade für isolierte oder marginalisierte Kinder seien soziale Medien eine „Lebensader“. Altersbeschränkungen müssten Teil eines umfassenderen Ansatzes sein, der auch das Recht junger Menschen auf Privatsphäre und Mitbestimmung achtet. Minderjährige sollten nicht in unregulierte, weniger sichere Bereiche des Internets gedrängt werden.


Save the Children: „falsches Sicherheitsgefühl“

Dezember 2025: „Policy Statement on Social Media Bans“

Wer ist das? Save The Children wurde 1919 gegründet und bezeichnet sich als weltgrößte unabhängige Organisation für Kinderrechte.

Was ist die Position? Save The Children unterstützt „wirksame, die Privatsphäre respektierende Altersüberprüfungen“. Dennoch ist die Organisation besorgt, dass altersbasierte Beschränkungen „unbeabsichtigte Schäden verursachen, ein falsches Sicherheitsgefühl vermitteln und die Rechte und Möglichkeiten von Kindern einschränken könnten“. Weiter pocht sie darauf, dass Plattformen ihre Produkte „wirklich sicher und altersgerecht gestalten“.


Bundesschülerkonferenz: Medienbildung „an erster Stelle“

Februar 2026: „Verbote sind keine Lösung“

Wer ist das? Die Bundesschülerkonferenz engagiert sich für Bildungspolitik und Mitbestimmung von Schüler*innen in Deutschland.

Was ist die Position? Die psychische Gesundheit von Jugendlichen würde immer schlechter, schreibt die Generalsekretärin der Bundesschülerkonferenz. Social Media leiste dazu einen erheblichen Beitrag. Der Fokus der Debatte liege aber zu stark auf Verboten. „An erster Stelle muss bessere Medienbildung in Schulen stehen, denn sonst ist das Verbot nichts anderes als eine Problemverschiebung.“


Deutscher Bundesjugendring: Manipulative Designs verbieten

Oktober 2025: „Stellungnahme zur Konsultation zum Digital Fairness Act“

Wer ist das? Der Deutsche Bundesjugendring vertritt deutsche Jugendverbände und Landesjugendringe.

Was ist die Position? „Junge Menschen haben Rechte auf Schutz, Teilhabe und Befähigung – auch digital“, schreibt der Verein in einem Statement zum Digital Fairness Act, einem geplanten Digitalgesetz der EU. Der Bundesjugendring lehnt „pauschale Zugangsbeschränkungen“ ab und fordert sicher gestaltete Räume. Funktionieren soll das etwa über „verbindliche Verbote manipulativer Gestaltung“. Konkrete Beispiele seien „endlose Feeds, Lootbox-Mechaniken oder manipulative Abo-Taktiken“.


ACT Youth Advisory: Verbote können isolieren

November 2024: „The ACT Youth Advisory Council’s Response to the Online Safety Amendment“

Wer ist das? Der ACT Youth Advisory vertritt Jugendliche im „Australian Capital Territory“, wo auch die australische Hauptstadt Canberra liegt.

Was ist die Position? Der ACT-Jugendrat hätte das australische Social-Media-Verbot am liebsten verhindert. Statt Jugendliche auszusperren, so die Forderung, solle die Regierung die Plattformen regulieren. Die Jugend-Vertreter*innen sahen etwa das Recht auf freie Meinungsäußerung in Gefahr – und das Recht auf sicheren und freien Zugang zu Informationen. Sie warnten außerdem davor, dass das Verbot vulnerable junge Menschen isolieren könne.


Deutscher Lehrerverband: „weder umsetzbar noch sinnvoll“

Juni 2025: „Digitale Teilhabe ist Realität und muss gelernt werden“

Wer ist das? Der Deutsche Lehrerverband ist eine der größten Organisationen von Lehrer*innen in Deutschland.

Was ist die Position? Eine gesetzliche Altersgrenze für soziale Medien ist „weder realistischerweise umsetzbar noch sinnvoll“, schreibt Verbandspräsident Stefan Düll. Kinder und Jugendliche müssten lernen, sich in der digitalen Welt sicher und verantwortungsvoll zu bewegen. Es könne nicht die Lösung sein, Jugendlichen „plötzlich mit dem 16. Geburtstag“ einen Zugang zu geben. „Wir sollten nicht ständig diskutieren, was Kindern verboten wird – sondern was wir ihnen ermöglichen.“


BzKJ: Völliges Verbot „zu weitgehend“

Dezember 2024: „Junge Menschen haben ein Recht auf digitale Teilhabe“

Wer ist das? Die Bundeszentrale für Kinder- und Jugendmedienschutz ist als Bundesbehörde zuständig für die Durchsetzung von Kinderrechten im Netz auf Grundlage des EU-Gesetzes über digitale Dienste (DSA).

Was ist die Position? „Kinder und Jugendliche haben ein Recht auf digitale Teilhabe und darauf, digitale Lebensräume sicher zu erkunden“, sagte BzKJ-Direktor Sebastian Gutknecht bereits Ende 2024. „Das völlige Verbot von Social Media für unter 16-Jährige“ halte er für „zu weitgehend.“ Die Anbieter in der EU hätten die gesetzliche Pflicht, „ihre Plattformen für junge Menschen mit strukturellen Vorsorgemaßnahmen möglichst sicher zu gestalten“.


Landesanstalt für Kommunikation: „erhebliche Bedenken“

Februar 2026: „Social-Media-Verbot – Worum geht’s?“

Wer ist das? Die „Landesanstalt für Kommunikation“ (LFK) aus Baden-Württemberg ist eine von 14 deutschen Aufsichtsbehörden für privaten Rundfunk und Online-Medien.

Was ist die Position? Nach einer Sammlung von Pro- und Contra-Argumenten zieht die Behörde ein Fazit: Demnach sei der Schutz von Kindern und Jugendlichen komplex, und es bestünden „erhebliche Bedenken gegen vermeintlich einfache Lösungsvorschläge“. Insbesondere zu beachten seien „Fragen bezüglich der Umsetzbarkeit und der Reichweite eines Verbots“ sowie „unbeabsichtigte negative Folgen“.


BfDI: „keinesfalls“ undifferenzierte Altersgrenzen

Dezember 2025: Stellungnahme für den Thüringer Landtag

Wer ist das? Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) berät unter anderem die Bundesregierung bei Datenschutzgesetzgebung.

Was ist die Position? „Keinesfalls sollte undifferenziert für jedes soziale Medium in Gänze eine bestimmte Altersgrenze festgelegt werden“, schreibt Bundesdatenschutzbeauftragte Louisa Specht-Riemenschneider in einer Stellungnahme für den Thüringer Landtag. Kinder und Jugendliche hätten ein Recht auf soziale Teilhabe. Altersbeschränkungen müssten allenfalls risikobasiert sein. Aussehen könne das so: „Die Grundversion des Dienstes ist kinderfreundlich und für alle zugänglich. Erst wenn jemand eine Funktion anschalten oder einen Bereich besuchen möchte, der mit einem hohen Risiko verbunden ist, wird die Altersprüfung eingesetzt.“

Durchblick statt Schnellschüsse

Recherchen wie diese sind nur möglich durch eure Unterstützung.


Berliner Psychotherapeut*innen: mehrstufiger Schutz

Januar 2026: „Psychotherapeutenkammer warnt (…) und fordert wirksamen Schutz“

Wer ist das? Die Psychotherapeutenkammer Berlin vertritt die Interessen approbierter Psychotherapeut*innen in der deutschen Hauptstadt.

Was ist die Position? Die Therapeut*innen warnen vor Schäden für die psychische Gesundheit durch „Überkonsum von Plattformen wie Instagram, TikTok und YouTube“, auch wenn bisherige Studien keine Kausalitäten zeigen. Deshalb fordern sie ein Mindestalter und Kontrollen. „Datenschutzkonforme technische Verfahren müssen sicherstellen, dass Kinder unter einem festgesetzten Mindestalter nicht einfach Accounts erstellen“. Die Therapeut*innen fordern aber auch „sichere Voreinstellungen und Schutzmechanismen gegen exzessive Nutzung“.


Australian Psychological Society: Warnung vor Einsamkeit

November 2025: „Psychologists call for consideration for young Australians‘ mental health (…)“

Wer ist das? Die „Australian Psychological Society“ (APS) bezeichnet sich selbst als „führende Organisation“ für Psycholog*innen in Australien.

Was ist die Position? Im Vorfeld des australischen Social-Media-Verbots mahnten dortige Psycholog*innen zur Vorsicht. Zwar könnte die Maßnahme junge Menschen vor Risiken schützen. Aber ohne sinnvolle Alternativen könne der Entzug sozialer Medien eine Lücke in ihr soziales Leben reißen und Gefühle wie „Einsamkeit, Angst und Kummer“ erhöhen.


BAJ: Zugang sicher gestalten

Januar 2026: „Prävention schafft Schutz – pauschale Verbote nicht!“

Wer ist das? Die im Jahr 1951 gegründete Bundesarbeitsgemeinschaft Kinder- und Jugendschutz setzt sich „für ein gutes und gesundes Aufwachsen von Kindern und Jugendlichen“ ein.

Was ist die Position? Die BAJ ist gegen ein pauschales Nutzungsverbot von Social Media vor dem 16. Lebensjahr. Die zentrale Frage sei nicht, ob Minderjährige Zugang zu sozialen Netzwerken haben dürfen, sondern wie dieser Zugang gestaltet wird. Es gehe darum, dass Kinder und Jugendliche geschützt werden und sich entwickeln können. Wichtig sei es, Eltern zu unterstützen und bestehende Regeln durchzusetzen.


EKKJ: „vermeintliche Lösung für komplexes Problem“

November 2025: „Social Media: altersgerechter Zugang und Regeln statt Verbote“

Wer ist das? Die Eidgenössische Kommission für Kinder- und Jugendfragen ist eine staatliche Fachstelle aus der Schweiz, die Wissen für Bundesbehörden aufbereitet.

Was ist die Position? Aus Sicht der EKKJ sind „pauschale Verbote von Social Media für Kinder und Jugendliche nicht zielführend und nur eine vermeintliche Lösung für ein komplexes Problem“. Verbote seien bezüglich der negativen Folgen „weitgehend unwirksam“, so die Kommission weiter. „Gleichzeitig schränken sie positive und notwendige Lernprozesse ein, verhindern den Erwerb sinnvoller Kenntnisse und Kompetenzen und verunmöglichen wichtige Erfahrungen.“


Molly Rose Foundation: „Kinder brauchen Plattformen“

Januar 2025: „Joint statement (…) on a social media ban for under-16s“

Wer ist das? Die britische Molly Rose Foundation engagiert sich dafür, dass junge Menschen keinen Suizid begehen. Ihr Statement zum Social-Media-Verbot haben insgesamt 42 Organisationen unterzeichnet, darunter die 1884 gegründete britische Kinderschutzorganisation NSPCC.

Was ist die Position? „Gemeinsam glauben wir, dass Social-Media-Verbote die falsche Lösung sind“, halten die Unterzeichner*innen fest. Verbote würden dabei scheitern, Kindern Sicherheit zu bringen. Kinder, darunter queere und neurodivergente, bräuchten Plattformen für soziale Kontakte, Unterstützung durch Gleichgesinnte und vertrauenswürdige Hilfsangebote. Wenn Jugendliche die riskanten Plattformen dann mit 16 Jahren nutzen dürften, würden sie vor einer Klippe stehen.


Leopoldina: 13 Jahre als „verbindliches Mindestalter“

August 2025: „Soziale Medien und die psychische Gesundheit von Kindern und Jugendlichen“

Wer ist das? Die Leopoldina ist eine vom Bund und dem Land Sachsen-Anhalt finanzierte Gelehrtengesellschaft, die Politik und Öffentlichkeit beraten will.

Was ist die Position? „Strategien, die vorrangig auf Altersbeschränkungen setzen, greifen zu kurz“, schreiben die Forschenden. Dennoch empfehlen sie 13 Jahre als verbindliches Mindestalter für Social-Media-Accounts, pochen jedoch auf weitere Maßnahmen je nach Alter. Zudem kritisieren die Forschenden das „Prinzip der Aufmerksamkeitsökonomie“, also das Geschäftsmodell vieler populärer Plattformen. Das fördere „technologische Strategien zur Maximierung der Nutzerbindung“ und schaffe „gezielt suchtfördernde Strukturen“.


ÖAW: „Gefahr, dass das Ziel nicht erreicht wird“

Februar 2026: „Alterssperren auf Social-Media: Technische Grenzen und Möglichkeiten“

Wer ist das? Die Österreichische Akademie der Wissenschaften (ÖAW) ist eine 1847 gegründete Gelehrtengesellschaft aus Wien.

Was ist die Position? Das Institut für Technikfolgen-Abschätzung der ÖAW hat untersucht, wie sich ein Social-Media-Verbot durchsetzen ließe. Demnach könne Altersfeststellung im Internet „grundsätzlich Sinn machen“, es brauche aber eine breite gesellschaftliche Debatte. Weiter warnt die Studie vor der Gefahr, „dass trotz weitreichender Einschnitte für alle Internetnutzer:innen das Ziel, nämlich das eines besseren Schutzes von Minderjährigen, nicht erreicht wird“.


EDRi: Hürden werden umgangen

November 2025, „Why age verification misses the mark and puts everyone at risk“

Wer ist das? European Digital Rights (EDRi) ist der Dachverband von Organisationen für digitale Freiheitsrechte.

Was ist die Position? EDRi lehnt Social-Media-Verbote ab. Stattdessen plädiert der Verband dafür, die Ursachen für Gefahren im Netz zu bekämpfen. „Kinder brauchen und verdienen Online-Räume, in denen sie andere treffen können, Trost und Sicherheit finden, Ideen erproben und austauschen, Beziehungen aufbauen, lernen und spielen.“ Es sei sehr wahrscheinlich, dass junge Menschen Hürden umgehen.


Superrr: „Verbot ist Kurzschlussreaktion“

Februar 2025: „Nicht sehen, nicht sprechen, nicht hören“

Wer ist das? Superrr ist eine gemeinnützige Organisation, die sich für feministische Digital- und Technologiepolitik einsetzt.

Was ist die Position? „Ein Verbot ist eine Kurzschlussreaktion, die eine Auseinandersetzung mit den wirklichen Problemen verweigert“, hält Superrr fest. Wenn auf einer Straße viel Verkehr sei, laute die Lösung auch nicht, Kinder zu Hause einzuschließen. „Viel von dem, was als schädlich für Kinder beschrieben wird, schadet uns allen.“ Deshalb stellt Superrr die Frage nach einer digitalen Welt ,“die nicht nur aus uns und unserer Zeit Gewinn schlagen möchte“.


GMK: Verbot „greift langfristig zu kurz“

Dezember 2024: „Zum australischen Social-Media-Verbot aus medienpädagogischer Sicht“

Wer ist das? Die Gesellschaft für Medienpädagogik und Kommunikationskultur engagiert sich seit 1984 sich für Medienpädagogik und Medienkompetenz.

Was ist die Position? Ein Social-Media-Verbot könne kurzfristig attraktiv erscheinen, „greift jedoch langfristig zu kurz“, schreibt die GMK. Es würde weder die Bedürfnisse noch die Rechte von Kindern und Jugendlichen ausreichend berücksichtigen. Stattdessen brauche es unter anderem Hilfestellungen für Familien und Regulierung von Plattformen.


Stiftung Bildung: „Verbot schwächt Rechte junger Menschen“

Januar 2026: „Kinderrechte wahren, Medienkompetenz stärken, Teilhabe ermöglichen“

Wer ist das? Die Stiftung Bildung ist eine gemeinnützige Spendenorganisation, die sich für gute Bildung in Deutschland engagiert.

Was ist die Position? Die Stiftung spricht sich klar gegen ein Social-Media-Verbot nach australischem Vorbild aus. „Ein solches Verbot wird den komplexen Realitäten digitaler Lebenswelten nicht gerecht und schwächt langfristig die Rechte, die Resilienz und das Vertrauen junger Menschen“, schreibt die Organisation. Stattdessen brauche es einen Ansatz, der Schutz, Befähigung und Teilhabe verbinde.


Arbeiterwohlfahrt: „weder zielführend noch angemessen“

Januar 2026: „Gegen ein Social-Media-Verbot bis 16 Jahre“

Wer ist das? Die Arbeiterwohlfahrt (AWO) engagiert sich für eine sozial gerechtere Gesellschaft.

Was ist die Position? Die AWO lehnt ein generelles Social-Media-Verbot bis 16 Jahre ab und zweifelt, ob es rechtlich und technisch durchsetzbar wäre. Mit Blick auf betroffene Jugendliche sei das Verbot „weder zielführend noch angemessen“. Es gehe an der Alltagsrealität der meisten jungen Menschen vorbei und schränke Teilhabe ein. Stattdessen brauche es unter anderem Medienbildung und Sozialarbeit; außerdem müssten Plattformen ihre Angebote jugendgerecht gestalten.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Trilog zu Alterskontrollen: Warnung vor „Ausweispflicht für weite Teile des Internets“

Von: Sebastian Meineck · Chris Köver

Sowohl der Rat als auch das EU-Parlament haben Nein gesagt zur verpflichtenden Chatkontrolle. Aber die umstrittene Verordnung birgt weitere Risiken für digitale Grundrechte – und zwar flächendeckende Alterskontrollen. Worüber Kommission, Parlament und Rat jetzt verhandeln.

Ein Stoppschild im Vordergrund. Im Hintergrund eine Fahrbahn mit zwei Schranken.
Die EU will neue Barrieren schaffen (Symbolbild) – Schild: Efrem Efre / Free Pexels Licence; Hintergrund: IMAGO/ Breuel-Bild

Es war ein merkliches Aufatmen Ende vergangenen Jahres. Nach mehr als drei Jahren Verhandlungen hatten sich Vertreter*innen der EU-Staaten im Rat auf eine gemeinsame Position zur sogenannten Chatkontrolle geeinigt, einem der weitreichendsten Überwachungsprojekte der EU.

Hinter der Chatkontrolle stecken Pläne der EU-Kommission, Anbieter von Messengern wie Signal oder WhatsApp auf Anordnung dazu verpflichten zu können, die Kommunikation von Nutzer*innen zu durchleuchten. Vertrauliche Nachrichten müssten sie dann in großem Stil nach sogenannten Missbrauchsdarstellungen durchsuchen – ein fundamentaler Angriff auf sicher verschlüsselte Kommunikation. Anlass ist der Vorschlag für eine Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern, kurz: CSA-VO.

Fachleute aus unter anderem Kinderschutz, Wissenschaft, Zivilgesellschaft sind gegen das Vorhaben Sturm gelaufen. Mit dem Nein von Rat und EU-Parlament dürfte die Chatkontrolle vom Tisch sein. Kaum beachtet geblieben ist dabei jedoch ein weiteres Überwachungsvorhaben im Vorschlag der Kommission, und zwar die Einführung von Alterskontrollen.

Die EU-Kommission möchte Anbieter nämlich auch dazu verpflichten dürfen, das Alter ihrer Nutzer*innen zu überprüfen. Betroffen sind Dienste, die Erwachsene nutzen können, um sexuelle Kontakte zu Minderjährigen anzubahnen. Das nennt sich Grooming.

Alterskontrollen laufen oftmals auf invasive Maßnahmen heraus. Nutzer*innen müssten dann zum Beispiel ihr Gesicht biometrisch vermessen lassen, damit eine Software ihr Alter schätzt, oder mithilfe von Dokumenten wie dem Ausweis belegen, dass sie erwachsen sind. Mindestens würde es damit für Millionen Nutzer*innen schwerer, sich frei im Netz zu bewegen. Wenn es nicht gelingt, solche Kontrollen sicher zu gestalten, drohen Datenschutz-Verletzungen und massenhafte Überwachung.

Kommission, Rat und Parlament haben teils widersprüchliche Positionen zu den Alterskontrollen. Aktuell verhandeln sie im sogenannten Trilog über die Verordnung – und damit auch über die Zukunft von Alterskontrollen in der EU. Wir liefern die Übersicht über die zentralen Positionen und die Risiken dahinter.

Das will die EU-Kommission

Der Vorschlag der EU-Kommission sieht eine Verpflichtung zu Alterskontrollen bei „interpersonellen Kommunikationsdiensten“ vor, einfach ausgedrückt: Anbietern mit Chatfunktion.

Sie sollen zunächst selbst das Risiko für Grooming einschätzen, also ob ihre Dienste zum Zweck des „sexuellen Kindesmissbrauchs“ eingesetzt werden könnten. Dabei spielt etwa eine Rolle, wie viele Kinder den Dienst überhaupt verwenden, wie leicht sie von Erwachsenen auf der Plattform kontaktiert werden können und welche Möglichkeiten es gibt, solche Kontakte zu melden.

Potenziell von Grooming betroffene Anbieter sollen dann das Alter ihrer Nutzer*innen überprüfen, um Minderjährige „zuverlässig“ zu identifizieren. Die Konsequenz sollen Maßnahmen zur Risikominderung sein. Zwar nennt der entsprechende Artikel im Entwurf kein konkretes Beispiel – denkbar wären aber zum Beispiel eingeschränkte Chat-Funktionen, die keine Gespräche mit Fremden erlauben.

Vergangene Recherchen über Grooming legen nahe: Diese Regelung könnte viele populäre Plattformen treffen, etwa TikTok, Instagram und Roblox oder das unter Gamer*innen beliebte Discord. Auch Messenger wie WhatsApp oder Signal könnten dazu verpflichtet werden, das Alter ihrer Nutzer*innen zu prüfen.

Entscheidend sind hier die Worte „zuverlässig identifizieren“. Eine schlichte Altersabfrage dürfte kaum genügen. Es geht auch nicht bloß darum, dass Anbieter Schutzfunktionen für Minderjährige bereithalten müssen, damit betroffene Minderjährige (oder ihre Aufsichtspersonen) sie einsetzen können. Stattdessen könnte es sein, dass Nutzer*innen in großem Stil beweisen sollen, dass sie schon erwachsen sind.

Zusätzlich sieht die Kommission eine weitere Altersschranke vor, die noch einen Schritt früher ansetzt, und zwar bei „Stores für Software-Anwendungen“. Darunter dürften mindestens der Google Play Store und Apples App Store fallen, je nach Auslegung auch Spiele-Marktplätze wie Steam. Auch dort müssten Nutzer*innen demnach ihr Alter nachweisen, bevor sie Zugang bekommen.

Das will der Rat der EU

Der Rat der EU vertritt die Regierungen der Mitgliedstaaten. Geht es um Alterskontrollen, deckt sich die Ratsposition weitgehend mit dem Vorschlag der Kommission. Auch der Rat will, dass Anbieter, die ein Risiko zur Kontaktaufnahme mit Kindern bei sich feststellen, das Alter ihrer Nutzer*innen kontrollieren. Das Gleiche will der Rat für App Stores.

Für die Ausgestaltung dieser Kontrollen stellt der Rat weitere Anforderungen auf. Demnach sollen die Maßnahmen Privatsphäre und Datenschutz wahren, transparent, akkurat und dabei auch zugänglich und diskriminierungsfrei sein. Der Rat spricht damit Aspekte an, die sich auch an anderer Stelle in EU-Regeln finden, etwa in den Leitlinien zum Jugendschutz im Netz auf Grundlage des Gesetzes über digitale Dienste (DSA).

Der Knackpunkt: Keine Technologie wird all diesen Anforderungen gerecht. Um den Anspruch zu erfüllen, akkurat zu sein, müssten Prüfungen wohl invasiv sein – sonst lassen sie sich täuschen. Typisch sind Kontrollen mit biometrischen Daten oder auf Basis von Dokumenten wie Ausweispapieren. Erstere können Menschen diskriminieren, die nicht ausreichend in den Trainingsdaten eines KI-Systems repräsentiert sind, etwa Women of Color. Letztere können Menschen ausschließen, die keine Papiere haben.

Das will das EU-Parlament

Das EU-Parlament will bei Alterskontrollen einen anderen Weg einschlagen, wie dessen Position zeigt. Streichen will das Parlament demnach die Pflichten für Alterskontrollen auf der Ebene von App-Stores.

Die Marktplätze sollen demnach bloß deutlich ausweisen, wenn Apps erst ab einem bestimmten Alter vorgesehen sind. Zudem sollen sie bei Apps, die das verlangen, die Zustimmung von Erziehungsberechtigten sicherstellen. Diese Maßnahmen könnten etwa Apple und Google bereits umgesetzt haben: Dort gibt es entsprechende Vorkehrungen für Accounts von Minderjährigen, die an Eltern-Accounts gekoppelt sind.

Für die Anbieter von Kommunikationsdiensten will das Parlament im Gegensatz zu Rat und Kommission keine verpflichtenden Alterskontrollen, sondern optionale. Risiken mindern müssen betroffene Anbieter dennoch; sie hätten allerdings die Wahl, auf welche Weise sie das tun.

Weniger invasive Methoden zur Altersprüfung haben einige Plattformen bereits heute im Einsatz. So will TikTok das Verhalten von Nutzer*innen auf Signale untersuchen, die auf ein zu geringes Alter hindeuten, etwa, mit welchen Accounts sie interagieren.

Das Parlament fordert zudem eine Reihe von Auflagen für Alterskontrollsysteme und wird dabei konkreter als der Rat. Demnach soll es für Nutzer*innen weiterhin möglich sein, anonyme Accounts einzurichten, und es sollen keine biometrischen Daten verarbeitet werden dürfen. Zudem sollen Kontrollen nach dem Zero-Knowledge-Prinzip erfolgen. Praktisch heißt das: Anbieter, bei denen man das eigene Alter nachweist, sollen nichts weiter erfahren, außer ob man die nötige Altersschwelle überschreitet. Ein mögliches Werkzeug dafür ist die von der EU in Auftrag gegebene Alterskontroll-App, die künftig Teil der digitalen Brieftasche (EUDI-Wallet) werden soll.

Für Dienste, die sich an Kinder unter 13 Jahren richten, fordert das Parlament zusätzlich, dass sie standardmäßig in ihren Funktionen hohe Sicherheitsstandards wählen. Sie sollen etwa verhindern, dass Nutzer*innen persönliche Daten teilen oder Screenshots machen können.

Gesondert verlangt das Parlament außerdem Regeln für Pornoplattformen. Diese besondere Gruppe von Anbietern soll verpflichtend das Alter von Nutzer*innen kontrollieren. Das entspräche jedoch im Tenor den Anforderungen aus bereits bestehenden EU-Gesetzen wie der Richtlinie über audiovisuelle Mediendienste und dem DSA.

Das steht auf dem Spiel

Alterskontrollen sind nicht nur ein Thema für Kinder und Jugendliche – es geht nämlich darum, alle Nutzer*innen zu kontrollieren, um Minderjährige herauszufiltern. Die deutsche Europa-Abgeordnete Birgit Sippel (SPD) warnt: „Eine verpflichtende Altersverifikation würde eine Ausweispflicht für weite Teile des Internets bedeuten, und zwar vor allem auch für Erwachsene.“ Diese Warnung würde jedoch voraussetzen, dass die EU eine Pflicht zu Alterskontrollen sehr streng auslegt.

Wenn bei Alterskontrollen die Plattformen zum Türsteher werden und Daten auch für andere Zwecken nutzen können, wäre das „höchst problematisch“, so Sippel weiter. Deshalb brauche es Safeguards wie das Zero-Knowledge-Prinzip. „Schließlich darf die Anonymität und Nutzung von Pseudonymen nicht gefährdet werden.“ Außerdem warnt die Abgeordnete davor, Alterskontrollen als Allheilmittel zu betrachten. „Um Kinder effektiv zu schützen, braucht es eine strukturelle Reform der Plattformen, damit Profit nicht mehr aus dem Geschäft mit missbräuchlichen Inhalten geschlagen werden kann.“ Abgeordnete aus anderen Fraktionen haben sich auf Anfrage von netzpolitik.org nicht geäußert.

Für European Digital Rights (EDRi), dem Dachverband von Organisationen für digitale Freiheitsrechte, beobachtet Politikberater Simeon de Brouwer das Gesetzesvorhaben. „Verpflichtende Altersverifikation bei Diensten für zwischenmenschliche Kommunikation ist gefährlich, weil sie die freie Rede unterdrückt“, warnt er. Je nach Art der Kontrollen könnten ganze Gesellschaftsgruppen ausgeschlossen werden – etwa Menschen ohne Papiere. Außerdem warnt er vor Einschüchterung („chilling effects“), wenn der Zugang zu sicherer Kommunikation hinter verpflichtenden Kontrollen steht.

Auch Alterskontrollen auf App-Marktplätzen lehnt de Brouwer ab. „Ein derartiges Maß an Kontrolle und aufdringlicher Datenverarbeitung sollte nicht normalisiert werden – besonders nicht an einem solchen Nadelöhr.“ Es entstehe keine Sicherheit, sondern Kontrolle, wenn der Zugang zu digitalen Werkzeugen vom Überwinden zentraler Prüfsysteme abhängig gemacht wird.

Svea Windwehr ist Co-Vorsitzende des Vereins für progressive Digitalpolitik D64. „Alle bekannten Technologien zur Altersbestimmung im Netz weisen signifikante Schwächen auf“, schreibt sie auf Anfrage. So seien etwa KI-gestützte Altersschätzungen häufig ungenau und „bergen massive Diskriminierungspotenziale, da ihre Leistung stark von Geschlecht, Alter, Hautfarbe und anderen Merkmalen abhängt“. Verifikation anhand von Ausweisdokumenten wiederum könne „eine signifikante Barriere für gesellschaftliche Teilhabe darstellen“.

Unterm Strich würden neue Pflichten zur Altersverifikation „einen Bärendienst für die Privatsphäre von jungen Menschen im Netz“ darstellen, warnt Windwehr. Vor allem würden sie nichts an den strukturellen Problemen ändern, die Plattformen zu unsicheren Räumen für Kinder machen können. „Der politische Anspruch sollte darin bestehen, an der Wurzel des Problems anzusetzen und Plattformen für ihre Produkte zur Verantwortung zu ziehen, statt vulnerable Nutzende auszuschließen.“

So geht es jetzt weiter

Beim Gesetz steht die EU unter gewissem Zeitdruck. Obwohl viele Dienstleister wie etwa Meta bereits jetzt eine freiwillige Chatkontrolle durchführen, fehlt dafür eine dauerhafte Rechtsgrundlage. Möglich ist die Maßnahme nur durch eine vorübergehende Ausnahmeregelung mit Blick auf die Datenschutz-Richtlinie für elektronische Kommunikation. Die Frist dafür endet jedoch im April 2026. Zumindest Kommission und Rat wollen sie um zwei Jahre verlängern; das Parlament müsste dem noch zustimmen.

Weil der Rat sich jahrelang nicht auf eine Position zur Chatkontrolle einigen konnte, war das ganze Gesetzesvorhaben für lange Zeit blockiert. Erst mit der Einigung auf die Ratsposition Ende November wurde der Weg frei für die informellen Trilog-Verhandlungen zwischen Kommission, Rat und Parlament. Beim Trilog versuchen die drei EU-Organe einen Kompromiss zu finden. Verhandelt wird hinter verschlossenen Türen. Dauer: ungewiss; ein Ergebnis ist nicht garantiert.

„Trotz der Differenzen zeigen das Europäische Parlament und der Rat die feste Absicht, intensiv an dem Vorschlag zu arbeiten und so schnell wie möglich eine Einigung zu erzielen“, sagte jüngst der spanische Abgeordnete Javier Zarzalejos (EVP) während einer Ausschuss-Sitzung am 27. Januar. Er ist der zuständige Berichterstatter der konservativen Fraktion im Parlament.

Nach dem ersten Verhandlungstermin am 9. Dezember sollen Verhandlungen auf technischer Ebene am 15. Januar begonnen haben. Aus diesen bis dato zwei Terminen könne Zarzalejos von „guter Atmosphäre und beachtlichem Fortschritt“ berichten. Diskutiert habe man bisher insbesondere das neue EU-Zentrum – das ist die geplante zentrale Anlaufstelle zur Umsetzung der Verordnung. Der nächste Trilog-Termin soll der 26. Februar sein.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Strategien für politisches Engagement: Vier Vorträge vom Hackerkongress, die Mut machen

Von: Sebastian Meineck

Politisch Einfluss nehmen, ohne auszubrennen. Privatsphäre verteidigen, obwohl die Zeichen auf Überwachung stehen. Demokratische Räume stärken – in braunen Nestern. Vier Vorträge vom 39C3 geben interessierten Menschen Motivation und praktische Tipps an die Hand.

Vier Screenshots zeigen die Vortragenden der vier im Artikel besprochenen Talks.
Oben: Hannah Vos, Vivian Kube (links); Svea Windwehr, Chloé Berthélémy (rechts). Unten: Rahel Becker, Anna Kassautzki (links); Lisa Zugezogen, Jaša Hiergeblieben (rechts). CC-BY 4.0 39C3; Montage: netzpolitik.org

2025 war kein erbauliches Jahr für Grund- und Menschenrechte. Während die rechtsradikale Trump-Regierung die USA zu einer Autokratie umkrempelte, brachten Regierungen in der EU und Deutschland teils uralte Überwachungs-Vorhaben wieder voran, und ausgerechnet die deutsche Kanzlerpartei nahm wiederholt die demokratische Zivilgesellschaft ins Visier.

Wenig spricht dafür, dass sich der Tenor im Jahr 2026 ändern wird. Was tun, um nicht in Resignation und Verzweiflung zu verfallen?

Antworten hierzu liefern viele Vorträge vom jüngsten Chaos Communication Congress in Hamburg. Vier mit besonders praktischen Impulsen fassen wir hier kurz zusammen – sie kommen von Jurist*innen, Aktivist*innen und Insider*innen aus dem Bundestag.

1. Politisch Einfluss nehmen: Tipps von Bundestag-Insider*innen

Rahel Becker, Anna Kassautzki
Rahel Becker, Anna Kassautzki - CC-BY 4.0 39C3

📋 Worum geht es? Wer Politik und Gesetzgebung selbst positiv beeinflussen möchte, bekommt im Vortrag „Power Cycles statt Burnout – Wie Einflussnahme nicht verpufft“ eindringliche und konkrete Tipps – mit besonderer Rücksicht darauf, dass man als engagierter Mensch nur begrenzt Zeit und Energie hat.

🗣️ Wer spricht da? Anna Kassautzki war von 2021 bis 2025 Bundestagsabgeordnete der SPD und stellvertretende Vorsitzende des Digitalausschusses. Rahel Becker hat sie als wissenschaftliche Mitarbeiterin unterstützt, unter anderem beim Einsatz gegen das als Chatkontrolle bekannte Überwachungsvorhaben der EU.

💡 Was kann man lernen? Stück für Stück erklären Kassautzki und Becker, wie man zunächst die für das eigene Anliegen relevanten Köpfe identifizieren kann: etwa Abgeordnete (und deren Mitarbeitende) im zuständigen Ausschuss oder Abgeordnete aus dem eigenen Wahlkreis. Außerdem raten sie dazu, das eigene Anliegen prägnant zu verpacken: Auf einem One Pager mit konkreten Beispielen, die auch „Oma“ versteht. Schließlich geben sie Tipps, wie man Bündnisse schmiedet und sich im Netzwerk die Arbeit aufteilt, um sich Gehör zu verschaffen – zu strategisch klug gewählten Anlässen.

🥽 Für wen lohnt sich der ganze Vortrag? Für Menschen, die bereits politische Arbeit machen und sich einen Effizienz-Boost geben wollen – und für alle, die überlegen, damit anzufangen. „Wir glauben, dass es fundamental wichtig ist, dass nicht nur große Konzerne in den Büros von Abgeordneten sitzen“, sagt Rahel Becker, „sondern dass da auch sehr viel Zivilgesellschaft sitzt.“

2. Narrative ändern: Tipps von Digital-Aktivist*innen

Svea Windwehr, Chloé Berthélémy
Svea Windwehr, Chloé Berthélémy - CC-BY 4.0 39C3

📋 Worum geht es? Der englischsprachige Vortrag „The Last of Us – Fighting the EU Surveillance Law Apocalypse“ unternimmt zunächst eine Zeitreise: von den frühen Angriffen auf Verschlüsselung in den Neunzigerjahren bis hin zu den frischen Plänen der EU-Kommission für ein Revival der Vorratsdatenspeicherung. Zuletzt gibt es einen Ausblick, wie sich Überwachungsvorhaben in Zukunft bekämpfen lassen.

🗣️ Wer spricht da? Svea Windwehr ist Co-Vorsitzende von D64, einem Verein für progressive Digitalpolitik, und Policy Advisor bei Mozilla. Chloé Berthélémy ist Policy Advisor bei European Digital Rights (EDRi), dem Dachverband von Organisationen für digitale Freiheitsrechte.

💡 Was kann man lernen? Die Aktivist*innen warnen vor einer Wende im Kampf gegen digitale Überwachung: Ob höchste Gerichte weiterhin gefährliche Vorhaben stoppen, sei inzwischen nicht mehr sicher. „Die digitale Zivilgesellschaft muss umdenken“, warnt Windwehr auf Englisch. „Es ist ein Kampf um Narrative, nicht um Gerichtsverfahren.“ Man müsse neue Wege finden, zu erzählen, warum Datenschutz und Privatsphäre wichtig sind. „Wenn wir das tun, glaube ich, dass Widerstand definitiv möglich ist und dass es noch Hoffnung gibt.“ Notwendig seien zudem breite Allianzen mit bisher ungewohnten Partnern – wie etwa Kinderschutz-Organisationen im Kampf gegen die Chatkontrolle.

🥽 Für wen lohnt sich der ganze Vortrag? Der stufenweise Ausbau staatlicher Überwachung zieht sich wie ein roter Faden durch die letzten drei Jahrzehnte: von den bereits in den 90ern gestarteten Crypto Wars über Fluggastdatenspeicherung und Vorratsdatenspeicherung bis hin zu Chatkontrolle. Der Vortrag zeichnet diesen Faden nach und gibt am Ende Impulse für Interessierte, die sich einbringen wollen.

3. Widerstand als Pflicht: Tipps von Jurist*innen

Hannah Vos, Vivian Kube
Hannah Vos, Vivian Kube - CC-BY 4.0 39C3

📋 Worum geht es? Rechte bis Rechtsextreme von Union bis AfD nutzen die Forderung nach „Neutralität“ als Waffe gegen die demokratische Zivilgesellschaft. Der Vortrag „Wer hat Angst vor dem Neutralitätsgebot?“ buchstabiert aus, in welchen begrenzten Fällen Menschen und Organisationen tatsächlich auf sogenannte Neutralität achten sollten – und wann sie ganz im Gegenteil beherzt Zivilcourage zeigen müssen. Hier haben wir ausführlicher darüber berichtet.

🗣️ Wer spricht da? Hannah Vos und Vivian Kube arbeiten beide als Rechtsanwält*innen in der Berliner Kanzlei KM8 und gehören zum Legal Team von FragDenStaat.

💡 Was kann man lernen? Egal, ob man Bundeskanzlerin oder Abgeordneter ist, Verwaltungsbeamt*in, Lehrer*in, Aktivist*in oder einfach nur angestellt in einem Unternehmen – Kritik und Widerstand gegen Menschenfeindlichkeit sind legal, möglich und in manchen Kontexten sogar Pflicht. „Es gibt keine Neutralität vor den Werten des Grundgesetzes“, bringt Hannah Vos es auf den Punkt.

🥽 Für wen lohnt sich der ganze Vortrag? Der Vortrag entzaubert das sogenannte Neutralitätsgebot als Schreckgespenst, das in vielen Kontexten nicht oder nur unter bestimmten Voraussetzungen gilt. Wer bis zum Ende schaut (oder dorthin springt) erfährt zudem die Geschichte des Druckers Dieter Schlichting, der ein legendäres Grundsatzurteil erstritt: zur Arbeitsverweigerung aus Gewissensgründen, weil er keine Nazi-Prospekte drucken wollte.

4. Räume vor Ort stärken: Tipps von Antifaschist*innen

Lisa Zugezogen, Jaša Hiergeblieben
Lisa Zugezogen, Jaša Hiergeblieben - CC-BY 4.0 39C3

📋 Worum geht es? Bei zwei Landtagswahlen in Ostdeutschland könnte die AfD laut Umfragen im Jahr 2026 stärkste Kraft werden: Sachsen-Anhalt und Mecklenburg-Vorpommern. Vor diesem Hintergrund berichten zwei Aktivist*innen vom Netzwerk Polylux, wie sie antifaschistische Projekte in Ostdeutschland fördern. Titel: „Aber hier Leben? Nein danke! …oder doch? Wie wir der autoritären Zuspitzung begegnen können“.

🗣️ Wer spricht da? Die Vortragenden Jaša Hiergeblieben und Lisa Zugezogen vertreten das seit 2019 aktive Netzwerk Polylux. Über Fördermitgliedschaften und Spenden verteilt der Verein Geld an Projekte im ländlichen ostdeutschen Raum.

💡 Was kann man lernen? Gerade im Gespräch mit Menschen aus dem Publikum gibt es motivierende Impulse. So kritisiert Jaša, dass die Brandmauer-Proteste (2024-2025) zwar für begrenzte Zeit Massen auf die Straße gebracht hatten, aber danach wieder verhallt sind. Polylux dagegen interessiert sich für nachhaltige Strukturen: zum Beispiel Gemeinschaften und Treffpunkte, die Menschen zusammenbringen, vor allem in rechtsextrem geprägten Regionen. Selbst wenn man sich am eigenen Wohnort nur mit wenigen coolen Menschen zusammenschließt, ist es „super wichtig zu wissen: Ich bin nicht alleine“, so Jaša. Und falls jemand für Westdeutschland ein ähnliches Netzwerk wie Polylux gründen möchte, „dann macht das, macht damit einfach los!“

🥽 Für wen lohnt sich der ganze Vortrag? Wer die strukturellen Probleme hinter rechtsextremer Radikalisierung besser verstehen will, findet in den Schilderungen der Aktivist*innen Erklärungen. Um die vorwiegend düsteren Aussichten aufzuhellen, berichten die beiden aber auch von erfolgreichen Projekten im Osten – wie dem ersten CSD in Grevesmühlen, Mecklenburg-Vorpommern.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Beleidigter Bundeskanzler: Wie viel „Arschloch“ darfs denn sein?

Von: Markus Reuter

Friedrich Merz hat laut Medienrecherchen in hunderten Fällen mutmaßliche Beleidigungen strafrechtlich verfolgen lassen. Geht es dabei um die Bekämpfung von Hass im Netz oder schränken die Verfahren die freie Meinungsäußerung ein?

Mann mit Brille, Anzug und Krawatte an einem Rednerpult sitzend
Bei Beleidigungen gegen seine Person reagiert Friedrich Merz äußerst dünnhäutig. (Archivbild) – Alle Rechte vorbehalten IMAGO / Bihlmayerfotografie

Bundeskanzler Friedrich Merz ist nicht gerade zimperlich, wenn es darum geht, Länder („ordentliches Stück Brot“), Städte („Belem“) oder ganze Bevölkerungsgruppen („kleine Paschas“ und „grüne und linke Spinner“) zu beleidigen. Wenn allerdings er selbst im Fokus steht, wird er offenbar schnell dünnhäutig.

Wie wenig Friedrich Merz verträgt, ließ sich bereits bei anlässlich einer Karnevalsrede von Marie-Agnes Strack-Zimmermann im Jahr 2023 beobachten. Da ging es weniger um Beleidigungen als vielmehr um spitzzüngige Kritik, die bei ihm schmale Lippen und Kopfschütteln auslöste. Nach der Rede trat Merzens Büro gar in Kontakt mit der bekannten Büttenrednerin, was Strack-Zimmermann süffisant verbreitete.

Es kam sogar zu Hausdurchsuchungen

Durch Recherchen verschiedener Medien kam nun heraus, dass Friedrich Merz seit 2021 – noch als Oppositionsführer der Union – zahlreiche Strafanträge wegen mutmaßlicher Beleidigungen gegen ihn gestellt hat. In mindestens zwei Fällen führten diese zu Hausdurchsuchungen.

Die Strafanträge sind laut den Recherchen anfangs auf Initiative von Merz entstanden. Seit Merz Kanzler ist, lässt er quasi von Amts wegen ermitteln, indem er den Ermittlungen nicht widerspricht. Die „Welt“ geht davon aus, dass Merz vor seiner Amtszeit als Unions-Chef Hunderte Strafanträge gestellt hat. Ein netzpolitik.org vorliegendes Dokument der Kanzlei Brockmeier, Faulhaber, Rudolph, die Merz in seiner Zeit als Bundestagsabgeordneter vertreten hat, mit fortlaufenden Fallnummern untermauert diese Schätzungen. Zwischen Mai und Dezember dieses Jahres sind laut Informationen des nd etwa 170 Strafanzeigen wegen Beleidigung gestellt worden.

Eine offizielle Bestätigung der Fallzahlen gibt es nicht, wie der Tagesspiegel berichtet. Die Zeitung befindet sich in juristischen Auseinandersetzungen mit dem Kanzleramt, das in dieser Causa trotz Informationspflicht mauert und sich anwaltlich gegen das Informationsbegehren der Presse wehrt.

Moderne Majestätsbeleidigung

Dass ohne die aktive Mithilfe von Friedrich Merz in seiner Funktion als Bundeskanzler ermittelt werden kann, ermöglicht Paragraf 188 des Strafgesetzbuches, der Amtsträger:innen und Politiker:innen bis in die kommunale Ebene hinein vor Beleidigungen schützen soll. Der Paragraf bietet – zusammen mit den Paragrafen 90 (Verunglimpfung des Bundespräsidenten) und Paragraf 90b (Verfassungsfeindliche Verunglimpfung von Verfassungsorganen) – quasi moderne Möglichkeiten, „Majestätsbeleidigungen“ zu ahnden. Im Gegensatz zum klassischen Beleidigungsparagraf 185 StGB können Staatsanwaltschaften beim Paragraf 188 StGB von Amts wegen ermitteln. Bei der klassischen Beleidigung braucht es einen Antrag der betroffenen Person.

Die mutmaßlichen Beleidigungen werden den Ermittlungsbehörden – und später dem Bundeskanzleramt – vermutlich überhaupt erst bekannt, weil die Infrastruktur von Hatespeech-Meldestellen diese auffindet und an die Bundesbehörde weiterleitet. Laut den Recherchen der Tageszeitung „Die Welt“ ist daran maßgeblich die dem hessischen Innenministerium unterstellte Meldestelle „Hessen gegen Hetze“ beteiligt. Sie übermittelt Meldungen an die Zentrale Meldestelle für strafbare Inhalte im Internet (ZMI), die beim Bundeskriminalamt (BKA) angesiedelt ist. 92 Prozent aller Paragraf-188-Meldungen, die das ZMI erhält, stammen von der hessischen Meldestelle. Andere Meldestellen wie „Respect!“ oder die Landesmedienanstalten seien laut nd in weit geringerem Umfang beteiligt. Insgesamt habe das ZMI nach Auskunft eines Sprechers in den ersten neun Monaten dieses Jahres 5155 gemeldete Fälle mit dem Straftatbestand des Paragrafen 188 StGB kategorisiert.

Leberwurst auf Gabel.
Personen, die schnell beleidigt sind, werden in Deutschland gerne als „beleidigte Leberwurst“ bezeichnet. (Symbolbild) - Alle Rechte vorbehalten IMAGO / Westend61

Spitzenpolitiker als Mandanten

Aber auch privatwirtschaftliche Dienste wie „So-Done“ haben bei der Verfolgung von Beleidigungen offenbar ihre Finger im Spiel. Laut Recherchen der Welt hat der Rechtsanwalt und FDP-Politiker Alexander Brockmeier die meisten der Strafanzeigen von Merz unterschrieben, die dieser während seiner Zeit als Bundestagsabgeordneter gestellt hat. Brockmeier hat die So Done GmbH zusammen mit seiner Parteikollegin Franziska Brandmann gegründet, eine Art Legal Tech Unternehmen, das Hate Speech verfolgt.

Laut Informationen der Welt haben neben Friedrich Merz in der Vergangenheit unter anderem Robert Habeck (Grüne), Julia Klöckner (CDU), NRW-Ministerpräsident Hendrik Wüst (CDU) und Bundesforschungsministerin Dorothee Bär (CSU) den Dienst in Anspruch genommen. Der Bundeskanzler nutze den Dienst mittlerweile nicht mehr.

„Werkzeug, um Leute aus dem Diskurs zu drängen“

Gleich acht Strafanträge von Friedrich Merz hat der Berliner Umwelt- und Klimaaktivist Tadzio Müller erhalten. Müller hatte Friedrich Merz auf Bluesky und Twitter mehrfach als Beispiel für seine Theorie der „Arschlochgesellschaft“ herangezogen und den Kanzler kontexualisierend wahlweise ein „schamloses“ oder „rassistisches Arschloch“ genannt.

Müllers Rechtsanwalt Jannik Rienhoff findet es laut dem nd falsch, wenn Merz Postings zur Anzeige bringen lässt, die einen klaren politischen Kontext haben. Da dürfe man viel sagen und das zu Recht. „Bei einer Formalbeleidigung würde ich es verstehen, allerdings könnte Merz auch darüber stehen“, so Rienhoff gegenüber dem nd. Den Paragrafen 188 StGB, der Ermittlungen auch ohne direkten Strafantrag des Bundeskanzlers ermöglicht, kritisiert der Anwalt dabei grundsätzlich. Dieser sorge unnötigerweise für hohe Kosten und für einen enormen Aufwand für Betroffene.

„Systematische Strafverfahren wegen Bagatellbeleidigungen“

Das sieht auch Tadzio Müller so. Er ist überzeugt, dass es bei den Anzeigen nicht um die Bekämpfung von Hass im Netz gehe, sondern dass sie eine neue Form von Cyber-Bullying darstellen: „Ressourcenstarke Akteure wie Merz haben mit diesen Verfahren ein weiteres Werkzeug in der Hand, um Leute aus dem Diskurs zu drängen.“

Es handle sich um ein Werkzeug, das nicht nur emotional, sondern auch ökonomisch schmerze: „Jede dieser Anzeigen produziert Anwaltskosten bei den Betroffenen“, so Müller gegenüber netzpolitik.org.

Ähnlich sieht das auch Eva Meier*, die erst im November Post vom Landeskriminalamt Hamburg wegen einer mutmaßlichen Beleidigung des Kanzlers erhalten hat: „Seine Bürgerinnen und Bürger systematisch mit Strafverfahren wegen Bagatellbeleidigungen zu überziehen, ist eines Kanzlers nicht würdig“, sagt sie gegenüber netzpolitik.org. „Das ist kein Vorgehen gegen Hass im Netz, sondern schränkt gezielt die freie Meinungsäußerung ein.“

*Der wahre Name ist der Redaktion bekannt.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Neue irische Datenschutzbeauftragte: Menschenrechtsorganisation reicht Beschwerde bei EU-Kommission ein

Von: Paula Clamor

Der Streit um die Berufung der ehemaligen Meta-Angestellten Niamh Sweeney zur irischen Datenschutzbeauftragten erreicht Brüssel. Doch auch nach einer formalen Beschwerde des Irish Council for Civil Liberties will die EU-Kommission offenbar nicht in das Verfahren eingreifen.

Bild des Gebäudes der EU-Kommission. Menschen stehen auf einem regenbogenfarbenden Fußgängerüberweg vor dem Gebäude.
Die EU-Kommission sei nicht zuständig, sagt die Kommission. – Alle Rechte vorbehalten IMAGO / Michael Kneffel

Das Irish Council for Civil Liberties (ICCL) hat am 28. Oktober eine formale Beschwerde bei der EU-Kommission eingereicht. Darin kritisiert die Menschenrechtsorganisation die Ernennung von Niamh Sweeney zur Leiterin der irischen Data Protection Commission (DPC). Die Berufung stelle die Unabhängigkeit der Datenschutzbehörde infrage.

Bereits vergangene Woche hatten mehrere Nichtregierungsorganisationen der irischen Regierung einen Beschwerdebrief übergeben, in dem sie die Ernennung Sweeneys kritisieren. Als Grund führen sie zum einen an, dass diese mehr als sechs Jahre als Lobbyistin für den Tech-Konzern Meta tätig war. Meta ist eines der Unternehmen, das die DPC überwacht.

Zum anderen kritisieren die NGOs das Auswahlverfahren selbst. Dafür stellte das Unternehmen publicjobs ein Gremium aus fünf Personen zusammen. Darunter war auch Leo Moore. Der Anwalt der Kanzlei William Fry hat mit mehreren Big-Tech-Unternehmen zusammengearbeitet. Neben Moore gehörte außerdem ein Vertreter des irischen Justizministeriums dem Auswahlgremium an: Deputy Secretary General Doncha O’Sullivan.

Irland: Liebling der Tech-Branche

In seiner Beschwerde betont das ICCL, dass die DPC eine Schlüsselposition bei der Durchsetzung der europäischen Datenschutzgrundverordnung (DSGVO) einnehme. Außerdem müsse die irische Datenschutzkommission laut EU-Recht vollkommen unabhängig gegenüber jeglichen Weisungen von außen agieren – auch gegenüber möglicher Einflussnahme der irischen Regierung.

Viele Technologiekonzerne haben ihren europäischen Hauptsitz in Irland, darunter Meta, Google, Apple, Microsoft und TikTok. Die Unternehmen tragen einen erheblichen Teil zu Irlands Wirtschaft bei. Und Meta allein zahlte im Jahr 2023 mehr als 280 Millionen Euro Steuern an die irischen Behörden.

Derweil geriet die Durchsetzung der DSGVO in Irland den vergangenen Jahren immer wieder ins Stocken. Im Jahr 2022 klagte die DPC sogar gegen eine Entscheidung des ihr übergeordneten European Data Protection Board, um keine weitergehenden Ermittlungen zu Metas Datenverarbeitung aufnehmen zu müssen.

Die Berufung Sweeneys zur dritten Datenschutzkommissarin lässt den ICCL an der Unabhängigkeit der Datenschutzbehörde zweifeln. In ihrer Beschwerde an die EU Kommission schreibt die Organisation:

„Angesichts der bisherigen Bilanz der irischen Datenschutzkommission und der begründeten Zweifel an ihr hätte Irland sich über jeden Vorwurf [der Parteilichkeit] erheben müssen, unter anderem durch die Einführung von Verfahrensgarantien für die Ernennung der Mitglieder seiner Behörde.“

EU-Kommission will offenbar nicht eingreifen

Bei einer Pressekonferenz der EU-Kommission am 29. Oktober erkundigte sich eine Journalistin bei einem Kommissionssprecher, ob die Kommission die Beschwerde des ICCL annehmen werde. Der Sprecher antwortete, dass die europäischen Mitgliedstaaten für die Besetzung ihrer jeweiligen Datenschutzbehörde zuständig seien.

Die Kommission sei nicht in das Auswahlverfahren involviert gewesen und habe auch keine Kompetenzen einzuschreiten. Zugleich versuche die Kommission „immer sicherzustellen […], dass alle europäischen Datenschutzbehörden die Mittel und Unabhängigkeit haben, um ihrer Arbeit nachzugehen“.

Die Reaktion der EU-Kommission kritisiert Itxaso Domínguez de Olazábal vom Verband europäischer Digitalorganisationen European Digital Rights (EDRi): „Die Kommission kann nicht weiter wegschauen, während eine nationale Regulierungsbehörde die Grundsätze der Union untergräbt“, sagt de Olazábal gegenüber netzpolitik.org. „Der Schutz personenbezogener Daten und Grundrechte ist Teil dessen, wofür die EU steht – und die Kommission muss entsprechend handeln.“

Domínguez betont, dass die Beschwerde des ICCL nicht nur auf das Auswahlverfahren, sondern auch auf die Unabhängigkeit der DPC beziehe. Daher liege das Verfahren durchaus im Zuständigkeitsbereich der Kommission. „Die Kommission konzentriert sich offenbar auf das Auswahlverfahren und übersieht dabei das tieferliegende Problem: die anhaltende mangelnde Unabhängigkeit der irischen Datenschutzbehörde, die durch diese Ernennung offengelegt wird“.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

AI Act: Wird sich die KI-Regulierung verzögern?

Von: Anna Ströbele Romero

Eigentlich sollen zentrale Teile der europäischen KI-Verordnung im August 2026 in Kraft treten. Weil aber bestimmte Standards noch fehlen, fordern Unternehmen, die Frist nach hinten zu verschieben. Organisationen wie European Digital Rights (EDRi) sehen darin einen großen Fehler, doch die Aufschiebung scheint immer wahrscheinlicher.

Mit dem Slogan „Stop the clock“ fordert die Industrie, Regeln der KI-Verordnung zu verzögern. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Malvestida

Im August 2024 hat die EU die KI-Verordnung (AI Act) verabschiedet. Wie vorgesehen tritt sie schrittweise in Kraft: Etwa müssen seit August 2025 Anbieter von KI-Modellen mit allgemeinem Verwendungszweck darlegen, welche Inhalte sie für das Training verwenden, wie sie dabei das Urheberrecht einhalten, wie die Modelle funktionieren und welche Risiken bestehen.

Auch Verbote von KI-Anwendungszwecken wie dem Social Scoring gelten schon seit Februar 2025. Seit August dieses Jahres sollten außerdem die EU-Mitgliedsstaaten auf nationaler Ebene die zuständigen Behörden einrichten – in Deutschland ist das vor allem die Bundesnetzagentur.

Industrie will Frist um bis zu zwei Jahre schieben

Alle anderen Regeln, also auch die Regulierung von Hochrisikosystemen, treten erst am 2. August 2026 in Kraft – zumindest eigentlich. Schon seit längerer Zeit fordern Unternehmen und Industrieverbände, diese Frist nach hinten zu verschieben. Die Initiative wurde unter dem Slogan „Stop the clock“ (Stopp die Uhr) bekannt. Doch wie begründen sie die Verschiebung einer gesetzlich festgelegten Frist?

Für die Umsetzung der Verordnung werden Standards entwickelt, die Unternehmen helfen sollen, den Gesetzestext in notwendige Handlungsschritte zu übersetzen, quasi wie eine Checkliste. Doch ihre Entwicklung zögert sich hinaus. Die Industrie argumentiert, dass dadurch zu wenig Zeit bleibe, um sich auf die Verordnung vorzubereiten. IBM meint sogar, dass die Standards womöglich erst Ende 2026 fertiggestellt würden.

Der Konzern arbeitet selbst an der Entwicklung der Standards mit und fordert, dass die Vorschriften erst ein Jahr nach Veröffentlichung der Standards gelten sollen. Aktuell würden mehrere Standards als Entwürfe vorliegen, doch es müsse noch weiter daran gearbeitet werden, um sie umsetzbar und praktikabel zu machen. Der Bundesverband der Deutschen Industrie (BDI) und Siemens fordern hingegen eine Verschiebung der Frist um zwei Jahre. Das neue Datum wäre somit der 2. August 2028.

Tatsächlich müsste die Frist nicht verschoben werden. Es wäre auch möglich, die Anforderungen zu „pausieren“, also die Fristen beizubehalten, aber für Verstöße keine Strafen zu verhängen.

NGOs: Verschiebung schadet der Glaubwürdigkeit der EU

Das ist die eine Seite. Auf der anderen Seite stehen Organisationen der Zivilgesellschaft, die sich klar gegen eine Verzögerung aussprechen, wie in einem Brief an die Digitalkommissarin Henna Virkkunen Ende September deutlich wurde. 31 Organisationen unterschrieben ihn. Initiiert wurde der Brief von der Organisation European Digital Rights (EDRi), die verschiedene NGOs bündelt. Sie argumentiert, dass sich Unternehmen und Behörden schon seit über einem Jahr auf die Verordnung vorbereiten würden. Dafür hätten sie bereits Zeit und Geld investiert. Sollte sich die Frist jetzt ändern, würde das rechtliche Unsicherheit hervorrufen und womöglich diejenigen bestrafen, die besonders schnell in der Umsetzung waren, so die Organisation.

Die europäische Verbrauchervertretung ANEC setzt sich in Normungsprozessen für die Perspektive der Verbraucher:innen ein und bringt bezüglich der KI-Verordnung einen weiteren Aspekt ins Spiel: Die Verschiebung der Frist würde der internationalen Glaubwürdigkeit der EU als globaler Spitzenreiter in der KI-Regulierung schaden. Sie betont auch, dass die Standards zwar eine wichtige, aber letztlich nur freiwillige Hilfestellung wären und die Verordnung auch ohne sie umgesetzt werden könne. Der Schutz der Verbraucherrechte und die Notwendigkeit vertrauenswürdiger KI würden „bei weitem“ die Unannehmlichkeiten überwiegen, die mit der Arbeit ohne harmonisierte Standards verbunden sind, so ANEC.

Der Verbraucherschutzzentrale Bundesverband (vzbv) macht darauf aufmerksam, dass durch eine Verzögerung auch Verbraucher:innen erst später auf wichtige Rechte zugreifen könnten. Dazu gehört die Erkennung von Hochrisikosystemen durch eine verpflichtende Kennzeichnung oder das Recht, sich KI-Entscheidungen erklären zu lassen. Auch würde die Verzögerung ein „schädliches politisches Signal“ senden, findet der vzbv. Wenn die Kommission dem Druck der Industrie nachgebe und Verbraucherrechte für „kurzfristige kommerzielle Interessen“ opfere, werde das Vertrauen der Öffentlichkeit in das Engagement der EU für den Schutz der Menschen untergraben, heißt es im Statement.

Entscheidung am 19. November

Beobachter vermuten, dass die Kommission eher zu der Verschiebung der Fristen tendiert. Eine offizielle Entscheidung gibt es jedoch noch nicht, bestätigte Kommissionssprecher Thomas Regnier heute. Diese wird am 19. November veröffentlicht. An diesem Datum wird die EU-Kommission den Digital-Omnibus vorstellen – das Vorhaben für die Vereinfachung von mehreren europäischen Digitalregulierungen. Einer Veränderung der KI-Verordnung müssten dann noch das Parlament und der Rat zustimmen. Dann kommt es also auch auf die Haltung der Mitgliedsstaaten an.

Deutschland hat sich mittlerweile positioniert und fordert ebenso eine Verschiebung der Frist – allerdings nur um ein Jahr. So sollen KI-Anbieter ausreichend Zeit bekommen, um die Standards umzusetzen. Das ist die „innovationsfreundliche Auslegung der KI-Verordnung“, welche Unionspolitiker:innen in den vergangenen Jahren immer wieder gefordert hatten. Ziel sei demnach, die europäische Wettbewerbsfähigkeit im KI-Markt zu stärken und damit mehr digitale Souveränität im Sinne der Nutzung europäischer Lösungen zu erreichen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Offener Brief: Bürgerrechtsorganisationen pochen auf Unabhängigkeit der irischen Datenschutzaufsicht

Von: Paula Clamor

Die Berufung der ehemaligen Meta-Angestellten Niamh Sweeney zur neuen irischen Datenschutzbeauftragten sorgt weiter für Empörung. Mehr als 40 Nichtregierungsorganisationen wenden sich nun in einem offenen Brief an die EU-Kommission.

Meta-Chef Mark Zuckerberg lächelt breit in die Kamera. Er trägt eine schwarze Sonnenbrille.
Dürfte sich über die Ernennung Sweeneys freuen: Meta-Chef Mark Zuckerberg – Alle Rechte vorbehalten IMAGO / Cover-Images

Mehr als 40 Nichtregierungsorganisationen sprechen sich in einem offenen Brief gegen die neuberufene irische Datenschutzbeauftragte aus. Zu den Unterzeichnern zählen unter anderem Access Now, ARTICLE 19, European Digital Rights (EDRi) und Statewatch. Ihren offenen Brief gegen die Ernennung von Niamh Sweeney zur dritten Datenschutzkommissarin der irischen Data Protection Commission (DPC) reichten die Organisationen gestern bei der irischen Regierung ein.

Die ehemalige Journalistin Sweeney arbeitete mehrere Jahre in unterschiedlichen Funktionen für den Tech-Konzern Meta. Sie war unter anderem die irische „Head of Public Policy“ von Facebook. Im September dieses Jahres hatte die irische Regierung sie zur Commissioner for Data Protection ernannt.

Bereits unmittelbar nach der Personalentscheidung regte sich Protest. Max Schrems von der österreichischen Nichtregierungsorganisation noyb kritisierte die Entscheidung als Selbstregulierung von und durch Big Tech:

„Wir haben jetzt buchstäblich eine Lobbyistin der US-Big-Tech-Branche, die die US-Big-Tech-Branche für Europa überwacht. 20 Jahre lang hat Irland das EU-Recht nicht wirklich durchgesetzt. Aber zumindest hatte die irische Regierung genug Schamgefühl, um die Durchsetzung heimlich zu untergraben.“

Die NGOs sehen in der Entscheidung ein „besorgniserregendes Level von Missachtung von europäischem Recht“. Sweeney habe sich vor wenigen Monaten noch für große Tech-Unternehmen eingesetzt. Auch fürchten die Unterzeichnenden, dass Sweeney an sogenannte Non-disclosure Agreements gebunden sein könnte, die sie dazu verpflichten, Geschäftsgeheimnisse etwa von Meta zu wahren. Ihre Ernennung stelle die Unabhängigkeit der DPC ernsthaft in Zweifel, so die NGOs.

Undurchsichtiges Auswahlverfahren

Auch das Auswahlverfahren von Niamh Sweeney kritisieren die Nichtregierungsorganisationen in ihrem Schreiben. Laut einem Bericht von Politico gehörte dem Ausschuss, der Sweeney rekrutiert hat, unter anderem der Anwalt Leo Moore an. Moore ist Partner bei der Kanzlei William Fry. Er vertritt nationale sowie multinationale Unternehmen in der Technologiebranche. Ein Mitbewerber Sweeneys hatte Moore Interessenskonflikte unterstellt, seine Beschwerde gegen die Zusammenstellung des Ausschusses blieb allerdings erfolglos.

Auch die DPC selbst wird von den NGOs kritisiert. „Das Fehlen einer wirksamen Durchsetzung ist mittlerweile systemisch geworden, wodurch Irland zum Nadelöhr bei der Anwendung der Datenschutz-Grundverordnung wurde“, schreiben die Bürgerrechtsorganisationen.

Um das Vertrauen in die DPC zu fördern, schlagen die NGOs zwei Maßnahmen vor. Sie fordern zum einen ein neues Auswahlverfahren, um die Stelle der Datenschutzbeauftragten mit einer Person zu besetzen, die nachgewiesenermaßen über ausreichend Qualifikationen bei den Themen Grundrechte und Datenschutz verfügt. Zum anderen drängen sie darauf, das bestehende Auswahlverfahren unabhängig prüfen zu lassen.


Der offene Brief in Wortlaut


Date 14-10-2025

Re: Concerns Regarding the Independence of the Irish Data Protection Commission Following Recent Appointment

For the attention of Michael McGrath, European Commissioner for Democracy, Justice, the Rule of Law and Consumer Protection.

Dear Commissioner,

We, a large group of civil society organisations are writing to you to express our extreme concern regarding the recent appointment of the new Commissioner at the Irish Data Protection Commission (DPC). The person in question has held a long-standing senior public affairs position at one of the largest technology platforms that the DPC is mandated to regulate, and indeed in her latest role (which ended only last August) continued to advocate on behalf of these platforms. All this raises serious questions about the perception and reality of the DPC’s independence at a time when its impartiality is of critical importance for the entire Union.

The GDPR requires, under Article 52, that supervisory authorities act with full independence. Equally, Article 41 of the Charter requires that procedures are handled ‚impartially‘ and ‚fairly‘. This principle is fundamental to the credibility of the Regulation and to the rights it is designed to protect. Its importance is amplified in Ireland, where the DPC has responsibility as lead supervisory authority for many of the world’s largest technology companies. Indeed, the importance of independence has already been affirmed by the Court of Justice in Case C-288/12 Commission v. Hungary, where the premature ending of a data protection supervisor’s mandate was found to have violated EU law. This precedent underlines both the necessity of safeguarding supervisory authorities‘ independence and the Commission’s role in ensuring compliance.

Concerns about enforcement are long-standing and ongoing. At the Irish DPC, investigations against major companies have been seldom in the last several years, with critical decisions often only materialising, if at all, under pressure from the European Data Protection Board (EDPB) and other Member State authorities, or indeed even after intervention by the Court of Justice of the European Union (CJEU). Patterns of delayed or limited enforcement continue to undermine trust in the DPC as an effective enforcer of the law.

Furthermore, recent revelations have confirmed that intimate data, including sensitive information about survivors of sexual abuse, is still being traded through real-time bidding systems with the case having been discussed at a session in the Irish parliament in the last weeks. That this continues today is the direct result of years of inaction by the Irish DPC, despite clear evidence of unlawful practices. This failure is not limited to one case. Since 2017, civil society organisations have filed highly important and strategic complaints in Ireland, yet these cases have either not been treated or have faced years of delay. The absence of meaningful enforcement has become systemic, making Ireland the bottleneck in the application of the GDPR.
The appointment of a Commissioner with such close ties to an industry under investigation threatens to only reinforce perceived distrust in the Irish DPC at precisely a time when even greater assurances of independence are needed given wider geo-political events. Any contractual obligations, such as non-disclosure agreements with entities regulated by the DPC, would exacerbate these risks from the outset.

The broader context only further compounds these concerns. Across the Union, data protection is increasingly under pressure, with proposals to weaken safeguards under the guise of simplification. Enforcement of the GDPR has too often been treated as a secondary priority, despite being essential to the protection of fundamental rights. The credibility of the EU’s digital rulebook depends on strong, impartial, and effective supervisory authorities.

We therefore respectfully urge the European Commission to:

  • Assess whether the independence of the Irish DPC can be guaranteed under Article 52 GDPR and Article 41 CFR in light of this appointment;
  • Clarify the steps the Commission will take if the independence of a supervisory authority is compromised, including the initiation of infringement procedures where appropriate;
  • Develop a work programme to demonstrate how the task entrusted to you in this mandate – the effective enforcement of the GDPR (as set out in your mandate letter) – will be put into practice as a political priority, including EU-level safeguards to prevent conflicts of interest in supervisory authorities, including transparent appointment processes and revolving-door restrictions.

Ensuring that supervisory authorities are independent, impartial, and effective is not only a legal requirement but also a political necessity for safeguarding rights and maintaining public trust. Undermining supervisory authority independence also risks weakening protections guaranteed under the Charter of Fundamenta Rights. We remain at your disposal for further discussion and would be glad to contribute to the Commission’s reflections on this matter.

Yours sincerely,

Access Now
AI Accountability Lab, Trinity College Dublin
AI Forensics
Albanian Media Council
Alliance4Europe
ARTICLE 19
Asociația pentru Tehnologie și Internet (ApTI)
Balanced Economy Project
Bits of Freedom
Center for Countering Digital Hate
Civil Liberties Union for Europe
Coalition for Women In Journalism
Corporate Europe Observatory
Defend Democracy
Ekō
Electronic Frontier Norway
European Digital Rights (EDRi)
Global Witness
HateAid
Homo Digitalis
Hope and Courage Collective
ICCL
Irish Network Against Racism
IT-Pol
Lie Detectors
LobbyControl
New School of the Anthropocene
noyb
Open Markets Institute
Panoptykon Foundation
People Vs Big Tech
Politiscope
The Good Lobby
SOMI
Statewatch
SUPERRR Lab
Uplift, People Powered Change
Vrijschrift.org
Waag Futurelab
WHAT TO FIX
Xnet, Institute for Democratic Digitalisation


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

NGOs fordern: Apple soll echte Interoperabilität umsetzen

Von: Tomas Rudl

Der Digital Markets Act der EU zwingt große Anbieter wie Apple, ihre Systeme für den Wettbewerb zu öffnen. Doch wie dies im Detail aussehen soll, ist hart umkämpft. Zivilgesellschaftliche Gruppen fordern nun von der EU-Kommission, Apple zu einem besseren Zusammenspiel mit der Konkurrenz zu zwingen.

Manche Dienste hat Apple in der Vergangenheit vor der Konkurrenz abgeschottet. Das soll der Digital Markets Act ändern. – Alle Rechte vorbehalten IMAGO / Dreamstime

Apple soll seine Betriebssysteme, die vom Digital Markets Act (DMA) erfasst werden, von Grund auf auf Interoperabilität ausrichten. Das fordern zivilgesellschaftliche Gruppen wie die Free Software Foundation Europe (FSFE) und European Digital Rights (EDRi) in einer gemeinsamen Stellungnahme. Diese hatte die EU-Kommission in einer letzte Woche zu Ende gegangenen öffentlichen Konsultation von interessierten Parteien eingeholt.

Der seit März des Vorjahres EU-weit geltende DMA soll sicherstellen, dass besonders große Digitalunternehmen ihre Marktmacht nicht missbrauchen. Als sogenannte Gatekeeper eingestufte Unternehmen und die von ihnen angebotene Dienste unterliegen eigenen Regeln. Zudem drohen ihnen bei Verstößen empfindliche Geldbußen von bis zu 10 Prozent des weltweiten Jahresumsatzes.

Apple zählt zu den insgesamt sieben IT-Firmen, die bislang von der EU-Kommission zu Gatekeepern erklärt worden sind. Im Fokus stehen hierbei der App Store, der Browser Safari sowie die mobilen Betriebssysteme iOS und iPadOS.

Apple muss seine Systeme öffnen

Als Folge des DMA muss Apple etwa alternative Vertriebswege für Apps bereitstellen, das Zusammenspiel von Smartwatches oder Kopfhörern anderer Hersteller mit seinen Betriebssystemen verbessern oder Airplay und Airdrop für Dritt-Anbieter ohne Hindernisse freigeben. Einige Auflagen setzt Apple bereits mal mehr, mal weniger um, gegen andere wehrt sich das US-Unternehmen teils juristisch, teils politisch. Im Falle des Messenger-Dienstes iMessage hat die Kommission nach einem Einspruch von Apple letztlich darauf verzichtet, ihn zu einem „zentralen Plattformdienst“ zu erklären.

In der jüngsten Konsultation der EU-Kommission ging es um Regulierungsvorschläge, die Brüssel im Dezember vorgelegt hatte. Demnach soll Apple eine Reihe an konkreten Maßnahmen ergreifen, um bestimmte Vorgaben des DMA vollumfänglich umzusetzen. Unter anderem geht es um Details der im EU-Gesetz skizzierten Regeln zur Interoperabilität.

Grundsätzlich sollen Dritt-Entwickler:innen etwa auf tief in den Betriebssystemen verankerte Funktionen zugreifen dürfen, die zuvor nur Apple offenstanden. Allerdings hat das Unternehmen eigene Vorstellungen davon, wie dieser Zugriff aussehen soll. Derzeit sieht der von Apple in die Welt gesetzte Prozess ein mühseliges Antragsverfahren vor, dem sich Entwickler:innen unterwerfen müssen – ohne Garantie, dass der gewünschte Zugriff letztlich wirklich gewährt wird.

NGOs fordern deutlich mehr Offenheit

Damit sind weder die EU-Kommission noch die Open-Source-Community zufrieden. In ihrer Stellungnahme drängen die zivilgesellschaftlichen Gruppen nun darauf, eine langfristig tragbare Lösung zu finden. „Wir begrüßen die Schritte der Europäischen Kommission, wirksame und transparente Maßnahmen von Apple zu fordern, aber eine grundlegende Umstellung auf ‚Interoperabilität durch Design‘ wäre die wirkungsvollste Verbesserung“, sagt Lucas Lasota von der FSFE.

Beim DMA gehe es nicht nur darum, so Lasota weiter, den Wettbewerb zwischen Gatekeepern zu regulieren, sondern auch darum, gleiche Wettbewerbsbedingungen für KMU und kleinere Softwareentwickler zu schaffen. Daher sei es von „entscheidender Bedeutung, Apples Ansatz zur Interoperabilität einer strengen Prüfung durch die Kommission und die Zivilgesellschaft zu unterziehen.“ Im Moment sei der von Apple gewählte Ansatz „offensichtlich mangelhaft und strukturell nicht in der Lage, die von der DMA geforderte effektive Interoperabilität zu gewährleisten“, führt die Stellungnahme näher aus.

Neben dieser grundlegenden Umstellung fordert die Stellungnahme eine längst überfällige, möglichst lückenlose und diskriminierungsfreie Dokumentation von Programmierschnittstellen, sogenannten APIs. Die Dokumentationen müssten zudem öffentlich zugänglich und kostenlos zur Verfügung stehen. Auch dürften Entwickler:innen nicht willkürlich von Apple gezwungen werden, Verschwiegenheitserklärungen zu unterzeichnen.

Verbesserungsbedarf sehen die NGOs auch beim Verifikationsprozess sowie beim von der Kommission vorgeschlagenen Feedback- und Bug-Tracking-System. Zudem solle Apple nicht willkürlich angebliche Sicherheitsbedenken ins Feld führen dürfen, um Wünsche nach Interoperabilität abzuschmettern. Außerdem sollte „Technologieneutralität“ ausdrücklich in den Regeln festgeschrieben und ein transparentes Tracking-System sowie eine kollaborative Plattform für Entwickler:innen eingerichtet werden.

Apple warnt vor Abschwächung der IT-Sicherheit

Auf den von der EU-Kommission im Dezember vorgelegten Vorschlag reagierte Apple bislang zurückhaltend. So habe das Unternehmen mehr als 250.000 APIs entwickelt, auf die Entwickler:innen Zugriff hätten, teilte es gegenüber Heise mit. Eine allzu freizügige Umsetzung von Interoperabilitätsvorschriften könnte jedoch die Sicherheit gefährden, warnt das Unternehmen. Es wolle aber weiterhin konstruktiv mit der Kommission zusammenarbeiten, um „einen Weg zu finden, der unsere EU-Nutzer:innen schützt und auch die Regulierung klarer macht“.

Die EU-Kommission wird die Stellungnahmen nun prüfen und voraussichtlich bis zum Frühjahr eine endgültige Entscheidung treffen. Dabei dürften sich Änderungen ergeben, wie sie in einem Dokument andeutet: „Die eingegangenen Eingaben können zu Anpassungen der Maßnahmen führen, die in die beiden endgültigen verbindlichen Entscheidungen aufgenommen werden.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Europäische Regeln für KI: Wo die Zivilgesellschaft nachjustieren möchte

Von: Maximilian Henning

Sollen Polizeibehörden Gesichtserkennung einsetzen können, wenn sie mit einem Schild davor gewarnt haben? Macht es für Empfänger:innen von Sozialhilfe einen Unterschied, ob sie mit einem KI-System Probleme kriegen oder mit klassischer Software? Die Zivilgesellschaft hätte dazu gerne mehr Klarheit von der EU-Kommission.

Ein DJ-Set mit vielen Einstellknöpfen
Es gibt noch eine Menge Stellschrauben. – Public Domain Pexels / picjumbo.com

Die EU-Kommission soll dafür sorgen, dass die Verbote aus der europäischen KI-Verordnung möglichst umfangreich ausgelegt werden. Das fordert eine Koalition aus zivilgesellschaftlichen Organisationen in einer heute veröffentlichten Stellungnahme. Sie bezieht sich auf Leitlinien, an denen die Kommission momentan noch arbeitet.

Diese Leitlinien sollen dafür sorgen, dass auch „einfachere“ Systeme von den Regeln der KI-Verordnung betroffen sind, fordern die Organisationen. Die Kommission soll auch klarstellen, welche Arten von Systemen die verbotenen „inakzeptablen“ Risiken für Grundrechte haben. Außerdem sollen Grundrechte die zentrale Basis dafür sein, wie die KI-Verordnung praktisch umgesetzt wird.

Arbeit an Details läuft weiter

Die Europäische Union hat lange an ihren Regeln für Künstliche Intelligenz gefeilt. Intensiv diskutiert wurde etwa die Frage, welche Einsätze von KI in Europa ganz verboten werden sollten. Dabei ging es etwa um die biometrische Gesichtserkennung oder das sogenannte „Predictive Policing“. Die fertige KI-Verordnung schränkt beide Praktiken zwar ein, verbietet sie aber nicht ganz.

Die Verordnung selbst ist seit bald einem Jahr beschlossen und trat auch schon vor einigen Monaten in Kraft. Aber Obacht: Bei EU-Gesetzen heißt das nicht, dass alle ihre Regeln auch direkt gelten.

Zuvor gibt es noch einiges fertigzustellen. Zum Beispiel die sogenannten „Praxisleitfäden“, die genaue Regeln für KI-Modelle mit allgemeinem Verwendungszweck wie GPT-4 festlegen sollen. An denen arbeiten gerade die Anbieter solcher Modelle, andere Unternehmen und Vertreter:innen der Zivilgesellschaft unter Aufsicht der EU-Kommission. Bis April soll es einen fertigen Text geben.

Die Verbote gelten ab dem 2. Februar. Bis dahin will die EU-Kommission noch Leitlinien veröffentlichen, die Unternehmen dabei helfen sollen, sie einzuhalten. Außerdem will sie noch klarstellen, was genau denn ein KI-System überhaupt ist – und welche Systeme deshalb von der KI-Verordnung betroffen sein werden.

Ergebnis soll zählen, nicht die Art der Software

Auf diese Leitlinien bezieht sich nun die zivilgesellschaftliche Koalition, an der unter anderem European Digital Rights (EDRi), Access Now, AlgorithmWatch und Article 19 beteiligt sind. Caterina Rodelli von Access Now hält die Leitlinien für ein „zentrales Werkzeug“, um mangelhafte Menschenrechtsregeln der Verordnung noch auszubessern.

Die erste Forderung der Koalition bezieht sich auf „einfachere“ Software. „Wir sind besorgt, dass Entwickler:innen vielleicht die Definition von KI und die Einstufung von Hochrisiko-KI-Systemen ausnutzen können, um die Verpflichtungen der KI-Verordnung zu umgehen“, schreiben die Organisation. Unternehmen könnten ihre KI-Systeme zu normaler, regelbasierter Software umwandeln und so nicht mehr vom Gesetz betroffen sein, obwohl es die gleichen Risiken geben würde.

Die Organisationen fordern deshalb, dass sich Gesetze an möglichem Schaden orientieren sollten, nicht an den genutzten technischen Mitteln. Sie beziehen sich auf das Beispiel des niederländischen SyRI-Systems. Dieses System beschuldigte Empfänger:innen von Sozialhilfe fälschlicherweise des Betrugs und beeinträchtigte so Tausende von Familien. Der Skandal führte 2021 zum Sturz der damaligen niederländischen Regierung.

Dabei wirkte das zugrundeliegende System einfach und erklärbar, betont das Statement. Die Auswirkungen auf eine Vielzahl an Personen waren trotzdem verheerend.

Mehr Systeme einbeziehen

Die Koalition fordert außerdem, dass die Leitlinien marginalisierte Gruppen besser schützen sollen. Dafür soll die Kommission ausdehnen, welche Fälle unter die verbotenen „inakzeptablen“ Risiken für die Grundrechte fallen.

So soll das Verbot von „Social Scoring“ etwa auf Anwendungen ausgedehnt werden, die heute in Europa schon gang und gäbe sind: Etwa für Empfänger:innen von Sozialhilfe, wie im niederländischen Fall, oder für Migrant:innen. Die Leitlinien sollten deshalb etwa Daten schützen, die über Bande Informationen wie die Ethnie oder den sozioökonomischen Status preisgeben könnten, wie zum Beispiel die Postleitzahl.

Das Verbot für „Predictive Policing“ soll eine weite Bandbreite an Systemen einbeziehen, die kriminalisiertes Verhalten vorhersagen sollen. Im Verbot des allgemeinen Scrapens von Gesichtsbildern sehen die Organisationen einige Schlupflöcher, die sie gerne geschlossen haben würden. Außerdem soll eine Definition einer Gesichtsbild-Datenbank gelöscht werden, weil durch diese Anbieter wie Pimeyes oder Clearview außen vor bleiben würden.

Löcher schließen bei der Gesichtserkennung

Bei den Verhandlungen zur KI-Verordnung wollte das Europäische Parlament ein umfassendes Verbot von Systemen zur Emotionserkennung durchsetzen, ist damit aber gescheitert. Die Leitlinien sollen nun zumindest klar zwischen echten medizinischen Geräten wie Herzmonitoren und Geräten wie „Aggressionsdetektoren“ unterscheiden, fordern die Organisationen – denn medizinische Geräte sind von den Verboten ausgenommen.

Außerdem sollen die Leitlinien die Regeln für automatisierte Gesichtserkennung verschärfen. Auch in Deutschland gab es schon Forderungen, einige der in der KI-Verordnung dafür offen gelassenen Schlupflöcher zu schließen. Auf europäischer Ebene fordert die zivilgesellschaftliche Koalition nun, dass die Entwicklung von Gesichtserkennungssystemen für den Export unter das Verbot fallen soll. Zudem soll es nicht ausreichen, wenn Behörden nur mit einem Schild auf Zonen hinweisen, in denen Gesichtserkennung genutzt wird. Videoaufzeichnungen sollen erst nach 24 Stunden biometrisch ausgewertet werden dürfen.

In Zukunft bitte mehr Zeit

Eine Menge Wünsche für die Leitlinien – die Koalition hat aber auch noch einige Kritik für deren Entstehen übrig. Der Prozess sei nicht vorher angekündigt worden, habe kurze Fristen gelassen, es sei kein Entwurf veröffentlicht worden, schreiben sie. Außerdem seien manche der Fragen suggestiv formuliert gewesen. So habe die Kommission etwa nur nach Systemen gefragt, die aus der Definition von KI ausgeschlossen werden sollten, und nicht nach Systemen, für die die Regeln gelten sollten, bemängeln die Organisationen.

Das Statement fordert deshalb die Kommission auf, in Zukunft die Zivilgesellschaft besser einzubeziehen. „Die EU-Kommission muss Interessengruppen mit begrenzten Ressourcen eine Stimme geben, und dafür muss sie längere Zeiträume für so umfassende Befragungen vorsehen“, so Nikolett Aszodi von AlgorithmWatch.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Offener Brief an EU-Kommission: Kritik an geplantem Europol-Abkommen mit Ägypten

Von: Matthias Monroy

Anstatt Ägyptens repressive Politik zu unterstützen, soll die EU-Kommission Verhandlungen mit der Militärdiktatur stoppen und Reformen fordern. Das schreiben mehr als 40 Nichtregierungsorganisationen in einem offenen Brief an den Innenkommissar.

Ein Mitglied der Sicherheitskräfte hält am 25. Januar 2016, dem fünften Jahrestag der Aufstände von 2011, in Kairo Wache.
Ein Mitglied der ägyptischen Sicherheitskräfte hält am 25. Januar 2016, dem fünften Jahrestag der Aufstände von 2011, in Kairo Wache. – Alle Rechte vorbehalten IMAGO / Pond5 Images

Die EU-Kommission sei kurz davor, ein sogenanntes Arbeitsabkommen zwischen Ägypten und der Polizeiagentur Europol zu unterzeichnen, erklärte im vergangenen Herbst die damalige EU-Innenkommissarin Ylva Johansson gegenüber der Presse. Die Regierung unter Abdel Fatah Al-Sisi sei ein „echter strategischer Partner der EU und für die Stabilität in der Region“, hieß es zur Begründung. In einem heute veröffentlichen offenen Brief an den neuen Innenkommissar Magnus Brunner warnen jedoch 41 Menschenrechts-, Flüchtlings-, Digital- und Bürgerrechtsorganisationen vor den Risiken einer solchen Polizeikooperation.

Die Unterzeichnenden sind neben nordafrikanischen Organisationen auch EDRI, Access Now, EuroMed Rights Network, Statewatch und Privacy International. Sie sehen in dem geplanten Abkommen eine Legitimierung des ägyptischen Sicherheitsapparats, der für systematische Menschenrechtsverletzungen bekannt ist. Die Kommission soll deshalb ihre Verhandlungen stoppen und Druck auf Ägypten ausüben, damit das Land Reformen zum Schutz der Menschenrechte, bürgerlicher Freiheiten, der Justiz und der Demokratie verabschiedet.

Die Organisationen verweisen auf die Willkürjustiz in Ägypten: Schätzungsweise 60.000 politische Gefangene befinden sich demnach in Haft – unter ihnen ist auch der Blogger und Aktivist Alaa Abd el-Fattah, über dessen Fall netzpolitik.org regelmäßig berichtet. UN-Gremien bestätigen systematische Folter durch Polizei und Militär, besonders gegen Regierungskritiker:innen. Anti-Terror-Gesetze werden missbraucht, um Oppositionelle zum Schweigen zu bringen.

Unterstützung von repressivem Migrationsregime

Besondere Sorge bereitet den Unterzeichner:innen das Thema Migration. Während die Kommission Ägyptens Behandlung von Geflüchteten und Migrant:innen insbesondere aus dem Sudan lobte, dokumentieren Menschenrechtsorganisationen systematische Verhaftungen und Zwangsrückführungen.

Zwar hat Ägypten mittlerweile ein Asylgesetz erlassen, es enthält aber auch Verschärfungen. Wer Geflüchtete ohne Benachrichtigung der Behörden unterbringt, riskiert strafrechtliche Konsequenzen. Die Regierung hat weitreichende Befugnisse erhalten, um während Sicherheitskrisen, Anti-Terror-Operationen oder in Kriegszeiten „notwendige Maßnahmen“ gegen Flüchtlinge zu ergreifen.

Das repressive ägyptische Migrationsregime wird durch EU-Mittel unterstützt. Die Kommission hat dazu im vergangenen Jahr 200 Millionen Euro für „Schleuserbekämpfung“, Grenzüberwachung und -kontrolle, Rückkehrprogramme sowie Förderung privilegierter Migration für benötigte Arbeitskräfte zur Verfügung gestellt. Die Anstrengungen haben vermutlich dazu beigetragen, dass Ankünfte über die zentrale Mittelmeerroute aus Ägypten im Jahr 2024 um zwei Drittel sanken.

Kommission drängt auf Folgeabkommen

Das nun geplante Arbeitsabkommen mit Europol ist strategischer Natur und soll keinen Austausch personenbezogener Daten umfassen. Auf Basis ähnlicher Abkommen arbeitet Europol etwa mit der Polizei in Singapur, Chile, Mexiko und Israel zusammen. Im Falle Ägyptens plant die Kommission aber offenbar noch ein weitergehendes Folgeabkommen, das den Austausch persönlicher Daten ermöglicht. Das könnte die Repression gegen im ausländischen Exil lebende Menschenrechtsverteidiger erleichtern, warnen die Kritiker:innen.

Problematisch am gegenwärtig verhandelten Abkommen ist auch der Datenschutzaspekt: Obwohl Ägypten 2020 ein erstes entsprechendes Gesetz verabschiedete, wurde dieses nie implementiert. Damit fehlt ein rechtlicher Rahmen für den Datenschutz – eine wesentliche Voraussetzung für ein Abkommen zum Austausch personenbezogener Informationen mit der EU.

Die Organisationen fordern die Kommission deshalb dazu auf, eine umfassende Folgenabschätzung für Menschenrechte und Datenschutz durchzuführen. Sie verweisen auf eine Resolution des Europäischen Parlaments aus dem Jahr 2018, die eine solche Prüfung bereits forderte. Der Rat erlaubte der Kommission jedoch die Verhandlungen mit Ägypten, ohne das Parlament zu konsultieren.

Weitere Abkommen geplant

Auch grundsätzlich kritisieren die Unterzeichner:innen die EU-Strategie der Zusammenarbeit mit autoritären Regimen im Mittelmeerraum in den Bereichen Polizei, Justiz und Migrationskontrolle. Diese stelle Sicherheitsinteressen über Demokratie und Menschenrechte. Statt mehr Polizeikooperation anzustreben, solle die EU ihren Einfluss nutzen, um Reformen für Menschenrechte, bürgerliche Freiheiten und Demokratie in Ägypten zu fordern.

Neben Ägypten plant die EU-Kommission weitere Europol-Abkommen mit Bolivien, Brasilien, Ecuador, Mexiko und Peru. Auch sie sollen den Austausch von personenbezogenen Daten ermöglichen, um die Bekämpfung von schwerer Kriminalität und Terrorismus zu unterstützen. Die Verhandlungen mit Brasilien sind abgeschlossen. Mit Bolivien wurden bislang drei Verhandlungsrunden durchgeführt, mit Ecuador zwei sowie ein technisches Treffen, mit Peru fanden zwei Treffen statt. Mit Mexiko haben die Verhandlungen bisher noch nicht begonnen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Medienberichte: EU-Kommission soll bei der Durchsetzung von Plattformregeln zögern

Von: Maximilian Henning

Laut Medienberichten gibt es auf hoher Ebene der EU-Kommission Diskussionen um den Digital Markets Act. Das Gesetz soll eigentlich die Macht großer Online-Plattformen einschränken. Nun will die EU-Kommission angeblich alle schon eingeleiteten Verfahren überprüfen. Für die Zivilgesellschaft wäre das ein großer Fehler.

Eine Person in Silouette kniet vor einem Gewässer, das von einer tief hängenden Sonne orange erleuchtet wird.
Selbstfindung in Orange. – Public Domain Download a pic Donate a buck! ^

Die EU-Kommission soll intern ihre Untersuchungen zu großen Unternehmen in der Digitalwirtschaft auf den Prüfstand gestellt haben. Das berichtete heute die Financial Times mit Verweis auf interne Quellen. In der vergangenen Woche hatte Le Monde ähnliches geschrieben, sich dabei allerdings auf den Digital Services Act (DSA) bezogen.

Laut der Financial Times geht es um Untersuchungen unter dem Digital Markets Act (DMA), mit dem die EU die Übermacht von Plattformen wie Google und Facebook einschränken will. Dabei soll die Kommission alle ihre Untersuchungen überprüfen, die sie bisher unter dem DMA eröffnet hat. Laut der Zeitung soll in dieser Zeit nicht über mögliche Strafzahlungen entschieden werden. Die eigentliche Arbeit an den Untersuchungen soll aber weitergehen.

Der DMA betrifft in erster Linie sogenannte Gatekeeper. Damit sind sehr große Digitalunternehmen gemeint, die zentrale Plattformdienste zur Verfügung stellen und eine Schlüsselposition in digitalen Märkten einnehmen. Insgesamt sieben Unternehmen erfüllen derzeit die Bedingungen, um derart eingestuft zu werden. Dazu zählen etwa Alphabet, Apple oder Meta, aber nicht das zuletzt hoch umstrittene X des US-Milliardärs Elon Musk. Für sie gelten besonders strenge Regeln, bei Verstößen drohen ihnen Geldbußen von bis zu zehn Prozent des weltweiten Gesamtumsatzes.

Nur normale Treffen, sagt Kommission

Die Kommission bestreitet auf Anfrage die Darstellung. Sie sei weiterhin fest entschlossen, den Digital Markets Act und sein Schwestergesetz, den Digital Services Act, durchzusetzen, betonte heute ein Sprecher der Kommission. Es gebe keine solche Überprüfung.

„Was wir haben werden, sind Treffen, um die Ausgereiftheit von Fällen zu bewerten und die Verteilung von Ressourcen sowie die allgemeine Bereitschaft der Untersuchungen zu beurteilen“, so der Sprecher weiter. Das seien normale Schritte, die im gesamten Lebenszyklus von Fällen im Tech-Bereich passieren würden.

Auch ansonsten betont die Kommission, dass die technische Arbeit in den DMA-Fällen sehr komplex sei. Deshalb würden die Untersuchungen weiterhin andauern. Der letzte Schritt aus den Untersuchungen, der öffentlich geworden ist, war die Verkündung von vorläufigen Ergebnissen gegen Apple und Meta im vergangenen Sommer.

Ergebnisse müssen wasserdicht sein

Bei Apple geht es dabei um die Regeln für App-Entwickler:innen. Diese sollen unter dem DMA eigentlich Kund:innen frei auf Angebote außerhalb des App Stores weiterleiten können. Hier reichten die Anpassungen von Apple laut Sicht der Kommission nicht aus. Bei Meta bemängelte die Kommission das „Pay or Consent“-Modell des Unternehmens. Unter diesem müssen Nutzer:innen entweder ihre Daten hergeben oder bezahlen, wenn sie Facebook oder Instagram nutzen wollen.

Die Kommission schickte diese vorläufigen Ergebnisse an die beiden Unternehmen – und die durften dann Widerspruch dagegen einlegen. Dafür bekommen sie auch Zugang zu allen Dokumenten, die die Kommission im Laufe der jeweiligen Untersuchung angelegt hat. Und es sind Konzerne mit prall gefüllten Geldbeuteln, für die es in diesen Fällen um sehr viel Geld geht. Man kann davon ausgehen, dass sie für ihre Verteidigung absolut hochwertige Anwält:innen angeheuert haben.

Der Sprecher der Kommission betonte heute deshalb auch: „Bevor wir eine solche Entscheidung beschließen, müssen wir uns sicher sein, dass wir diesen Fall vor Gericht gewinnen werden.“

Die orange Bedrohung

Neben der juristischen Absicherung gibt es aber noch ein zweites, politisches Problem, das Auswirkungen auf die europäischen Regeln haben könnte. Dieses Problem ist orangefarben, jähzornig und wird am kommenden Montag zum zweiten Mal als Präsident der USA eingeschworen werden.

Donald Trump hatte seit der Zeit rund um die US-Wahl verstärkt Kontakt mit Big-Tech-Chefs. Der Kniefall Mark Zuckerbergs in der vergangenen Woche war das neueste Signal in diese Richtung. Zuckerberg hat sich schon über die angebliche „Zensur“ durch europäische Digitalgesetze beschwert und versucht, mit nationalistisch gefärbten Appellen an Trump, EU-Vorgaben abzuwehren.

Auch Apple-Chef Tim Cook hatte Berichten zufolge bereits Kontakt mit Donald Trump und nutzte die Gelegenheit, um EU-Strafen zu kritisieren. „Ich werde nicht zulassen, dass sie sich an unseren Unternehmen bereichern“, will Trump darauf geantwortet haben.

Zivilgesellschaft macht Druck

Der Bericht über mögliche Bedenken bei der Kommission rief kritische Reaktionen hervor. Wenn die Kommission ihren bisherigen starken Kurs zum DMA ändern würde, wäre das ein sehr großer Fehler, sagte Lucas Lasota von der Free Software Foundation Europe (FSFE) zu netzpolitik.org. Die FSFE unterstützt die Kommission aktuell in einem DMA-Gerichtsverfahren gegen Apple.

„Die FSFE hält ihn für ein sehr wichtiges Gesetz“, so Lasota. Der DMA wolle ein ebeneres Spielfeld für alle schaffen. Es gehe nicht um einen Gegensatz EU gegen USA, sondern um Big Tech gegen alle.

Dem stimmt auch Jan Penfrat von Europan Digital Rights zu. „Die DMA-Untersuchungen zu den Gatekeepern zu verlangsamen, herunterzufahren oder zu pausieren, wäre ein großer Fehler der Europäischen Kommission“, sagte er zu netzpolitik.org.

„Wenn die Kommission sich von der Angst vor politischem Gegenwind aus der Trump-Regierung dazu schikanieren lässt, seine DMA-Untersuchungen neu zu bewerten, dann wird diese Schikane – sowohl von Big Tech als auch von Trump – nicht aufhören“, so Penfrat.

Schwab will gründliche Arbeit

Zweifel gab es auch im Europäischen Parlament. So etwa von Stephanie Yon-Courtin, einer liberalen Abgeordneten aus Frankreich, die am Digital Markets Act mitarbeitete. Für „etwas schwach“ hält sie die Antwort der Kommission, laut der diese weiterhin entschlossen sei, ihre Regeln durchzusetzen. „Wir brauchen gegen die Provokationen von Big Tech keine Worte mehr, sondern Taten, und zwar bald“, sagte Yon-Courtin netzpolitik.org.

Wesentlich gelassener zeigt sich der deutsche Christdemokrat Andreas Schwab. Er war auf Parlamentsseite Chefverhandler zum DMA. „Grundsätzlich gilt: Gründlichkeit vor Schnelligkeit, weil der Maßstab in Europa das Rechtsstaatsprinzip ist“, so Schwab. Die Verfahren würden wahrscheinlich vor Gericht landen und in den USA gebe es jetzt schon Zweifel daran, wie seriös die EU handele. „Deshalb muss die Sache sauber durchgezogen werden.“

„Gleichzeitig ist es aber kein Geheimnis, dass die Spitze der Kommission derzeit keinen Ärger mit den USA will“, so Schwab weiter. „Das muss uns noch nicht besorgt machen, wir können eine Reihe von Entscheidungen auch Anfang Februar noch treffen.“ Am kommenden Donnerstag tritt die Arbeitsgruppe des Parlaments zusammen, die sich mit der Durchsetzung des DMA beschäftigt. Dort will er mit Vertreter:innen der Kommission weitere Einzelheiten besprechen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Citizen News: Weiteres regierungskritisches Online-Medium in Hongkong schließt

Von: Christina Braun
Menschen mit einen gelben Regenschirm und Protestplakaten auf einer Straße in Hongkong.
Aktivist:innen demonstrieren im Juli 2020 auf den Straßen von Hongkong gegen das Sicherheitsgesetz. – Alle Rechte vorbehalten IMAGO / ZUMA Wire

Das regierungskritische Online-Medium Citizen News hat am Sonntagabend (Ortszeit) seine Auflösung bekannt gegeben. Ab dem 4. Januar werde der Betrieb vollständig eingestellt, hieß es. Die Redaktion des prodemokratischen Mediums, das sich 2017 gegründet hatte, erklärte den Schritt damit, dass die Sicherheit der 40 Mitarbeitenden nicht mehr gewährleistet werden könne. In einer Erklärung auf Twitter hieß es: „Leider können wir unsere Überzeugungen nicht mehr angstfrei in die Tat umsetzen, weil sich die Gesellschaft in den letzten zwei Jahren stark verändert und sich das Umfeld für Medien zunehmend verschlechtert hat“.

Citizen News war 2017 von einer Gruppe erfahrener Journalist:innen ins Leben gerufen worden und finanziert sich hauptsächlich durch Spenden und Leser:innenabonnements. Mit mehr als 800.000 Followern in Online-Netzwerken zählt Citizen News zu den beliebtesten Nachrichtenangeboten Hongkongs. Das Medium bezeichnet sich selbst als unabhängig, überparteilich und als Förderer von Freiheit, Offenheit, Vielfalt und Inklusion. Citizen News hatte auch Journalist:innen von anderen Medien aufgenommen, die aufgelöst oder unter staatliche Kontrolle gestellt worden waren. Zuletzt waren Berichten von Hong Kong Free Press zufolge zehn ehemalige Journalist:innen vom Fernsehsender iCable News zu Citizen News gewechselt.

Mit der Auflösung von Citizen News verliert Hongkong ein weiteres unabhängiges Medium. Vor nicht einmal einer Woche, am 29. Dezember, hatten Hongkonger Behörden mit mehr als 200 Polizist:innen die Büros des Online-Mediums Stand News durchsucht und laut Berichten sechs ehemalige und aktuelle Mitarbeitende festgenommen. Daraufhin hatte das Online-Medium angekündigt, seine Arbeit einzustellen. Noch am selben Tag ging die Webseite des Medienunternehmens offline. Das Schicksal von Stand News habe letztlich den Ausschlag dafür gegeben, dass auch Citizen News ihre Arbeit einstellen, so der Chefredakteur und ehemalige Präsident der Hongkonger Journalistenvereinigung Chris Yeung.

„Totale Unterdrückung der Pressefreiheit“

Gegenüber Hong Kong Free Press erklärte der Leiter des Ostasienbüros von Reporter ohne Grenzen, Cédric Alviani, dass die Pressefreiheit in Hongkong einmal mehr unter Beschuss stehe: „Nach Apple Daily und Stand News ist Citizen News das dritte unabhängige Medienunternehmen, das der Einschüchterungs- und Polizeischikanen-Kampagne von Hongkongs Chief Executive Carrie Lam zum Opfer gefallen ist, deren Ziel die totale Unterdrückung der Pressefreiheit in dem Gebiet zu sein scheint.“

Bereits Mitte 2021 hatte die Redaktion des prodemokratischen Mediums Apple Daily ihre Arbeit einstellen müssen. Behörden hatten der größten vielgelesenen Oppositionszeitung in Hongkong vorgeworfen, gegen das sogenannte Sicherheitsgesetz verstoßen zu haben, und daraufhin die Konten des Mediums eingefroren und Angestellte festgenommen. Der Gründer von Apple Daily und Demokratieaktivist Jimmy Lai wurde mittlerweile zu einer Haftstrafe von dreizehn Monaten verurteilt und sitzt im Gefängnis.

Die kommunistische Führung in Peking hatte vor knapp eineinhalb Jahren das umstrittene Sicherheitsgesetz erlassen. Auslöser waren die anhaltenden Proteste für mehr Demokratie in Hongkong gewesen. Das Gesetz erlaubt es, Personen, die die chinesische Führung als „Terroristen, Subversive, Separatisten sowie Verschwörer mit ausländischen Mächten“ betrachtet, zu verhaften. Die vage Formulierung im Gesetzestext hat es für die Behörden erleichtert, gegen regierungskritische Aktivist:innen und Oppositionelle vorzugehen.

Mehr als 100 Aktivist:innen sind seitdem festgenommen worden. Viel sind aus Angst vor Verfolgung ins Ausland geflohen. Eine im November letzten Jahres veröffentlichte Umfrage unter Journalist:innen in Hongkong zeigt, dass fast die Hälfte der rund einhundert Befragten erwägt, die Stadt aufgrund der sich zunehmend verschlechternden Arbeitsbedingungen zu verlassen. 56 Prozent gaben an, sensible Themen in ihrer Berichterstattung zu vermeiden und in einem bestimmten Maß Selbstzensur zu betreiben. Peking wertete die Umfrage als „Einmischung“.

Nach der Schließung von Apple Daily hatten sich zahlreiche ausländische Pressevereinigungen wie auch die Journalist:innenvereinigung von Hongkong besorgt über den Zustand der Pressefreiheit in der Stadt geäußert. Die ehemalige britische Kolonie, die einst als Flaggschiff für Pressefreiheit galt, ist laut dem Weltpressefreiheitsindex der Nichtregierungsorganisation Reporter ohne Grenzen von Platz 18 im Jahr 2002 auf Platz 80 im Jahr 2021 zurückgefallen. Die Volksrepublik China hat sich in diesem Ranking von Platz 177 auf Platz 180 verschlechtert.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

  • Es gibt keine weiteren Artikel
❌