🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Ältere Beiträgenetzpolitik.org

Tübingen: Boris Palmer will Videoüberwachung durchsetzen

23. Februar 2026 um 15:03

Obwohl sich der Gemeinderat dagegen ausgesprochen hat, setzen Tübingens Oberbürgermeister Boris Palmer und das Regierungspräsidium Videoüberwachung durch. Dafür greifen sie auf eine ungewöhnliche Rechtsgrundlage zurück.

Der Tübinger Hauptbahnhof
Das Areal vor dem Tübinger Hauptbahnhof soll videoüberwacht werden. CC-BY-SA 2.0 Cornelius Kibelka

Laut Polizeigesetz von Baden-Württemberg ist Videoüberwachung des öffentlichen Raums erlaubt, wenn dort besonders viel Kriminalität stattfindet und das auch in Zukunft zu erwarten ist. Boris Palmer, Ex-Grüner und nun parteiloser Oberbürgermeister von Tübingen, wollte auf Basis dieses Gesetzes Kameras im Bereich vor dem Hauptbahnhof errichten lassen.

Doch der Landesdatenschutzbeauftragte von Baden-Württemberg, Tobias Keber, stellte sich gegen den Plan. In dem Areal finde gar nicht übermäßig viel Kriminalität statt, zuletzt seien die Zahlen sogar gesunken, argumentierte er. „Bei der Videoüberwachung handelt es sich um eine Maßnahme mit hoher Eingriffsintensität, da großflächig Grundrechte von Bürgerinnen und Bürgern eingeschränkt werden, die hierfür keinen Anlass gegeben haben. Ein solcher Grundrechtseingriff kann ausnahmsweise gerechtfertigt sein“, schrieb er. Die Voraussetzungen für diese Ausnahme seien aber nicht erfüllt.

Auch aus Tübingen selbst gab es Widerstand. Der Verwaltungsausschuss der Stadt beschloss: „Die Stadtverwaltung wird aufgefordert, keine Kameras zur Videoüberwachung auf dem Europaplatz zu installieren.“ Der Gemeinderat strich dem Projekt die Finanzierung.

Videoüberwachung nach Datenschutzgesetz

Boris Palmer und das Tübinger Regierungspräsidium, das die Überwachungspläne unterstützt, haben daraufhin die Rechtsgrundlage gewechselt, mit der sie die Videoüberwachung rechtfertigen. Nun soll nicht mehr nach Polizeigesetz, sondern nach Landesdatenschutzgesetz überwacht werden. Demnach ist Videoüberwachung erlaubt, um Personen zu schützen, die sich in öffentlichen Einrichtungen oder deren Nähe bewegen, oder um Kulturgüter, Gebäude und Sachen zu sichern.

Anfang Februar wurde die Novelle des Landesdatenschutzgesetzes vom Landtag beschlossen. Tübingen soll nun zum Vorreiter in der Nutzung dieses Gesetzes zur Videoüberwachung werden.

Ob dessen sehr niedrige Eingriffsschwelle reicht, um die massiven Persönlichkeitsrechtsverletzungen aller Passant*innen an diesem belebten Areal zu rechtfertigen, ist fragwürdig. Gerade prüft der Landesdatenschutzbeauftragte das Vorgehen.

Sechs Kameras geplant

Das Regierungspräsidium teilte dem Reutlinger General-Anzeiger (GEA) mit, „dass die Videoüberwachung am Europaplatz in Tübingen mit den im Landesdatenschutzgesetz genannten Zielen begründet werden kann und es der polizeirechtlichen Begründung nicht mehr bedarf“. Die Überwachung werde deshalb nun eingeführt. Die Stadtverwaltung ließ GEA wissen, dass man bereits Angebote für die Installation von sechs Kameras einhole.

Und auch die Tatsache, dass der Gemeinderat die finanziellen Mittel für die Überwachung gesperrt hat, will die Verwaltung unter Boris Palmer umgehen. Sie verkündete gegenüber dem SWR, dass man ja Mittel umschichten könne, bis zu 70.000 Euro könne Palmer auch freihändig investieren. 20.000 Euro sollen die sechs Kameras kosten.

Dabei gab Palmer in einer Stellungnahme gegenüber dem Jugendgemeindebeirat zu, dass es auch andere Möglichkeiten gäbe, das Sicherheitsgefühl der Bevölkerung vor dem Bahnhof zu steigern, die weniger in das Persönlichkeitsrecht eingreifen: Notrufsäulen, verbesserte Beleuchtung, verstärkte Bestreifung.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

KI-gestützte Videoüberwachung: Bremen führt Verhaltensscanner im Nahverkehr ein

23. Februar 2026 um 11:50

Der Bremer ÖPNV plant KI-gestützte Videoüberwachung in allen Trams und Bussen. Auch die Polizei hat schon ein Auge auf die Technologie geworfen. Zunächst soll ihr aber heimliches Filmen mit Kameradrohnen erlaubt werden.

Eine Kuppelkamera an der Decke einer Bahn.
In Bremer Bahnen und Bussen wird die Videoüberwachung an eine KI angeschlossen (Symbolbild). – Alle Rechte vorbehalten IMAGO / Peter Endig

In Bremen läuft in 14 Tram-Bahnen KI-gestützte Videoüberwachung, ab April soll das System auf die übrigen Bahnen und Busse ausgerollt werden. Das haben die Verkehrsbetriebe (BSAG) vergangene Woche im Rahmen einer Projektvorstellung bekannt gemacht. Das System versucht zu erkennen, wie die abgebildeten Menschen handeln, um so aggressives Verhalten zu detektieren.

80 Prozent der Kosten von 10.000 Euro je Bahn zahlt das Bundesverkehrsministerium, das hier offenbar ein Leuchtturmprojekt sieht. Laut der Verkehrsbetriebe ist Bremen damit das erste Bundesland mit KI-Überwachung im öffentlichen Nahverkehr. Die Bremer Polizei hat ebenfalls Interesse an der Technologie angemeldet, die sie im öffentlichen Raum einsetzen möchte. Zahlreiche Bundesländer bohren dafür gerade ihre Polizeigesetze auf.

Die für die KI-Analyse nötige Videoüberwachung stünde in Bremen bereit. An 40 Standorten wird der öffentliche Raum mit Kameras kontrolliert. Doch die Bremer Polizei wird noch warten müssen. Am Mittwoch soll eine Novelle des Polizeigesetzes in der Bremischen Bürgerschaft debattiert werden. Die Erlaubnis, Verhaltensscanner zu nutzen, beinhaltet sie nicht. Dafür erlaubt der Gesetzentwurf der Polizei aber den heimlichen Einsatz von Videodrohnen.

Bremer Polizei soll heimlich Überwachungsdrohnen einsetzen

Die Überwachung mit Videodrohnen soll in drei Stufen stattfinden: Livestream zur Lagebeurteilung, Aufzeichnung, verdeckter Einsatz – mit jeweils immer höheren Eingriffsschwellen. Dem verdeckten Einsatz muss beispielsweise ein Richter zustimmen – außer es liegt eine Gefahr für „Leib, Leben oder Freiheit“ einer Person vor. Dann darf die Polizei auch freihändig agieren.

Die Entwicklung ist besonders interessant, da Bremen seit 2007 von einer Koalition aus SPD, Grünen und Linken regiert wird, die sich eigentlich ein besonders liberales Polizeigesetz gegeben hatte. In Bremen kann man etwa nach einer Polizeikontrolle eine Quittung verlangen, die den Grund für die Kontrolle verrät und die Polizist*innen im Land tragen eine individuelle Kennzeichnung.

Nun folgt also auch dieses Land zumindest ein Stück weit dem bundesweiten Trend zur Verschärfung der Polizeigesetze. So soll beispielsweise mit dem neuen Polizeigesetz ein Satz wegfallen, der Zivilpolizist*innen im Rahmen einer Maßnahme dazu verpflichtet, sich unaufgefordert auszuweisen.

Präventiver Einsatz von elektronischen Fußfesseln

Primär geht es in dem Entwurf um den Schutz von Opfern häuslicher Gewalt. Dazu soll der Aufenthaltsort der Täter*innen mit elektronischen Fußfesseln überwacht werden. Nach dem „Spanischen Modell“ sollen sich auch die Opfer freiwillig überwachen lassen können, um bei einer Annäherung des Täters gewarnt zu werden.

Das GPS-Tracking darf nicht nur gegen Ausübende häuslicher Gewalt eingesetzt werden, sondern auch gegen Menschen, denen die Polizei zutraut, dass sie einen Terroranschlag begehen. Der Einsatz ist präventiv möglich, ohne dass es vorher zu einer Straftat gekommen sein muss.

Mit dem neuen Polizeigesetz will Bremen auch die Hürden für Videoüberwachung des öffentlichen Raums senken. Während bislang noch eine erhöhte Kriminalitätsbelastung nötig ist, damit ein bestimmtes Areal überwacht werden kann, soll es künftig reichen, dass die örtlichen Verhältnisse Straftaten erwartbar machen. Dann reicht die Annahme, dass dort irgendwann mal etwas passiert, um ein Areal zu überwachen. Das bringt die Legitimation der Videoüberwachung von einer faktischen, zahlenbasierten Grundlage in die freihändige Einschätzung der zuständigen Polizeikräfte.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Von Kinderhilfswerk bis Lehrerverband: So breit ist die Kritik am Social-Media-Verbot

21. Februar 2026 um 14:08

Bundeskanzler Friedrich Merz (CDU) findet ein Social-Media-Verbot bis 16 Jahre sympathisch. Viele Organisationen aus Kinderschutz, Wissenschaft und Pädagogik lehnen das Verbot allerdings ab – und warnen vor Schäden für Kinder und Jugendliche. Die Übersicht.

Ein Kind und eine erwachsene Person halten sich an den Händen. Ihre Köpfe sind mit bunten Fäden umwickelt. Sie schauen auf digitale Geräte.
Wie führt man Kinder in die digitale Welt? (Symbolbild) – Alle Rechte vorbehalten IMAGO/Westend61

Bekommt Deutschland ein Social-Media-Verbot nach australischem Vorbild? Druck machen zumindest wichtige Politiker*innen aus den Regierungsparteien SPD und CDU. Die Debatte kocht auch international, weil in Australien seit dem 10. Dezember ein solches Verbot gilt.

Medienwirksam sprechen sich Staats- und Regierungschefs für ähnliche Maßnahmen aus, darunter der französische Präsident Emmanuel Macron und der spanische Ministerpräsident Pedro Sánchez. Unter Expert*innen gibt es aber viel Skepsis und Ablehnung. Das zeigen mehr als 20 Positionspapiere und Stellungnahmen von unter anderem Kinderschutz-Organisationen, Pädagog*innen, Schüler*innen und Forschenden.

Viele sprechen sich klar gegen ein Social-Media-Verbot aus und warnen vor gravierenden Folgen. Doch selbst Befürworter*innen eines Social-Media-Verbots argumentieren vorsichtig und nennen Altersbeschränkungen allenfalls als eine von vielen Maßnahmen. Ein Konsens ist erkennbar, dass vor allem Plattformen sichere Räume für Kinder und Jugendliche schaffen müssen.

Hier kommt, ohne Anspruch auf Vollständigkeit, eine Übersicht wichtiger Stimmen und deren Argumente.


Deutsches Kinderhilfswerk: „Verbote entmündigen Kinder“

November 2025, „Unsere Haltung zu Social-Media-Verboten“

Wer ist das? Das deutsche Kinderhilfswerk ist ein 1972 gegründeter Verein. Dessen Mitglieder engagieren sich für „eine kinderfreundliche Gesellschaft, in der die Kinder ihre Interessen selbst vertreten“.

Was ist die Position? „Pauschale Verbote entmündigen Kinder und Jugendliche“, schreibt das Kinderhilfswerk. Sie stünden in krassem Widerspruch zum Recht auf digitale Teilhabe, das die UN-Kinderrechtskonvention garantiert. Den kompetenten und sicheren Umgang müssten Kinder und Jugendliche durch aktive Nutzung lernen. „Verbote würden die positiven sozialen Kommunikationswege in diesem Bereich abschneiden und Kindern einen Rückzugsort ihrer Lebenswelt ohne angemessenen Ersatz nehmen.“


UNICEF: „Verbote können nach hinten losgehen“

Dezember 2025: „Age restrictions alone won’t keep children safe online“

Wer ist das? UNICEF ist das 1946 gegründete Kinderhilfswerk der Vereinten Nationen.

Was ist die Position? „Social-Media-Verbote bergen eigene Risiken und könnten sogar nach hinten losgehen“, warnt die NGO auf Englisch. Gerade für isolierte oder marginalisierte Kinder seien soziale Medien eine „Lebensader“. Altersbeschränkungen müssten Teil eines umfassenderen Ansatzes sein, der auch das Recht junger Menschen auf Privatsphäre und Mitbestimmung achtet. Minderjährige sollten nicht in unregulierte, weniger sichere Bereiche des Internets gedrängt werden.


Save the Children: „falsches Sicherheitsgefühl“

Dezember 2025: „Policy Statement on Social Media Bans“

Wer ist das? Save The Children wurde 1919 gegründet und bezeichnet sich als weltgrößte unabhängige Organisation für Kinderrechte.

Was ist die Position? Save The Children unterstützt „wirksame, die Privatsphäre respektierende Altersüberprüfungen“. Dennoch ist die Organisation besorgt, dass altersbasierte Beschränkungen „unbeabsichtigte Schäden verursachen, ein falsches Sicherheitsgefühl vermitteln und die Rechte und Möglichkeiten von Kindern einschränken könnten“. Weiter pocht sie darauf, dass Plattformen ihre Produkte „wirklich sicher und altersgerecht gestalten“.


Bundesschülerkonferenz: Medienbildung „an erster Stelle“

Februar 2026: „Verbote sind keine Lösung“

Wer ist das? Die Bundesschülerkonferenz engagiert sich für Bildungspolitik und Mitbestimmung von Schüler*innen in Deutschland.

Was ist die Position? Die psychische Gesundheit von Jugendlichen würde immer schlechter, schreibt die Generalsekretärin der Bundesschülerkonferenz. Social Media leiste dazu einen erheblichen Beitrag. Der Fokus der Debatte liege aber zu stark auf Verboten. „An erster Stelle muss bessere Medienbildung in Schulen stehen, denn sonst ist das Verbot nichts anderes als eine Problemverschiebung.“


Deutscher Bundesjugendring: Manipulative Designs verbieten

Oktober 2025: „Stellungnahme zur Konsultation zum Digital Fairness Act“

Wer ist das? Der Deutsche Bundesjugendring vertritt deutsche Jugendverbände und Landesjugendringe.

Was ist die Position? „Junge Menschen haben Rechte auf Schutz, Teilhabe und Befähigung – auch digital“, schreibt der Verein in einem Statement zum Digital Fairness Act, einem geplanten Digitalgesetz der EU. Der Bundesjugendring lehnt „pauschale Zugangsbeschränkungen“ ab und fordert sicher gestaltete Räume. Funktionieren soll das etwa über „verbindliche Verbote manipulativer Gestaltung“. Konkrete Beispiele seien „endlose Feeds, Lootbox-Mechaniken oder manipulative Abo-Taktiken“.


ACT Youth Advisory: Verbote können isolieren

November 2024: „The ACT Youth Advisory Council’s Response to the Online Safety Amendment“

Wer ist das? Der ACT Youth Advisory vertritt Jugendliche im „Australian Capital Territory“, wo auch die australische Hauptstadt Canberra liegt.

Was ist die Position? Der ACT-Jugendrat hätte das australische Social-Media-Verbot am liebsten verhindert. Statt Jugendliche auszusperren, so die Forderung, solle die Regierung die Plattformen regulieren. Die Jugend-Vertreter*innen sahen etwa das Recht auf freie Meinungsäußerung in Gefahr – und das Recht auf sicheren und freien Zugang zu Informationen. Sie warnten außerdem davor, dass das Verbot vulnerable junge Menschen isolieren könne.


Deutscher Lehrerverband: „weder umsetzbar noch sinnvoll“

Juni 2025: „Digitale Teilhabe ist Realität und muss gelernt werden“

Wer ist das? Der Deutsche Lehrerverband ist eine der größten Organisationen von Lehrer*innen in Deutschland.

Was ist die Position? Eine gesetzliche Altersgrenze für soziale Medien ist „weder realistischerweise umsetzbar noch sinnvoll“, schreibt Verbandspräsident Stefan Düll. Kinder und Jugendliche müssten lernen, sich in der digitalen Welt sicher und verantwortungsvoll zu bewegen. Es könne nicht die Lösung sein, Jugendlichen „plötzlich mit dem 16. Geburtstag“ einen Zugang zu geben. „Wir sollten nicht ständig diskutieren, was Kindern verboten wird – sondern was wir ihnen ermöglichen.“


BzKJ: Völliges Verbot „zu weitgehend“

Dezember 2024: „Junge Menschen haben ein Recht auf digitale Teilhabe“

Wer ist das? Die Bundeszentrale für Kinder- und Jugendmedienschutz ist als Bundesbehörde zuständig für die Durchsetzung von Kinderrechten im Netz auf Grundlage des EU-Gesetzes über digitale Dienste (DSA).

Was ist die Position? „Kinder und Jugendliche haben ein Recht auf digitale Teilhabe und darauf, digitale Lebensräume sicher zu erkunden“, sagte BzKJ-Direktor Sebastian Gutknecht bereits Ende 2024. „Das völlige Verbot von Social Media für unter 16-Jährige“ halte er für „zu weitgehend.“ Die Anbieter in der EU hätten die gesetzliche Pflicht, „ihre Plattformen für junge Menschen mit strukturellen Vorsorgemaßnahmen möglichst sicher zu gestalten“.


Landesanstalt für Kommunikation: „erhebliche Bedenken“

Februar 2026: „Social-Media-Verbot – Worum geht’s?“

Wer ist das? Die „Landesanstalt für Kommunikation“ (LFK) aus Baden-Württemberg ist eine von 14 deutschen Aufsichtsbehörden für privaten Rundfunk und Online-Medien.

Was ist die Position? Nach einer Sammlung von Pro- und Contra-Argumenten zieht die Behörde ein Fazit: Demnach sei der Schutz von Kindern und Jugendlichen komplex, und es bestünden „erhebliche Bedenken gegen vermeintlich einfache Lösungsvorschläge“. Insbesondere zu beachten seien „Fragen bezüglich der Umsetzbarkeit und der Reichweite eines Verbots“ sowie „unbeabsichtigte negative Folgen“.


BfDI: „keinesfalls“ undifferenzierte Altersgrenzen

Dezember 2025: Stellungnahme für den Thüringer Landtag

Wer ist das? Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) berät unter anderem die Bundesregierung bei Datenschutzgesetzgebung.

Was ist die Position? „Keinesfalls sollte undifferenziert für jedes soziale Medium in Gänze eine bestimmte Altersgrenze festgelegt werden“, schreibt Bundesdatenschutzbeauftragte Louisa Specht-Riemenschneider in einer Stellungnahme für den Thüringer Landtag. Kinder und Jugendliche hätten ein Recht auf soziale Teilhabe. Altersbeschränkungen müssten allenfalls risikobasiert sein. Aussehen könne das so: „Die Grundversion des Dienstes ist kinderfreundlich und für alle zugänglich. Erst wenn jemand eine Funktion anschalten oder einen Bereich besuchen möchte, der mit einem hohen Risiko verbunden ist, wird die Altersprüfung eingesetzt.“

Durchblick statt Schnellschüsse

Recherchen wie diese sind nur möglich durch eure Unterstützung.


Berliner Psychotherapeut*innen: mehrstufiger Schutz

Januar 2026: „Psychotherapeutenkammer warnt (…) und fordert wirksamen Schutz“

Wer ist das? Die Psychotherapeutenkammer Berlin vertritt die Interessen approbierter Psychotherapeut*innen in der deutschen Hauptstadt.

Was ist die Position? Die Therapeut*innen warnen vor Schäden für die psychische Gesundheit durch „Überkonsum von Plattformen wie Instagram, TikTok und YouTube“, auch wenn bisherige Studien keine Kausalitäten zeigen. Deshalb fordern sie ein Mindestalter und Kontrollen. „Datenschutzkonforme technische Verfahren müssen sicherstellen, dass Kinder unter einem festgesetzten Mindestalter nicht einfach Accounts erstellen“. Die Therapeut*innen fordern aber auch „sichere Voreinstellungen und Schutzmechanismen gegen exzessive Nutzung“.


Australian Psychological Society: Warnung vor Einsamkeit

November 2025: „Psychologists call for consideration for young Australians‘ mental health (…)“

Wer ist das? Die „Australian Psychological Society“ (APS) bezeichnet sich selbst als „führende Organisation“ für Psycholog*innen in Australien.

Was ist die Position? Im Vorfeld des australischen Social-Media-Verbots mahnten dortige Psycholog*innen zur Vorsicht. Zwar könnte die Maßnahme junge Menschen vor Risiken schützen. Aber ohne sinnvolle Alternativen könne der Entzug sozialer Medien eine Lücke in ihr soziales Leben reißen und Gefühle wie „Einsamkeit, Angst und Kummer“ erhöhen.


BAJ: Zugang sicher gestalten

Januar 2026: „Prävention schafft Schutz – pauschale Verbote nicht!“

Wer ist das? Die im Jahr 1951 gegründete Bundesarbeitsgemeinschaft Kinder- und Jugendschutz setzt sich „für ein gutes und gesundes Aufwachsen von Kindern und Jugendlichen“ ein.

Was ist die Position? Die BAJ ist gegen ein pauschales Nutzungsverbot von Social Media vor dem 16. Lebensjahr. Die zentrale Frage sei nicht, ob Minderjährige Zugang zu sozialen Netzwerken haben dürfen, sondern wie dieser Zugang gestaltet wird. Es gehe darum, dass Kinder und Jugendliche geschützt werden und sich entwickeln können. Wichtig sei es, Eltern zu unterstützen und bestehende Regeln durchzusetzen.


EKKJ: „vermeintliche Lösung für komplexes Problem“

November 2025: „Social Media: altersgerechter Zugang und Regeln statt Verbote“

Wer ist das? Die Eidgenössische Kommission für Kinder- und Jugendfragen ist eine staatliche Fachstelle aus der Schweiz, die Wissen für Bundesbehörden aufbereitet.

Was ist die Position? Aus Sicht der EKKJ sind „pauschale Verbote von Social Media für Kinder und Jugendliche nicht zielführend und nur eine vermeintliche Lösung für ein komplexes Problem“. Verbote seien bezüglich der negativen Folgen „weitgehend unwirksam“, so die Kommission weiter. „Gleichzeitig schränken sie positive und notwendige Lernprozesse ein, verhindern den Erwerb sinnvoller Kenntnisse und Kompetenzen und verunmöglichen wichtige Erfahrungen.“


Molly Rose Foundation: „Kinder brauchen Plattformen“

Januar 2025: „Joint statement (…) on a social media ban for under-16s“

Wer ist das? Die britische Molly Rose Foundation engagiert sich dafür, dass junge Menschen keinen Suizid begehen. Ihr Statement zum Social-Media-Verbot haben insgesamt 42 Organisationen unterzeichnet, darunter die 1884 gegründete britische Kinderschutzorganisation NSPCC.

Was ist die Position? „Gemeinsam glauben wir, dass Social-Media-Verbote die falsche Lösung sind“, halten die Unterzeichner*innen fest. Verbote würden dabei scheitern, Kindern Sicherheit zu bringen. Kinder, darunter queere und neurodivergente, bräuchten Plattformen für soziale Kontakte, Unterstützung durch Gleichgesinnte und vertrauenswürdige Hilfsangebote. Wenn Jugendliche die riskanten Plattformen dann mit 16 Jahren nutzen dürften, würden sie vor einer Klippe stehen.


Leopoldina: 13 Jahre als „verbindliches Mindestalter“

August 2025: „Soziale Medien und die psychische Gesundheit von Kindern und Jugendlichen“

Wer ist das? Die Leopoldina ist eine vom Bund und dem Land Sachsen-Anhalt finanzierte Gelehrtengesellschaft, die Politik und Öffentlichkeit beraten will.

Was ist die Position? „Strategien, die vorrangig auf Altersbeschränkungen setzen, greifen zu kurz“, schreiben die Forschenden. Dennoch empfehlen sie 13 Jahre als verbindliches Mindestalter für Social-Media-Accounts, pochen jedoch auf weitere Maßnahmen je nach Alter. Zudem kritisieren die Forschenden das „Prinzip der Aufmerksamkeitsökonomie“, also das Geschäftsmodell vieler populärer Plattformen. Das fördere „technologische Strategien zur Maximierung der Nutzerbindung“ und schaffe „gezielt suchtfördernde Strukturen“.


ÖAW: „Gefahr, dass das Ziel nicht erreicht wird“

Februar 2026: „Alterssperren auf Social-Media: Technische Grenzen und Möglichkeiten“

Wer ist das? Die Österreichische Akademie der Wissenschaften (ÖAW) ist eine 1847 gegründete Gelehrtengesellschaft aus Wien.

Was ist die Position? Das Institut für Technikfolgen-Abschätzung der ÖAW hat untersucht, wie sich ein Social-Media-Verbot durchsetzen ließe. Demnach könne Altersfeststellung im Internet „grundsätzlich Sinn machen“, es brauche aber eine breite gesellschaftliche Debatte. Weiter warnt die Studie vor der Gefahr, „dass trotz weitreichender Einschnitte für alle Internetnutzer:innen das Ziel, nämlich das eines besseren Schutzes von Minderjährigen, nicht erreicht wird“.


EDRi: Hürden werden umgangen

November 2025, „Why age verification misses the mark and puts everyone at risk“

Wer ist das? European Digital Rights (EDRi) ist der Dachverband von Organisationen für digitale Freiheitsrechte.

Was ist die Position? EDRi lehnt Social-Media-Verbote ab. Stattdessen plädiert der Verband dafür, die Ursachen für Gefahren im Netz zu bekämpfen. „Kinder brauchen und verdienen Online-Räume, in denen sie andere treffen können, Trost und Sicherheit finden, Ideen erproben und austauschen, Beziehungen aufbauen, lernen und spielen.“ Es sei sehr wahrscheinlich, dass junge Menschen Hürden umgehen.


Superrr: „Verbot ist Kurzschlussreaktion“

Februar 2025: „Nicht sehen, nicht sprechen, nicht hören“

Wer ist das? Superrr ist eine gemeinnützige Organisation, die sich für feministische Digital- und Technologiepolitik einsetzt.

Was ist die Position? „Ein Verbot ist eine Kurzschlussreaktion, die eine Auseinandersetzung mit den wirklichen Problemen verweigert“, hält Superrr fest. Wenn auf einer Straße viel Verkehr sei, laute die Lösung auch nicht, Kinder zu Hause einzuschließen. „Viel von dem, was als schädlich für Kinder beschrieben wird, schadet uns allen.“ Deshalb stellt Superrr die Frage nach einer digitalen Welt ,“die nicht nur aus uns und unserer Zeit Gewinn schlagen möchte“.


GMK: Verbot „greift langfristig zu kurz“

Dezember 2024: „Zum australischen Social-Media-Verbot aus medienpädagogischer Sicht“

Wer ist das? Die Gesellschaft für Medienpädagogik und Kommunikationskultur engagiert sich seit 1984 sich für Medienpädagogik und Medienkompetenz.

Was ist die Position? Ein Social-Media-Verbot könne kurzfristig attraktiv erscheinen, „greift jedoch langfristig zu kurz“, schreibt die GMK. Es würde weder die Bedürfnisse noch die Rechte von Kindern und Jugendlichen ausreichend berücksichtigen. Stattdessen brauche es unter anderem Hilfestellungen für Familien und Regulierung von Plattformen.


Stiftung Bildung: „Verbot schwächt Rechte junger Menschen“

Januar 2026: „Kinderrechte wahren, Medienkompetenz stärken, Teilhabe ermöglichen“

Wer ist das? Die Stiftung Bildung ist eine gemeinnützige Spendenorganisation, die sich für gute Bildung in Deutschland engagiert.

Was ist die Position? Die Stiftung spricht sich klar gegen ein Social-Media-Verbot nach australischem Vorbild aus. „Ein solches Verbot wird den komplexen Realitäten digitaler Lebenswelten nicht gerecht und schwächt langfristig die Rechte, die Resilienz und das Vertrauen junger Menschen“, schreibt die Organisation. Stattdessen brauche es einen Ansatz, der Schutz, Befähigung und Teilhabe verbinde.


Arbeiterwohlfahrt: „weder zielführend noch angemessen“

Januar 2026: „Gegen ein Social-Media-Verbot bis 16 Jahre“

Wer ist das? Die Arbeiterwohlfahrt (AWO) engagiert sich für eine sozial gerechtere Gesellschaft.

Was ist die Position? Die AWO lehnt ein generelles Social-Media-Verbot bis 16 Jahre ab und zweifelt, ob es rechtlich und technisch durchsetzbar wäre. Mit Blick auf betroffene Jugendliche sei das Verbot „weder zielführend noch angemessen“. Es gehe an der Alltagsrealität der meisten jungen Menschen vorbei und schränke Teilhabe ein. Stattdessen brauche es unter anderem Medienbildung und Sozialarbeit; außerdem müssten Plattformen ihre Angebote jugendgerecht gestalten.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

KW 8: Die Woche, in der wir uns gegen Alterskontrolle und Klarnamenpflicht wehren

21. Februar 2026 um 07:21

Die 8. Kalenderwoche geht zu Ende. Wir haben 16 neue Texte mit insgesamt 148.799 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Bunte, abstrakte Grafik mit geschwungenen, spiralförmigen Mustern, die von feinen, verzweigten Linien durchzogen sind. Die Formen sind von mehreren, kontrastreichen Farbringen umgeben, die von Rot über Gelb, Grün und Blau bis zu Violett reichen. Die Komposition wirkt dynamisch und erinnert an ein Fraktalmuster.

Liebe Leser:innen,

die Bundesregierung treibt die Debatte um ein Verbot von sozialen Netzwerken für Jugendliche unvermindert weiter. Jetzt hat sich auch der Kanzler geäußert. Die Argumente werden nicht besser, sondern undifferenzierter und härter. Hilflose Eltern im Kampf um die leidige Bildschirmzeit freuen sich, dass der Staat irgendetwas tut, wenn sie schon den Medienkonsum ihrer Kinder nicht unter Kontrolle bekommen. Man muss ja was tun!

Doch ein Social-Media-Verbot für Jugendliche ist falsch. Es gibt sehr gute Argumente dagegen. Henning Tillman hat in einem Kommentar treffend festgestellt: „Es wäre, als würde man bei einem Auto mit defekter Bremse nicht die Technik reparieren, sondern bestimmten Altersgruppen das Fahren verbieten.“

Und genau hier liegt das Problem: Die Regierung traut sich nicht an die Wurzel heran. Süchtig machende Designs und intransparente, polarisierende und letztlich demokratiezerstörende Algorithmen schaden nicht nur Jugendlichen, sondern auch Onkel Edgar, der mit YouTube politisch quer abgebogen ist und Oma Gabi, die keine Freunde mehr trifft, weil sie nicht mehr von Instagram-Reels wegkommt. Wir alle kennen solche Leute, die älter als 16 sind, bei denen es ein Problem gibt.

Statt vorhandene Gesetze durchzusetzen, Regulierungen auszuschöpfen und intelligente neue Regeln zu überlegen, wählt man den einfachen Weg – und will denjenigen die sozialen Medien wegnehmen, die keine politische Vertretung haben. Das ist letztlich feige, aber auch symptomatisch. Denn über die Köpfe der Jugend wird ja gerne hinweg entschieden, siehe Klimapolitik oder Wehrpflicht.

Der Kanzler hat die unselige Debatte um das Verbot von sozialen Netzwerken für Jugendliche jetzt noch mit dem Zombie-Thema Klarnamenpflicht im Internet verbunden. Damit macht er die Debatte noch gefährlicher. Denn für das Social-Media-Verbot muss man ja irgendwie das Alter prüfen. Da fällt Abgeordneten der Regierungsparteien nichts besseres ein als das noch nicht vorhandene EUDI-Wallet. Die digitale EU-Brieftasche soll entgegen aller Versprechen und der bisherigen gesetzlichen Planung verpflichtend für alle werden. Jawoll!

Digitaler Brieftaschenzwang für alle, die soziale Netze nutzen wollen und eine Klarnamenpflicht in sozialen Medien und im Internet und überall irgendwie. Klar abgegrenzt wird in dieser Debatte sowieso nicht mehr. Es ist nicht zum Aushalten.

Klar ist: Wer eine Klarnamenpflicht im Netz will, der schadet vielen Menschen und greift gleich mehrere Grundrechte gleichzeitig an – darunter Pressefreiheit, Meinungsfreiheit, Religionsfreiheit, informationelle Selbstbestimmung und die freie Entfaltung der Persönlichkeit. Seit vielen Jahren kommt die Idee des Identifizierungszwangs immer wieder hoch. Sie ist sehr gefährlich für die Demokratie.

Bundeskanzler Merz in seiner Selbstbezogenheit will nicht einmal im Ansatz verstehen, dass es etwas anderes ist, ob er als mächtigster Mann des Landes mit vollem Namen unterwegs ist als wenn eine 21-jährige Frau, die Missstände und rechtsradikale Umtriebe in einer ostdeutschen Kleinstadt öffentlich macht, den Schutz der Anonymität braucht, während sie die Demokratie für uns alle verteidigt. Und das ist nur ein Beispiel von vielen, warum Anonymität im Netz unverzichtbar ist, wir haben noch viel mehr aufgeschrieben. Seit Jahren!

„I can’t believe I still have to protest this shit.“ Die Parole aus der Frauenbewegung zeigt die Fassungslosigkeit, dass man immer die gleichen Kämpfe führen muss. So fühlt es sich an, wenn der Nächste ums Eck kommt um mit vermeintlich einfachen Lösungen gegen den selbstmitverrohten Diskurs („kleine Paschas“) vorgehen will.

Es ist ermüdend. Aber es hilft ja nichts. Die Klarnamenpflicht muss verhindert werden – in sozialen Netzwerken und im Internet. Gerade jetzt, wo die rechtsradikale AfD in den Startlöchern zu Regierungsbeteiligungen steht, ist diese Idee gefährlicher denn je. Wir wären ja schön blöd, denen ein solch mächtiges Unterdrückungsinstrument freiwillig in die Hände zu geben.

Schon wieder auf 180, grüßt dennoch herzlich

Markus Reuter


Social-Media-Debatte: Ursachenbekämpfung statt Verbote

In Los Angeles stehen Meta und Google vor Gericht, in der EU muss TikTok nachschärfen. In beiden Fällen geht es um ihr süchtig machendes Design. Das verweist auf einen besseren Weg im Kinder- und Jugendschutz: Ursachenbekämpfung statt Verbote. Ein Kommentar. Von Laura Jaruszewski –
Artikel lesen

Internet shutdowns in Africa: A human rights and democratic crisis

Internet shutdowns have become a growing threat to Africa’s democracy. They are an increasingly common part of the authoritarian toolkit used by governments to control information and suppress dissent. Here’s why you should care. Von Gastbeitrag, Derrick Wachaya –
Artikel lesen

Internet-Shutdowns in Afrika: Eine Krise für Menschenrechte und Demokratie

Internetsperren sind ein zunehmend verbreitetes Werkzeug autoritärer Regierungen, um Informationen zu kontrollieren und abweichende Meinungen zu unterdrücken. Damit sind sie zu einer wachsenden Bedrohung für die Demokratie in Afrika geworden. Das sollte auch den Globalen Norden interessieren. Von Gastbeitrag, Derrick Wachaya –
Artikel lesen

Bundesgesundheitsministerium: So umfassend will Warken die Gesundheitsdaten aller Versicherten verknüpfen

Bundesgesundheitsministerin Nina Warken hat ihre Digitalisierungsstrategie vorgelegt. Darin betont die CDU-Ministerin, die Patient:innensouveränität stärken zu wollen. Tatsächlich aber will sie eine der umfassendsten Gesundheitsdateninfrastrukturen weltweit aufbauen. Nutznießer sind Forschung und Pharma-Unternehmen. Die Rechte der Patient:innen bleiben auf der Strecke. Von Daniel Leisegang –
Artikel lesen

Digitalisierungsstrategie: Wie „Künstliche Intelligenz“ unser Gesundheitswesen verändern soll – und welche Fragen das aufwirft

Das Bundesgesundheitsministerium hat in der vergangenen Woche ein Update zur Digitalisierungsstrategie des Gesundheitswesens vorgelegt. Die sogenannte Künstliche Intelligenz spielt darin eine zentrale Rolle. Umso wichtiger ist es, dass wir jetzt die richtigen Fragen stellen. Von Gastbeitrag, Manuel Hofmann –
Artikel lesen

Geschichten aus dem DSC-Beirat : Leicht lädiert am zweiten Geburtstag

Seit zwei Jahren gelten neue Regeln für Plattformen in der EU. Die haben schon kleine Fortschritte bewirkt und machen Hoffnung. Aber um sie wirksam durchzusetzen, ist noch viel zu tun. Von Svea Windwehr –
Artikel lesen

Kinderähnliche Sexpuppen und süchtig machendes Design: EU eröffnet Verfahren gegen Shein

Nach Temu ermittelt die EU-Kommission nun auch gegen einen zweiten Online-Händler aus China. Die Fast-Fashion-Plattform Shein unternimmt vermutlich zu wenig gegen die Risiken, denen sie ihre Nutzer*innen aussetzt. Zur Debatte stehen gleich mehrere Verstöße gegen den Digital Services Act. Von Laura Jaruszewski –
Artikel lesen

Jugendschutz-Debatte: SPD-Politiker*innen fordern Ausweispflicht oder Netzsperren

Wichtige SPD-Politiker*innen verlangen ein Social-Media-Verbot bis 14 Jahre. Alle Nutzer*innen ab 16 Jahren sollen sich ausweisen, widerspenstigen Unternehmen drohen Netzsperren. Was hat der Vorstoß zu bedeuten? Die Analyse. Von Sebastian Meineck, Chris Köver –
Artikel lesen

KI und Datenschutz: Wo der Digitale Omnibus der EU gerade hinrollt

Unter Hochdruck will die EU Teile ihrer Digitalregulierung überarbeiten. Während der AI Act auf den letzten Metern noch um ein Verbot sexualisierter Deepfakes ergänzt werden könnte, treten beim Datenomnibus zwei wichtige EU-Institutionen auf die Bremse. Die neuesten Entwicklungen im Überblick. Von Anna Ströbele Romero, Ingo Dachwitz –
Artikel lesen

Digitale Gewalt: „Hass im Netz führt dazu, dass Frauen eher leise auftreten“

In ihrem neuen Buch „Feindbild Frau“ zeigt Ingrid Brodnig, wie Politiker*innen auf die systematischen Bedrohungen und Beleidigungen reagieren, die sie im Netz erleben. Im Interview spricht sie über dickes Fell, Durchsetzungslücken und Doppelstandards, die es Frauen schwer machen, sich dagegen zu wehren. Von Chris Köver –
Artikel lesen

Digitale Gewalt: Die Rhetorik der tausend Nadelstiche

Beleidigungen sind wirkungsvoll, weil sie uns Menschen signalisieren, welchen Stellenwert wir in der Gesellschaft haben. Oftmals richten sie sich gegen Politikerinnen. Sie werden nicht als Individuum, sondern als Vertreterin ihres Geschlechts herabgestuft. Wie kommt es dazu? Und was können wir dagegen unternehmen? Von Gastbeitrag, Ingrid Brodnig –
Artikel lesen

Anlasslose Massenüberwachung: EU-Datenschutzbeauftragter gegen wahlloses Scannen bei freiwilliger Chatkontrolle

Der europäische Datenschutzbeauftragte verlangt wirksame Schutzmaßnahmen gegen das wahllose massenhafte Scannen bei der freiwilligen Chatkontrolle. Die Ausnahmeerlaubnis für Konzerne wie Meta, Google oder Microsoft dürfe sonst nicht nochmals verlängert werden. Von Constanze –
Artikel lesen

Polizei Sachsen: Beschlagnahmebeschluss für Adenauer-Bus war rechtswidrig

Schlappe für die sächsische Polizei: Die hatte im September letzten Jahres unter fragwürdigen Umständen den Adenauer-Protestbus der Aktionskünstler vom Zentrum für politische Schönheit beschlagnahmt. Das Landgericht Chemnitz erklärte nun das Vorgehen für rechtswidrig. Von Markus Reuter –
Artikel lesen

Autoritäres Instrument: Eine Klarnamenpflicht schadet der Demokratie

Merz will eine Klarnamenpflicht im Netz. Doch die verschlechtert das Leben vieler Menschen und bedroht gleich mehrere Grundrechte. Der Kanzler wäre gut beraten, die Forderung sofort wieder einzupacken – und stattdessen vor der eigenen Haustüre zu kehren. Ein Kommentar. Von Markus Reuter –
Artikel lesen

TV-Landschaft der USA: Von Trumps Gnaden

Der US-Satiriker Stephen Colbert darf ein Interview nicht ausstrahlen, während die CBS-News-Redaktion kaum noch frei von politischem Druck arbeiten kann. Was ist da los in der US-Fernsehlandschaft? Von Tomas Rudl –
Artikel lesen

Digital Services Act: Datenzugang ist kein Plattformprivileg, sondern ein Recht

Die EU-Kommission hat X ein Bußgeld auferlegt, weil der Datenzugang, den die Plattform Forschenden zur Verfügung stellt, nicht DSA-konform ist. Die Urteilsbegründung ist bemerkenswert: Forschung wird darin nicht länger nur als Beobachterin von Plattformmacht verstanden, sondern als aktiver Bestandteil regulatorischer Kontrolle. Von Gastbeitrag, Jakob Ohme, LK Seiling –
Artikel lesen


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Digital Services Act: Datenzugang ist kein Plattformprivileg, sondern ein Recht

20. Februar 2026 um 11:24

Die EU-Kommission hat X ein Bußgeld auferlegt, weil der Datenzugang, den die Plattform Forschenden zur Verfügung stellt, nicht DSA-konform ist. Die Urteilsbegründung ist bemerkenswert: Forschung wird darin nicht länger nur als Beobachterin von Plattformmacht verstanden, sondern als aktiver Bestandteil regulatorischer Kontrolle.

Ein Astronaut, der im flachen Wasser steht, dahinter ein hell erleuchtetes Tor.
Forschende brauchen Zugang, um forschen zu können. – Gemeinfrei-ähnlich freigegeben durch unsplash.com KNXRT

Im Dezember vergangenen Jahres hat die Europäische Kommission erstmals ein Verfahren nach dem Gesetz über digitale Dienste (DSA) abgeschlossen. Sie kam dabei unter anderem zu dem Ergebnis, dass das von X bereitgestellte System, über das Wissenschaftler:innen an Nutzungsdaten gelangen sollen, nicht DSA-konform ist. Die Kommission verhängte eine Strafe von 120 Millionen Euro; X hat bis Anfang März Zeit, seine Plattform anzupassen. Der DSA ist das zentrale EU-Gesetz zur Regulierung großer Online-Plattformen und soll unter anderem Transparenz schaffen, Risiken für die öffentliche Meinungsbildung begrenzen und Forschung zu diesen Risiken ermöglichen.

Inzwischen liegt die Begründung der Kommissionsentscheidung vor. Am 28. Januar veröffentlichte der von Republikanern geführte Justizausschuss des US-Repräsentantenhauses ein Dokument der Europäischen Kommission, das die Gründe für ihre Entscheidung gegen X im Dezember darlegt. Es zeigt, wie die EU den DSA konkret durchsetzen will – und welche Rolle Datenzugang und wissenschaftliche Evidenz dabei spielen.

Die politisch motivierte Veröffentlichung und Einordnung durch den Justizausschuss, der im DSA vor allem europäische Zensurabsichten sieht, sind zwar fragwürdig. Sie ändern aber nichts an der inhaltlichen Bedeutung der Begründung selbst. Ein zentraler Bestandteil der Begründung betrifft Versäumnisse beim Gewähren von Datenzugang für Forschende nach Artikel 40(12) DSA. Dieser Datenzugang soll es ermöglichen, systemische Risiken für die EU zu erforschen – etwa Desinformation oder süchtigmachende Plattform-Designs.

Dass Plattformen diesen Zugang bislang häufig nicht freiwillig gewährten, war einer der Gründe für die Einführung des DSA. Aus dem Urteil liest sich, dass X nur knapp fünf Prozent der Anfragen von Wissenschaftler:innen genehmigt hat. Es handelt sich hier also um ein strukturelles Problem.

Enge Auslegung und Verzögerungstaktiken sind unzulässig

Die EU-Kommission stellt unmissverständlich klar, dass Plattformen das gesetzlich verankerte Recht auf Datenzugang nicht in ein von ihnen kontrolliertes Privileg umdeuten dürfen. X hatte Anträge systematisch abgelehnt, wenn Forschende nicht zweifelsfrei nachweisen konnten, dass die beantragten Daten ausschließlich der Erforschung systemischer Risiken dienen. Diese enge Auslegung widerspricht laut Kommission dem Zweck des Gesetzes. Forschende müssen nicht beweisen, dass man aus „Mehl, Butter und Eiern nur einen einzigen Kuchen backen kann“.

Erstmals wird zudem konkretisiert, was als unzulässige Verzögerung gilt: Eine Bearbeitungszeit von mehr als zwei Monaten ordnet die Kommission ausdrücklich als „undue delay“ ein – also als unerlaubteVerzögerung. Damit erhalten Forschende erstmals eine belastbare rechtliche Orientierung. Auch der Versuch, Datenzugang an Kosten, institutionelle Zugehörigkeit oder einen EU-Standort zu knüpfen, weist die Europäische Kommission zurück.

Scraping ist zulässig – auch ohne Plattformgenehmigung

Eine weitere wegweisende Klarstellung betrifft das Scraping, also das automatisierte Auslesen öffentlich zugänglicher Inhalte. Diese Zugangsform ist zentral, um Plattformdaten auch ohne Mitwirkung der Anbieter zu erheben und von Plattformen bereitgestellte Daten überprüfen zu können.

Die Kommission stellt klar, dass Forschenden dieses Recht zusteht, sofern sie die Kriterien aus Artikel 40(12) und 40(8) DSA erfüllen: Forschung zu systemischen Risiken, kein kommerzielles Interesse, transparenter Umgang mit Finanzierung und nachweisbare Datenschutz- sowie Sicherheitsmaßnahmen.

Plattformen dürfen Scraping nicht pauschal über ihre Nutzungsbedingungen untersagen, und eine vorherige Genehmigung ist nicht erforderlich – gerade weil hier die Gefahr eines „undue delay“ besteht.

Evidenz aus der Forschung hat Beweiswert

Besonders bemerkenswert ist, wie die Kommission mit der Frage der Evidenz umgeht. Sie weist die Vorstellung zurück, der Beweiswert müsse an akademische Seniorität, große Stichproben oder klassische Peer-Review-Formate gebunden sein. Entscheidend seien stattdessen methodische Sorgfalt und faktische Relevanz für den konkreten Fall.

In diesem Zusammenhang verweist die Begründung mehrfach auf den vom DSA40 Data Access Collaboratory am Weizenbaum-Institut betriebenen Data Access Tracker. Obwohl die Daten aus der wissenschaftlichen Community gesammelt wurden und keine Zufallsstichprobe darstellen, attestiert die Kommission der Erhebung ausdrücklich Beweiswert im juristischen Sinne. Auch ein von X kritisierter Preprint – ein noch nicht begutachteter Forschungsartikel – wird als relevante Evidenz anerkannt, nicht zuletzt, weil er später peer-reviewed veröffentlicht wurde.

Methodisch nachvollziehbare Forschung wird hier selbst zur Grundlage regulatorischer Durchsetzung.

Relevanz nicht nur für X

Politisch ist die Begründung der Kommission damit weit mehr als eine Einzelfallentscheidung gegen X. Sie markiert einen Meilenstein in der Durchsetzung des Digital Services Act: Forschung wird nicht länger nur als Beobachterin von Plattformmacht verstanden, sondern als aktiver Bestandteil regulatorischer Kontrolle.

Indem die Kommission methodisch nachvollziehbare Forschung ausdrücklich als rechtlich relevante Evidenz anerkennt und Plattformen klare Grenzen bei Verzögerung, Kosten und Zugangsbeschränkungen setzt, verschiebt sich das Machtgefüge zugunsten von Öffentlichkeit und Wissenschaft. Ob diese Standards künftig konsequent durchgesetzt werden und möglichen Klagen der Plattformen standhalten, wird entscheidend dafür sein, ob der DSA sein zentrales Versprechen einlösen kann: Plattformregulierung nicht nur auf dem Papier, sondern auf Basis überprüfbarer Beweise.

Dass diese Prinzipien nicht nur abstrakt gelten, sondern praktisch durchsetzbar sind, zeigt der jüngste Erfolg von Democracy Reporting International gegen X. Gerichte bestätigen zunehmend, dass Forschende ihren Anspruch auf Datenzugang aktiv einklagen können – und damit eine zentrale Rolle bei der demokratischen Kontrolle von Plattformen einnehmen.

Dr. Jakob Ohme leitet die Forschungsgruppe „Digital News Dynamics“ am Weizenbaum-Institut und untersucht dort die Rolle des digitalen Journalismus im Spannungsfeld von Influencern und Künstlicher Intelligenz. Er ist zudem Co-Principal Investigator im #DSA40 Collaboratory und arbeitet dort an kooperativen Modellen für den Zugang zu Plattformdaten im Rahmen des Digital Services Act der EU. LK Seiling ist Plattformforscher in der Forschungsgruppe „Digital News Dynamics“ am Weizenbaum-Institut und koordiniert die Arbeit des #DSA40 Collaboratory als Experte für Forschungsdatenzugang.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

TV-Landschaft der USA: Von Trumps Gnaden

20. Februar 2026 um 07:15

Der US-Satiriker Stephen Colbert darf ein Interview nicht ausstrahlen, während die CBS-News-Redaktion kaum noch frei von politischem Druck arbeiten kann. Was ist da los in der US-Fernsehlandschaft?

Der US-Satiriker Stephen Colbert durfte ein Interview nicht ausstrahlen, Hintergrund war politischer Druck der Trump-Administration. – Alle Rechte vorbehalten IMAGO / Newscom / AdMedia

Über 7 Millionen Mal wurde inzwischen ein Interview angesehen, das nicht ausgestrahlt werden durfte. Statt wie geplant am Montag im US-Fernsehen zu laufen, ist es nun auf dem YouTube-Kanal des Satirikers Stephen Colbert zu finden. Einmal mehr hat der Streisand-Effekt zugeschlagen: Schuld an den ungewöhnlich hohen Zugriffszahlen, auch abseits von YouTube, ist weniger das Interview mit einem texanischen Politiker, sondern das politisch motivierte Sendeverbot.

Vor der Sendung hatte die Rechtsabteilung des Senders, CBS, laut Colbert „unmissverständlich“ klar gemacht, dass das Interview nicht ausgestrahlt werden könne. Es bestehe die Gefahr, gegen eine Regel der Federal Communications Commission (FCC) zu verstoßen („equal time rules“). Demnach muss in Wahlkämpfen anderen Kandidat:innen die gleiche Sendezeit eingeräumt werden. Neben James Talarico, der sich derzeit um die demokratische Kandidatur für den US-Senat bewirbt, hätte die Talkshow also auch seine Mitbewerberin, die Abgeordnete Jasmine Crockett, und vermutlich auch Ahmad Hassan einladen müssen.

Allein: Besagte FCC-Regeln, die für terrestrisches Fernsehen, aber nicht für Kabel-TV oder das Internet gelten, enthalten Ausnahmen für Interviews in Nachrichten- oder Unterhaltungssendungen. US-Medien zufolge ist es das erste Mal, dass eine Talkshow derart zensiert wurde. Schlimmer noch, offenkundig war vorauseilender Gehorsam im Spiel. CBS wollte vermeiden, noch stärker ins Visier des ultrakonservativen FCC-Chefs Brendan Carr zu gelangen.

Trump-kritische Sendungen unter der Lupe

Carr hatte im Januar neue FCC-Leitlinien vorgestellt, um ebenjene Ausnahmen abzuschaffen. Wen er dabei besonders im Blick hat, ist kein Geheimnis. Populäre Talkshow-Hosts wie Stephen Colbert (CBS), Seth Meyers (NBC) und Jimmy Kimmel (ABC) lassen kaum eine Gelegenheit aus, sich über den orangenen Man im Weißen Haus lustig zu machen.

Das treibt nicht nur Trump, der Colbert als „erbärmlichen Versager“ bezeichnete und ihn am liebsten „einschläfern“ würde, auf die Palme. Selbst wenn Republikaner alle wichtigen US-Institutionen im Griff haben, fühlen sie sich benachteiligt. Im Sommer klagte etwa das konservative Media Research Center darüber, wie linkslastig die Talkshow-Landschaft doch wäre.

Regelmäßig droht Trump TV-Sendern damit, ihre Sendelizenz zu entziehen, wenn sie sich kritisch über ihn oder seine Mitstreiter:innen äußern. Immer wieder zeigt dies Wirkung, ganz ohne offizielle Anweisung. Jimmy Kimmel verschwand etwa im Herbst für eine Woche von der TV-Bildfläche, nachdem er die Ermordung des Rechtsaußen-Aktivisten Charlie Kirk und die folgende gesellschaftliche Debatte thematisierte. Wer nicht spurt, muss Konsequenzen fürchten. Die Talkshow „The View“, die ebenfalls auf ABC läuft, muss sich nun einer FCC-Untersuchung zu den „equal time rules“ stellen, wie Carr am Mittwoch auf Fox News bestätigte.

Journalismus im Visier

Der steigende politische Druck auf TV-Sender macht bei Talkshows nicht Halt. Den bekommen auch renommierte Nachrichtensendungen wie „60 Minutes“ von CBS News zu spüren. Als Folge der Übernahme des CBS-Eigners Paramount im Vorjahr begann David Ellison, Sohn des Tech-Oligarchen Larry Ellison, umgehend mit dem Umbau zu einem Trump-freundlichen Medienunternehmen. Für rund 150 Millionen US-Dollar kaufte er das Start-up „The Free Press“ auf und installierte die Gründerin und umstrittene Kommentatorin Bari Weiss als Chefredakteurin von CBS News.

Weiss, die sich zuvor einen Namen als vermeintliche Hüterin der Meinungsfreiheit gemacht hatte, ließ gleich ihre Muskeln spielen. Rund 100 Mitarbeiter:innen verloren ihren Job, betroffen waren laut Medienberichten vor allem Minderheiten und Frauen. Im Dezember verhinderte Weiss die Austrahlung des Nachrichtensegments „Inside CECOT“, das über die unmenschlichen Bedingungen des Hochsicherheitsgefängnisses in El Salvador berichtete. Dort leiden aus den USA abgeschobene Migrant:innen unter Folter und Misshandlungen.

Weiss zufolge hatte der Bericht die Perspektive der Trump-Regierung nicht ausreichend berücksichtigt. Der Bericht wurde zwar später mit nur minimalen Änderungen offiziell ausgestrahlt – zuvor drehte die ungeschnittene Fassung eines kanadischen Senders eine virale Runde durchs Internet -, aber der Schaden war bereits angerichtet. Es kam zu tumultartigen Szenen in der CBS-News-Redaktion, die weitgehend geschlossen hinter der verantwortlichen Investigativjournalistin Sharyn Alfonsi stand. In einem internen Memo sprach Alfonsi von einer politischen, nicht journalistischen Entscheidung, die Weiss getroffen habe.

Zerfallende Redaktion

Das Nachbeben ist immer noch zu spüren, zuletzt verließ der prominente Moderator Anderson Cooper das Unternehmen. Und es erfasste auch weitere CBS-Abteilungen. Letzte Woche nahmen elf Mitarbeiter:innen von CBS Evening News ihren Hut. Dort firmiert inzwischen der Moderator Tony Dokoupil als neues Gesicht der Nachrichtensendung. Aufgefallen ist er bislang vor allem durch seine Trump-freundliche Perspektive statt kritischer Berichterstattung, was sich in sinkenden Einschaltquoten widerspiegelt.

Unabhängiges journalistisches Arbeiten sei bei CBS kaum noch möglich, kritisierte die Produzentin Alicia Hastey in einem Abschiedsschreiben: „Geschichten werden nicht nach ihrem journalistischen Wert, sondern danach beurteilt, ob sie bestimmten ideologischen Erwartungen entsprechen – eine Dynamik, die Produzenten und Reporter unter Druck setzt, sich selbst zu zensieren oder herausfordernde Narrative zu vermeiden, die Gegenreaktionen oder unangenehme Schlagzeilen auslösen könnten.“

Politische Abhängigkeiten

Dabei spielt auch die geplante Expansion des Medienimperiums von Ellison eine Rolle. Paramount will sich den Hollywood-Riesen Warner Bros. einverleiben, zu dem traditionelle Filmstudios, aber auch der Nachrichtensender CNN gehören. Absegnen müssten einen potenziellen Deal jedoch Regulierungsbehörden, die allesamt in republikanischer Hand sind.

Um den Wink mit dem Zaunpfahl zu verstehen, braucht es keinen Trump-Vertrauten wie Ellison an der Unternehmensspitze. Unmittelbar vor der Übernahme von Paramount einigte sich das Unternehmen auf einen Vergleich mit Trump. Dieser hatte 60 Minutes vorgeworfen, ein Interview mit der damaligen demokratischen Präsidentschaftskandidatin Kamala Harris unzulässig editiert zu haben und verlangte Schadensersatz in der Höhe von 10 Milliarden US-Dollar. Medienexpert:innen räumten der Klage zwar keine realistischen Chancen ein, am Ende knickte das Unternehmen jedoch ein und zahlte 16 Millionen US-Dollar an Trump. Kurz danach winkte die FCC die Fusion von Paramount mit Skydance Media von Ellison durch.

Ein weiteres Opfer der Übernahme wurde ausgerechnet Stephen Colbert. Seine Talkshow, die er im Jahr 2015 von David Letterman übernommen hatte, läuft nur mehr bis zum Mai. Danach ist Schluss. Es habe sich um eine „rein finanzielle Entscheidung“ gehandelt, beteuerte CBS im Sommer. Sie stehe „in keinerlei Zusammenhang mit der Leistung, dem Inhalt oder anderen Angelegenheiten der Sendung“ – etwa der Kritik, die Colbert an dem millionenschweren Vergleich geübt hatte.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Autoritäres Instrument: Eine Klarnamenpflicht schadet der Demokratie

19. Februar 2026 um 15:07

Merz will eine Klarnamenpflicht im Netz. Doch die verschlechtert das Leben vieler Menschen und bedroht gleich mehrere Grundrechte. Der Kanzler wäre gut beraten, die Forderung sofort wieder einzupacken – und stattdessen vor der eigenen Haustüre zu kehren. Ein Kommentar.

Illustration eines geöffneten Kopfes mit einem kleinen Menschen, der in die Gitterstäbe greift, die den Kopf verschließen.
Die Klarnamenpflicht schränkt viele Grundrechte ein, zum Beispiel die Meinungsfreiheit. (Symbolbild) – Alle Rechte vorbehalten IMAGO / ANP

Nun hat also die uralte Forderung nach einer Klarnamenpflicht im Netz mit dem Bundeskanzler die höchste Ebene deutscher Politik erreicht. Besser wird die Forderung dadurch nicht. Eine Klarnamenpflicht ist nicht wirkungsvoll, sondern autoritär, falsch und extrem gefährlich für gleich mehrere Grundrechte.

Mit der derzeitigen Debatte um ein Social-Media-Verbot für Jugendliche, die vermutlich mit flächendeckenden Ausweiskontrollen umgesetzt würde,  ergibt sich allerdings gerade ein Möglichkeitsfenster für diese Art der Einschränkung des freien Internets. Dabei ist die Debatte sogar schon soweit entgleist, dass sogar die im Gesetz als freiwillig festgeschriebene digitale Brieftasche der EU von Mitgliedern der Bundesregierung jetzt als Pflicht-Instrument zur Identifizierung gefordert wird.

Dabei ist eine Klarnamenpflicht im Internet und sozialen Netzwerken bislang als Unterdrückungsinstrument von autoritären Ländern wie China bekannt.

Für freie und demokratische Gesellschaften sind Anonymität und Pseudonymität im Internet jedoch unerlässlich. Dafür gibt es zahlreiche Gründe. Und nicht umsonst ist die Anonymität im Netz in Deutschland gesetzlich festgeschrieben.

Klarnamenpflicht verschlechtert das Leben vieler Menschen

Wer eine Klarnamenpflicht im Internet oder sozialen Netzwerken einführen will, verschlechtert das Leben vieler Menschen. Wir haben schon vor Jahren zahlreiche fiktive, aber alltägliche Beispiele aufgeschrieben, die zeigen, dass Pseudonymität und Anonymität dem Schutz der Grundrechte und der freien Entfaltung und Entwicklung von Menschen dienen.

Die Möglichkeit unter einem erfundenen Namen im Internet aufzutreten, ist elementar für die Pressefreiheit, die freie Entfaltung der Persönlichkeit, die Meinungsfreiheit, die Freiheit der Kunst, die informationelle Selbstbestimmung und die Religionsfreiheit. Wir alle brauchen anonyme Orte im Netz. Das trifft nicht nur für marginalisierte Gruppen und Minderheiten zu, aber für diese besonders.

Wir alle brauchen anonyme Orte im Netz

Anonym heißt nicht gewaltvoll

Die Befürworter:innen der Klarnamenpflicht ignorieren die demokratische Notwendigkeit von Anonymität und Pseudonymität. Sie bleiben aber auch den Beweis schuldig, dass diese schwerwiegende Maßnahme überhaupt etwas bringt. Es ist nämlich alles andere als wissenschaftlich gesichert, dass durch eine Klarnamenpflicht der Diskurs befriedet wird.

Die Idee hinter der Forderung ist die Annahme, dass Menschen „mit offenem Visier“ zurückhaltender kommunizieren würden. Dafür gibt es wenig Belege. Im Gegenteil gibt es Studien, die zeigen, dass anonyme Nutzer:innen weniger aggressiv kommunizieren und solche die zeigen, dass Rassisten ganz offen hetzen.

Oftmals spielen Umfeld, Kultur und wirksame Moderation auf den jeweiligen Plattformen die entscheidende Rolle, wie diskutiert wird und wie Nutzer:innen auftreten. Dort wo Nutzer:innen selbst bestimmen können, wen sie aus ihrer Kommunikation ausschließen wollen, wird der Diskurs besser.

Es gibt zahlreiche Beispiele für Orte im Netz, in denen Menschen anonym oder pseudonym, aber vollkommen zivilisiert, achtsam und geregelt miteinander kommunizieren.

Rechtsdurchsetzung statt neuer Einschränkungen

Die Bundesregierung sollte nicht mit diesem gefährlichen Instrument gegen die Bevölkerung vorgehen. Sie sollte stattdessen das EU-Gesetz über digitale Dienste (DSA) gegen Plattformen durchzusetzen und gegen Plattformen vorgehen, wenn diese gegen EU-Gesetze verstoßen.

Man könnte den Kampf gegen Hass und Hetze in Form von gut ausgebildeten Polizeien und Staatsanwaltschaften unterstützen und Möglichkeiten schaffen, gegen strafbare Formen der Kommunikation einfacher und besser vorzugehen.

16 Beispiele, warum Pseudonymität im Netz unverzichtbar ist

Schlüsselfertiges autoritäres Haus für die AfD

Was früher noch eine eher hypothetische Warnung von Bürgerrechtlern war, ist heute leider die neue Realität. Was passiert eigentlich, wenn wir autoritäre Instrumente in einer Demokratie schaffen, die dann in die Hände der Falschen fallen? Genau vor diesem Problem stehen wir.

Die gesichert rechtsextreme AfD ist kurz davor, stärkste Partei zu werden. Eine Klarnamenpflicht würde eine mögliche Absicherung der Macht der AfD unterstützen, wenn die Rechtsradikalen an die Regierung kommen. Man baut den Zerstörern der Demokratie unnötigerweise ein schlüsselfertiges Haus, das die diese gleich beziehen können – anstatt ihnen Steine in den Weg zu legen, wo man nur kann.

Kritik nur noch mit Nummernschild?

Vielleicht sollte Friedrich Merz zunächst bei sich selbst anfangen. Er könnte zum Beispiel noch heute aufhören, auf der Hass- und Hetzplattform X zu posten. Denn dort findet genau der vergiftete Diskurs statt, der nun kritisiert wird – er wird dort durch den Eigentümer Elon Musk sogar noch aufgeheizt und befeuert. Wer als Bundeskanzler so einer toxischen Plattform durch die eigene Anwesenheit Relevanz und Seriosität verleiht, sollte von gepflegten demokratischen Diskursen besser schweigen.

Merz hat zudem wenig verstanden von der demokratischen Wichtigkeit anonymer Kommunikation, wenn er die Klarnamenpflicht auf sich selbst bezieht und aus seiner privilegierten, mächtigen Rolle als Bundeskanzler eine Zwangsoffenlegung der Namen aller Menschen fordert, die „sich sich kritisch mit unserem Land und unserer Gesellschaft auseinandersetzen.“ Kritik nur noch mit Nummernschild, oder wie ist das zu verstehen?

In Merzens Kopf schwirrt vermutlich herum, dass er als Bundeskanzler öfter einmal Gegenstand von Beleidigungen ist. Die kann er allerdings mit der ganzen Macht eines Bundeskanzlers und der Unterstützung des Bundeskriminalamts bekämpfen. Aber Privilegien und die damit verbundene Verantwortung zu verstehen, war offenbar noch nie Sache eines Kanzlers, der Privatflugzeuge fliegt, aber sich zur Mittelschicht zählt.

Merz befeuert selbst die verrohte Debattenkultur

Die ohne Frage schlechter werdende Diskurskultur, die gesellschaftliche Verrohung und das feindliche Klima hängen unmittelbar mit dem Aufstieg der AfD und ihren Narrativen zusammen. Durch permanente Diskursverschiebung und anhaltende Abwertung von Menschen verschieben die Rechtsextremen die Grenzen des Sagbaren und ermutigen Menschen zu hetzen und Grenzen zu überschreiten.

Wenn ein Friedrich Merz selbst von „kleinen Paschas“ über muslimische Jugendliche redet oder davon, dass Geflüchtete einem die Zahnarzttermine wegnehmen, dann ist dies ein Ausdruck eben genau jener Entgrenzung, die wiederum andere motiviert auch entgrenzt zu kommunizieren.

Wer also Hass und Hetze im Netz verringern will, der sollte sich selbst mit Menschenfeindlichkeit und Diskriminierung zurückhalten – und lieber ganz konkret die AfD und ihre Diskurse bekämpfen statt diese in die demokratische Mitte zu heben und zu normalisieren.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Polizei Sachsen: Beschlagnahmebeschluss für Adenauer-Bus war rechtswidrig

19. Februar 2026 um 11:41

Schlappe für die sächsische Polizei: Die hatte im September letzten Jahres unter fragwürdigen Umständen den Adenauer-Protestbus der Aktionskünstler vom Zentrum für politische Schönheit beschlagnahmt. Das Landgericht Chemnitz erklärte nun das Vorgehen für rechtswidrig.

Polizeibeamte und ein Polizeimotorrad stehen vor einem Bus
Polizeibeamte der sächsischen Polizei beschlagnahmten den Protest-Bus „Adenauer SRP+“ – Alle Rechte vorbehalten ZPS

Die Beschlagnahme des Adenauer-Busses vom Zentrum für politische Schönheit am Rande des Christopher Street Days im September letzten Jahres in Döbeln war in dieser Form rechtswidrig. Das geht aus einem Beschluss des Landgerichts Chemnitz vom 13. Februar hervor, den netzpolitik.org einsehen konnte. Die Freie Presse (€) hatte zuerst darüber berichtet.

Die Beschlagnahme des bundesweit bekannten Busses hatte sich im vergangenen Herbst zum Skandal für die Polizei in Sachsen entwickelt. Um den Protestbus aus dem Verkehr zu ziehen, hatte die Polizei rechtsstaatliche Verfahren umgangen. Das legten unabhängige Recherchen des MDR und von netzpolitik.org schon damals nahe.

Die Polizei hatte damals während der Kontrolle des Busses an einem Samstag bei der zuständigen Bereitschaftsrichterin beim Landgericht Chemnitz angerufen. Sie wollte sich von ihr die Beschlagnahme genehmigen lassen. So sieht es das rechtsstaatliche Vorgehen vor, wenn nicht gerade Gefahr im Verzug ist. Im Falle des Busses blieb offenbar Zeit, das Gericht zu kontaktieren und mehrfach zu telefonieren.

Sächsische Polizei in Erklärungsnot

Doch die Richterin verneinte die Beschlagnahme. Ob eine Gefahr von dem Fahrzeug ausgehe, könne sie aus der Ferne nicht beurteilen, dies sollten die Beamten vor Ort entscheiden. Dies geht aus einer E-Mail der Richterin vom 2. Oktober hervor, die netzpolitik.org vorliegt. Laut dem Beschluss des Landgerichts Chemnitz habe sie die Polizei auf die Möglichkeit verwiesen, in eigener Zuständigkeit eine Stilllegungsverfügung zu treffen.

Die Polizei führte daraufhin die Beschlagnahme durch und ließ sich die Beschlagnahme vom Amtsgericht in Döbeln am folgenden Montag bestätigen – behauptete aber schon am Samstag in einer Pressemitteilung, dass sie eine richterliche Bestätigung erhalten habe.

Mit Anruf bei Gericht endet polizeiliche Eilkompetenz

Dieses Vorgehen war rechtswidrig, sagt nun das Landgericht. „Die Kammer stellte fest, dass mit dem Anruf bei der Eildienstrichterin die Eilkompetenz der Polizei endete“, erklärte Gerichtssprecherin Marika Lang gegenüber der „Freien Presse“. Damit habe die Verantwortung allein bei der Justiz gelegen. Ob die Richterin am Telefon zugestimmt oder abgelehnt hat, ließ das Landgericht in seinem Beschluss offen.

Hätte die Bereitschaftsrichterin eine Beschlagnahmeanordnung mündlich erlassen, wäre eine richterliche Bestätigung der polizeilich bewirkten Beschlagnahme laut dem Gerichtsbeschluss nicht erforderlich gewesen. Hätte die Bereitschaftsrichterin eine Beschlagnahmeanordnung jedoch abgelehnt, hätte die rechtliche Grundlage für eine polizeilich bewirkte Beschlagnahme gefehlt.

Damit wäre laut dem Gericht in beiden Fällen für eine richterliche Bestätigung der Beschlagnahme gemäß § 98 Abs. 2 Satz 1 StPO kein Raum gewesen.

Die Rechtsauffassung, dass die Eilkompetenz der Polizei mit dem Anruf endete, hatten auch damals die Anwälte der Aktionskünstler sowie von netzpolitik.org befragte Jurist:innen vertreten.

„Wildwest-Methoden der Polizei Sachsen“

„Im Ergebnis ist die Beschlagnahme damit für rechtswidrig erklärt worden. Aus der Verfahrensakte geht eindeutig hervor, dass die telefonisch erreichte Bereitschaftsrichterin die Anordnung der Beschlagnahme ablehnte. Damit fehlt jeder Raum für die anschließend polizeilich angeordnete Beschlagnahme“, so Arne Klaas, Rechtsanwalt des Zentrums für Politische Schönheit.

„Ich bin froh, dass das Landgericht Chemnitz den Wild-West-Methoden der Polizei Sachsen nun endlich einen Riegel vorschiebt“, so ein Sprecher des Zentrums für Politische Schönheit gegenüber netzpolitik.org. Die Polizeidirektion Chemnitz habe mit ihrer illegalen Beschlagnahme des Busses die größtmögliche Bruchlandung hingelegt, so der Sprecher weiter. Dennoch sei der Schaden für die Versammlungsfreiheit, den Rechtsstaat in Sachsen und die Bundesrepublik entstanden.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Anlasslose Massenüberwachung: EU-Datenschutzbeauftragter gegen wahlloses Scannen bei freiwilliger Chatkontrolle

19. Februar 2026 um 11:05
Von: Constanze

Der europäische Datenschutzbeauftragte verlangt wirksame Schutzmaßnahmen gegen das wahllose massenhafte Scannen bei der freiwilligen Chatkontrolle. Die Ausnahmeerlaubnis für Konzerne wie Meta, Google oder Microsoft dürfe sonst nicht nochmals verlängert werden.

Yes we scan
Ja, wir scannen, ausnahmsweise. CC-BY-SA 2.0 Theresia Reinhold

Eigentlich war sie nur als Ausnahme vorgesehen: Die Erlaubnis zur freiwilligen Chatkontrolle soll jedoch nochmals verlängert werden. Das hatte die EU-Kommission am 19. Dezember 2025 vorgeschlagen. Anbieter von Kommunikationsdiensten wie Meta, Google oder Microsoft dürften dann weiterhin auf freiwilliger Basis Scanning-Technologien einsetzen, um beispielsweise massenhaft Mitteilungen in Chats nach verbotenen Kindesmissbrauchsdarstellungen zu durchkämmen.

Wojciech Wiewiórowski, der europäische Datenschutzbeauftragte, schlägt nun in einer Stellungnahme rechtliche Einschränkungen an der Ausnahmeregelung vor. Sie sollen eine allgemeine und wahllose Überwachung unterbinden und die Risiken des Massen-Scannings besser berücksichtigen.

Der Jurist betont, dass diese Einschränkungen von den Konzernen auch „strikt eingehalten“ werden müssten. Eine bloße Verlängerung der Ausnahmeregelung ohne Maßnahmen zur Sicherstellung der Wirksamkeit bestehender und neuer Schutzvorkehrungen bliebe „hochproblematisch“.

Kein „wahlloses Scannen“

Der europäische Datenschutzbeauftragte verweist auch auf seine früheren rechtlichen Analysen. Denn Wiewiórowski hatte sich schon mehrfach ablehnend zur Regelung der massenhaften freiwilligen Chatkontrolle geäußert. Auch der europäische Datenschutzausschuss, in dem sich die nationalen Datenschutzbehörden abstimmen, mahnte in einer Stellungnahme einen besseren Schutz der Grundrechte und einschränkende Regeln an.

Denn flächendeckende automatisierte Chatkontrollen und massenhaftes Scannen sind grundrechtswidrig, weswegen es nur temporäre Ausnahmen in einer Übergangsverordnung gibt. Wiewiórowski betont nun erneut, dass im Falle einer nochmaligen Verlängerung der vorläufigen Erlaubnis zur Chatkontrolle die rechtlichen Mängel behoben, Schutzmaßnahmen eingebaut und „wahlloses Scannen“ verhindert werden sollten.

Der europäische Datenschutzbeauftragte besteht weiterhin auf seiner rechtlichen Einschätzung, dass keine vorübergehende Ausnahme angenommen werden sollte, solange diese Mängel nicht abgestellt seien. Bisher sei die wahllose Massenüberwachung nicht ausreichend rechtlich eingehegt.

Die zweite Verlängerung

In einer Pressemitteilung zu seiner Stellungnahme hatte Wiewiórowski die Bedeutung des Schutzes von Kindern vor Missbrauch betont, aber auch gefordert, dass dabei kein „rechtliches Vakuum“ entstehen dürfe. Denn auch „vorübergehende“ Maßnahmen dürften nicht „die Grundrechte außer Kraft setzen“. Diese Grundrechte sind in den Artikeln 7 und 8 der Charta der Grundrechte der Europäischen Union festgeschrieben. Es müsse sichergestellt sein, „dass das Scannen nicht wahllos erfolgt und dass es immer eine klare Rechtsgrundlage für die Verarbeitung personenbezogener Daten gibt“.

Massenüberwachung

Wir berichten unter dem Stichwort Massenüberwachung über Technologien, die dazu eingesetzt werden, massenhaft Daten über Menschen festzuhalten und auszuwerten. Unterstütze unsere Arbeit!

„Vorübergehend“ ist offenbar ein dehnbarer Begriff, denn die Ausnahme besteht bereits seit Juli 2021 und wurde im April 2024 für weitere zwei Jahre verlängert. Eigentlich war die nun wieder zur Verlängerung anstehende Übergangsregelung nur eine Art Vorläufer für eine seit 2022 geplante EU-Verordnung zur verpflichtenden Chatkontrolle.

Sie war von der EU-Kommission vorgeschlagen worden. Doch diese EU-Verordnung zur verpflichtenden Chat-Massenüberwachung wurde bisher nicht geschaffen, sondern mündete aufgrund der massiven Kritik an diesem Überwachungsprojekt in ein langjähriges und noch immer nicht abgeschlossenes politisches Hickhack, an dem gleich mehrere EU-Ratspräsidentschaften scheiterten.

Kein Nachweis, dass Massen-Scans verhältnismäßig sind

Das EU-Parlament wird wohl im März entscheiden, ob es einer einjährigen Verlängerung der Übergangsverordnung zustimmt, die nun das automatisierte Text-Analysieren bei Nachrichten ausschließen könnte und das Scannen nur auf bekannte Hash-Werte beschränken soll.

So schlug es zuletzt Birgit Sippel vor. Die Sozialdemokratin (S&D) ist die Berichterstatterin zur freiwilligen Chatkontrolle im EU-Parlament. Der zuständige LIBE-Ausschuss der EU-Parlaments wird Sippels Vorschlag aber noch inhaltlich beraten.

Es bliebe selbst in dieser abgespeckten Variante dabei, dass den Konzernen massenhaftes Scannen „vorübergehend“ erlaubt wird. Dass dies verhältnismäßig ist, konnte die EU-Kommission aber auch nach mehr als vier Jahren Massen-Scans nicht nachweisen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Digitale Gewalt: Die Rhetorik der tausend Nadelstiche

18. Februar 2026 um 17:06

Beleidigungen sind wirkungsvoll, weil sie uns Menschen signalisieren, welchen Stellenwert wir in der Gesellschaft haben. Oftmals richten sie sich gegen Politikerinnen. Sie werden nicht als Individuum, sondern als Vertreterin ihres Geschlechts herabgestuft. Wie kommt es dazu? Und was können wir dagegen unternehmen?

Mehrere geöffnete Münder
Konstantes Beleidigen und Sticheln ist auf allen digitalen Plattformen möglich. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Nsey Benajah

In einem meiner Interviews mit einer jungen SPD-Abgeordneten zog diese während des Gesprächs ihr Handy hervor – und begann, an sie gerichtete Antworten auf der Plattform X vorzulesen:

  • „Wie viel Scheiße kann ein Mensch labern?“
  • „Frau XYZ und solche wie sie können nichts, leisten nichts und brauchen deshalb Steuergeld um sich wertvoll zu fühlen (…)“
  • „Was schreiben Sie hier für einen Unsinn?“
  • „Schluck deine Pillen und denk über eine Therapie nach.“
  • „Sagt die Lügnerin“
  • „Are you stupid?“ (Gepostet als Bild)

Dieses Bundestagsmitglied hat Migrationshintergrund. Sie erhält auch rassistische Antworten wie:

  • „Von wo kommst du?“
  • „Du nix Grammatik?“
  • „Wir schieben dich ab“

Die Abgeordnete sagte zu mir, „so extreme Sachen, extreme Gewaltfantasien“ habe sie bisher nicht erlebt, wie andere Politikerinnen, mit denen ich sprach.

Stellen Sie sich jedoch vor: Jedes Mal, wenn Sie eine App öffnen oder eine Ihrer Äußerungen eine größere Reichweite erzielt, müssen Sie damit rechnen, hasserfüllte Nachrichten zu bekommen. Manche abschätzigen Äußerungen entfalten ihre vollständige Wirkung vor allem indirekt und in der Menge. Nicht die einzelne Wortmeldung ist entscheidend – das größere Problem ist das Stakkato an Beleidigungen, mit dem manche Personen (und manche von mir befragte Abgeordnete) konfrontiert sind, wenn sie sich auf Social Media bewegen.

Einerseits kann es sein, dass Menschen in akuten Fällen von Shitstorms über ein paar Tage hinweg hunderte oder tausende solcher Botschaften abbekommen. Andererseits können sich solche Sticheleien über Wochen und Monate hinziehen.

Entscheidend ist vor allem die Masse

Buchcover "Feindbild Frau" von Ingrid Brodnig
„Feindbild Frau“ von Ingrid Brodnig, 208 Seiten, Brandstätter Verlag, 2026, ISBN 978-3-7106-0942-8. - Alle Rechte vorbehalten Brandstätter Verlag

Ich nenne das die Rhetorik der tausend Nadelstiche. Diese Art des konstanten Beleidigens und Stichelns gegen eine Person ist auf allen digitalen Plattformen möglich – auf X ist sie meines Erachtens besonders stark ausgeprägt.

Der Milliardär Elon Musk hat 2022 die Plattform Twitter gekauft und später zu X umbenannt. Er hat die Regeln gelockert und eine Generalamnestie für gesperrte Accounts ausgesprochen. Selbst extremistische User und Userinnen, die Hassrede verbreiten, durften auf die Plattform zurückkehren. Dass der Umgangston brutaler wurde, ist nicht einfach nur ein Bauchgefühl. Eine Gruppe von Forschenden aus Kalifornien berechnete, dass nach der Übernahme Twitters durch Elon Musk sowohl homophobe, rassistische als auch transfeindliche Posts zunahmen. Das Problem ist, dass sich besonders aggressive Communitys auf einzelne Accounts einschießen oder sehr aktiv werden können, wenn ein Tweet populär wird, der ihnen nicht recht ist.

Ich selbst bin nicht mehr auf X aktiv, weil ich diese Plattform nicht weiter unterstützen will. Mir ist es ab und zu passiert, dass einzelne Tweets größere Reichweite erzielten; ich bekam zuerst den Zuspruch von Gleichdenkenden und dann tagelang stichelnde, teils auch menschenfeindliche Kommentare. Zum Beispiel habe ich das Wahlkampf-Video eines FPÖ-Politikers kritisiert, in dem dieser eine Regenbogenfahne in den Müllkorb warf. Im Bild war der Slogan „Aufräumen für Österreich“ zu lesen. Über Tage hinweg erhielt ich beleidigende Äußerungen über queere Menschen. „Keine Macht den Perversen …“, schrieb ein anonymer Account. Jemand anders postete eine Zeichnung, auf der sich jemand den braunen Hintern nach dem Stuhlgang mit einer Regenbogenfahne abwischt. Viele Rückmeldungen auf X fallen in die Kategorie „jenseitig“: Ein Bild suggeriert zum Beispiel, Satan würde die Regenbogenfahne nähen.

Entscheidend ist hier vor allem die Masse: Wenn Sie auf Ihrem Account täglich mit solchem Unsinn und solchen menschenfeindlichen Reaktionen überschwemmt werden, ist das kein angenehmes Erlebnis. Man sieht irgendwann die konstruktiven Antworten gar nicht mehr, weil sie untergehen in der Vielzahl hämischer und unsachlicher Kommentare.

Das Ziel ist Verdrängung

Zurück zu der SPD-Abgeordneten, die ihr Handy gezückt hatte. Sie erzählt: „Bei mir hatte das zur Folge, dass ich mich bei X zum Beispiel zurückgezogen habe und nur noch ganz, ganz selten etwas poste.“ Ich fragte sie, wie es ihr damit geht, dass sie die Plattform meidet. Ihre Antwort: „Es erschwert meine Arbeit. Ich sage das immer wieder: Diese Debattenräume ermöglichen uns Politikerinnen natürlich auch, Debatten zu führen. Und wenn wir uns daraus zurückziehen, dann erschwert es mir die Arbeit, weil ich diesen Raum nicht mehr nutzen kann, um auch mein politisches Bild oder meine Meinung darin debattieren zu können. Gleichzeitig entziehe ich mich natürlich auch Diskursen von anderen. Das ist natürlich nicht gut, aber ich habe mich in erster Linie aus Selbstschutz dazu entschlossen.“

Beleidigungen sind wirkungsvoll – weil sie uns Menschen signalisieren, welchen Stellenwert wir in der Gesellschaft haben. Natürlich kann man manche Unfreundlichkeiten weglächeln oder rationalisieren. Sich selbst erinnern, dass gehässige Postings keine ernstzunehmenden Debattenbeiträge sind. Doch es gibt eine Grenze, wie gut dieses Weglächeln und Rationalisieren funktioniert. Die Philosophin Sybille Krämer schreibt: „Wir sind in unserer Existenz von Sprache abhängig, weil (…) wir darauf angewiesen sind, angeredet, angesprochen, angerufen zu werden. Zum Menschen werden wir nicht dadurch, dass wir Sprache haben oder gebrauchen, vielmehr ist die Sprache der ‚Stoff‘ aus dem der Mensch als ein soziales Wesen ‚gemacht‘ ist.“

Digitale Gewalt birgt die Gefahr, manche Gruppen ganz besonders aus der öffentlichen Debatte zu verdrängen. Man nennt das einen Chilling-Effekt, wenn das Erleben oder Beobachten von Beleidigungen bewirkt, dass sich jemand aus der öffentlichen Debatte zurückzieht. Und ich könnte jetzt viele Untersuchungen zitieren, die Chilling-Effekte bei Frauen beobachteten. Besonders aufschlussreich erscheint mir eine Auswertung aus Norwegen: Die Soziologin Marjan Nadim und der Politologe Audun Fladmoe beobachteten, „dass Frauen im Vergleich zu Männern eine stärkere Tendenz dazu haben, nach Online-Belästigung vorsichtiger darin zu werden, ihre Meinung öffentlich zu äußern“. Und mit steigender Intensität, also wenn Kommentare nicht nur „unangenehm“, sondern „hasserfüllt“ waren, vergrößerte sich der Abstand zwischen den Geschlechtern. Hatten sie „hasserfüllte“ Kommentare erhalten, gaben 42 Prozent der Frauen an, künftig vorsichtiger beim Formulieren ihrer Meinung zu sein – dies sagten nur 16 Prozent der Männer.

„Es braucht gestandene Frauen und keine ‚Weibchen‘.“

Die CDU-Politikerin und damalige Vizepräsidentin des deutschen Bundestages Yvonne Magwas war immens viel negativen Reaktionen ausgesetzt, nachdem sie den AfD-Politiker Stephan Brandner angezeigt hatte. Er hatte sie „bemerkenswert dumm“ genannt. Auf ein hämisches Posting hierzu folgten zum Beispiel 500 Replys. Magwas wurde „saudumm“ genannt. Der Politikerin wurde „MI Mi MI“ vorgeworfen, also zu große Wehleidigkeit. Rasch fallen auch Geschlechterklischees. Ein anonymer Account schreibt: „Jeder weiß, dass es in der Politik auch mal rauer im Ton zugeht. Statt einer Anzeige sollten Frauen vielleicht mal lernen, damit umzugehen und sich Verbal zu wehren. Es braucht gestandene Frauen und keine ‚Weibchen‘. Wo ist eure Emanzipation, nach der ihr immer schreit!? 🙄“. Ein Detail dazu: Ich finde es grundsätzlich immer bemerkenswert, wenn anonyme Accounts Menschen, die mit ihrem Namen und ihrem Gesicht in der Öffentlichkeit stehen, ausrichten, sie müssten fähig sein, mehr auszuhalten.

Ich könnte hier sehr deutliche sexistische Beleidigungen zitieren, die im Rahmen dieses Austauschs gepostet wurden, die teils unter die Gürtellinie gingen oder pauschal Frauen in der Politik verteufelten. Aber nehmen wir ein Beispiel eines Postings heran, das Frauen auf der Bildebene negativ abstempelt:

Eine Grafik, die Gesichter verschiedener bekannter Frauen zeigt.

Ich zeige diesen Beitrag ausnahmsweise her, um die beleidigende Bildsprache in den Fokus zu rücken: Diese Collage besteht in einigen Fällen aus unvorteilhaften Fotos, die bekannte Politikerinnen zeigen – sie haben etwa den Mund geöffnet während einer Rede, sie grinsen, lachen oder schauen irritiert. Das ist eine sehr simple Methode, jemanden negativ auf der Bildebene vorzuführen. Für sich genommen sind die einzelnen Bilder noch eher unspektakulär, aber speziell in Kombination wecken sie einen negativen Eindruck. Ergänzend dazu vertritt der Text die Sichtweise: Frauen wären schlecht für die Politik (konkret, sie würden diese hässlicher und korrupter machen). Meines Erachtens disqualifiziert sich dieses Posting von selbst durch die Ausdrucksweise – sowohl in Wort als auch im Bild. Allerdings entspricht es einem wiederkehrenden Typ der Beleidigung: Ich nenne es eine Pars-pro-Toto- Beleidigung. Es wird eine oder mehrere Politikerinnen zitiert oder vorgeführt, die jemand nicht mag, um anhand dessen die Gesamtheit der Frauen in der Politik negativ zu bewerten.

In vielen Fällen werden Politikerinnen also nicht als Individuum, sondern als Vertreterin ihres Geschlechts herabgestuft. Ähnliche Abwertungslogiken passieren auch Minderheiten: zum Beispiel einzelnen Menschen mit Migrationshintergrund, deren angebliches Fehlverhalten oder Inkompetenz dann als Beleg für das angebliche Fehlverhalten oder die Inkompetenz der gesamten Gruppe gewertet wird. Die hier zitierte Collage ist nur eines von vielen Beispielen, wie auf der Bildebene Häme ausgeteilt wird.

Nur weiter so, Daumen hoch!

Aber treten wir einen Schritt zurück: Bei der Rhetorik der tausend Nadelstiche gibt es ein tiefergehendes Problem: Sie ist von einer starken Asymmetrie geprägt. Während es für die Betroffenen sehr unangenehm ist, hunderte, vielleicht tausende solcher Sticheleien abzubekommen, ist dieser Vorgang für die Personen, die sich an diesen Sticheleien beteiligen, oft witzig. Da lobt man sich gegenseitig noch dafür. Zum Beispiel schreibt ein User, dass er auch den Eindruck habe, die CDU-Politikerin Magwas wäre dumm. Für diese schlichte Aussage erhält er 159 Likes. In solchen Momenten lernen Menschen potenziell: Nur weiter so, Daumen hoch!

Es ist ein wiederkehrendes Problem, dass abschätzige Wortmeldungen oft mit Likes belohnt werden. In einer Studie, die Facebook-Kommentare in den USA auswertete, beobachteten der Kommunikationswissenschaftler Jin Woo Kim und Kollegen: Mit steigender Toxizität (also steigender Unfreundlichkeit) stieg auch die Anzahl der Likes im Schnitt. Dieser Effekt kippt irgendwann, wenn die Sprache allzu gehässig wird. Aber eine gröbere Art des Ausdrucks scheint sich zu rentieren, wenn man Likes ernten will.

Dass Lerneffekte eintreten können, dafür gibt es Hinweise. Ich orientiere mich hier an Forschung zum Thema Lerneffekte auf Social Media. Konkret hat sich eine Gruppe von Psycholog:innen mit moralischer Empörung befasst – darunter versteht man, wenn Menschen etwas als Verstoß gegen ihre Wertvorstellungen wahrnehmen und mit Wut, Ekel, Abscheu reagieren. Die Untersuchung fand heraus, dass es zu Lerneffekten kommt, wenn Menschen moralisch empört posten. Als moralische Empörung wurden zum Beispiel Postings auf Twitter gewertet, die Sätze enthielten wie „du bist ein wertloses Stück Scheiße“ oder „halt deine Lügenfresse“.

Wenn User:innen eine Wortmeldung mit moralischer Entrüstung verfassten und daraufhin überdurchschnittlich viele Likes und Shares bekamen, dann stieg die Wahrscheinlichkeit, dass sie am Folgetag erneut empört posteten. Die Forschenden nennen das „bestärkendes Lernen“ oder „Reinforcement Learning“. Ein zweiter Lerneffekt kam hinzu: Wer sich neu auf einer Plattform anmeldet, erhält durch das Mitlesen der Postings einen Eindruck vom dort üblichen Umgangston. Hier fiel auf: Wenn sich Menschen in ideologisch extremeren Netzwerken befanden, also vielen Profilen am Rande des politischen Spektrums folgten, posteten sie auch eher selbst moralisch entrüstet. Diesen Effekt nennt man „Norm Learning“, Normenlernen. Diese Effekte „könnten moderatere Nutzerinnen und Nutzer motivieren, mit der Zeit weniger moderat zu sein“, notieren die Studienautorinnen und -autoren. Also die Sorge besteht, dass sich hier auch die Auffassung von Menschen, was sie als angemessene Ausdrucksweise empfinden, mit der Zeit verschieben könnte.

Wir alle können ein Korrektiv sein

Eine wichtige Beobachtung: Wir alle können ein Korrektiv sein. Wir haben natürlich nicht so viel Macht wie beispielsweise Milliardär Elon Musk mit seiner Plattform X. Auch können wir als Einzelne oder Einzelner nicht beeinflussen, dass es Communitys gibt, die in einer Tour solche Kampagnen gegen einzelne Personen oder auch Organisationen führen. Aber sinnvoll ist zu verstehen, dass die Wiederholung wirkmächtig ist, dass jede Wortmeldung einen Beitrag leistet: Denn es bedeutet, dass wir alle eine Möglichkeit des Gegensteuerns haben, indem wir selbst das Wort ergreifen.

Ich sprach mit der Psychologischen Psychotherapeutin Dorothee Scholz, ihre fachliche Spezialisierung liegt auf digitaler Gewalt. Sie sagte etwas, das gut die Wirkmacht der wiederkehrenden Abwertungen erklärt: „Es gibt eine Daumenregel in der Psychologie: In das eigene Gefühl kommt das, was man erlebt – nicht das, was man weiß.“ Das heißt, von Hasskommentaren und Diffamierungsversuchen Betroffene wissen auf einer rein rationalen Ebene, dass die Personen hinter solchen Botschaften eine Minderheit sind. Aber: „Den ganzen Tag nur Hasskommentare zu erleben, macht etwas mit der eigenen Weltwahrnehmung. Die Intensität dieser Erfahrung führt nachvollziehbarerweise zu einem ‚Verrutschen‘ der Sichtweise auf andere Menschen und damit auch zu einem starken Gefühl der Isolation.“

Ein Stück weit hilfreich gegen dieses „Verrutschen“ der Sichtweise kann es sein, Betroffenen immer wieder Wertschätzung zu kommunizieren: indem wir unsere Wertschätzung ausdrücken oder benennen, wie unfair ein Angriff ist. Dazu muss man nicht exakt dieselben Ansichten wie die betroffene Person haben – aber wenn man feststellt, dass sie über Gebühr fertiggemacht wird, ist es sinnvoll, etwas zu sagen.

Diese zivilgesellschaftliche Beharrlichkeit, immer wieder Solidarität mit Betroffenen zu zeigen, ist eine notwendige Antwort auf die Rhetorik der tausend Nadelstiche. Natürlich wird keine Person es schaffen, auf jede Wutkampagne im Internet zu reagieren, aber ab und zu kann man solche Signale senden. Und selbst wenn man nicht auf Social Media ist, ist es möglich, eine E-Mail zu schreiben. Ich persönlich glaube, in manchen Fällen kann dies einen Beitrag leisten, dass eine Situation nicht kippt und der Blick auf die Welt einer Person nicht zu sehr eintrübt.

Betroffene sollen sehen: Es gibt da draußen so viele andere Stimmen – und die meisten Menschen wollen mir Gutes.

Dieser Textauszug ist ein redigierter Auszug aus „Feindbild Frau. Wie Politikerinnen im Netz bedroht, beleidigt und verdrängt werden – und was wir alle dagegen tun können“ von Ingrid Brodnig. Das Buch erscheint am 25. Februar 2026 im Brandstätter Verlag.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Digitale Gewalt: „Hass im Netz führt dazu, dass Frauen eher leise auftreten“

18. Februar 2026 um 17:05

In ihrem neuen Buch „Feindbild Frau“ zeigt Ingrid Brodnig, wie Politiker*innen auf die systematischen Bedrohungen und Beleidigungen reagieren, die sie im Netz erleben. Im Interview spricht sie über dickes Fell, Durchsetzungslücken und Doppelstandards, die es Frauen schwer machen, sich dagegen zu wehren.

Mensch steht mit gekreuzten Armen vor einer Wand
Es ist leicht, ein dickes Fell einzufordern, wenn man nicht weiß, was Frauen im Netz erleben, sagt Journalistin Ingrid Brodnig. – Alle Rechte vorbehalten Gianmaria GAva

Ingrid Brodnig beobachtet seit Jahren die Debattenkultur im Netz, wenn man diese so bezeichnen kann. Die österreichische Journalistin hat sich spezialisiert auf Bücher und Beiträge zu Falschinformationen und digitaler Gewalt. Während der Corona-Pandemie galt sie als gefragte Expertin, um Verschwörungstheorien rund um die Pandemie einzuordnen. Noch länger beschäftigt sich Brodnig mit dem, was oftmals unter „Hass im Netz“ gefasst wird: Hetzkampagnen, gezielten Bedrohungen und Beleidigungen im digitalen Raum, die oft unterhalb der Schwelle zur Straftat liegen und doch große Wirkung entfalten.

Sechs Sachbücher hat Brodnig bislang veröffentlicht – unter anderem zu den Auswirkungen des Onlineseins auf die Gesellschaft, Falschnachrichten, Anonymität und zur Macht der großen Plattformen. Jetzt folgt ein weiteres. Für die Recherche hat sie mit Abgeordneten und Politikerinnen aus Deutschland und Österreich über ihre Erfahrungen mit Alltagsgewalt im Internet gesprochen, darunter Renate Künast und Anke Domscheit-Berg.

„Eine substanzielle Aufarbeitung erfolgt kaum“

netzpolitik.org: Dass Politikerinnen im Netz besonders häufig bedroht und massiv beleidigt werden, ist kein neues Phänomen. Warum greifen Sie das Thema erneut auf?

Ingrid Brodnig: Wir sehen diese Fälle in den Medien. Da geht es jedes Jahr um eine andere Person: Renate Künast, Ricarda Lang, Heidi Reichinnek. Eine substanzielle Aufarbeitung erfolgt aber kaum.

Wir beschäftigen uns kurz damit und freuen uns, dass Renate Künast einen juristischen Erfolg erzielt. Aber die Geschichte endet ja damit nicht.Ich wollte von den Politikerinnen erfahren: Wie erfahren sie die Anfeindungen? Und welche wiederkehrenden Muster lassen sich darin erkennen?

netzpolitik.org: Was haben Sie erfahren?

Ingrid Brodnig: Ich mache das an einem Beispiel fest. Vor ein paar Jahren gab es eine schreckliche Massenvergewaltigung in einem Bus in Indien, die Frau starb. Zu dieser Zeit schrieb jemand auf Twitter einer Politikerin, er würde ihr gerne eine Busfahrt durch Indien spendieren.

Das ist eine verklausulierte Vergewaltigungsdrohung, die aus juristischer Sicht womöglich nicht als Vergewaltigungsdrohung eingestuft wird. Denn es wird keine Absicht formuliert im Sinne von: „Ich werde dich vergewaltigen.“ Die Frau sagte dazu: Es macht keinen Unterschied, ob das verklausuliert ist oder nicht, der Effekt ist der gleiche. Das reicht bis hin zu körperlichen Folgen, Herzzustände, Schlaflosigkeit, Zittern plötzlich vor einem TV-Auftritt.

netzpolitik.org: Sie wollen, dass die Menschen so mehr über die Folgen der Gewalt erfahren?

Ingrid Brodnig: Es gibt ein großes Bewusstsein dafür, dass Hass im Netz gegen Frauen existiert, aber die Debatte verpufft schnell an dieser Erkenntnis. Wenn man diese digitale Gewalt genauer beschreibt, dann wird viel klarer, was die Betroffenen erleben und was es auslöst.

„Es ist schlimmer geworden in den vergangenen 10 Jahren“

netzpolitik.org: Sie haben bereits vor zehn Jahren ein Buch mit dem Titel “Hass im Netz” geschrieben, das sich auch mit der Gewalt gegen Politikerinnen befasst. Was hat sich seitdem verändert?

Ingrid Brodnig: Es ist schlimmer geworden. Ich habe zur Vorbereitung das alte Buch nochmal zur Hand genommen und gemerkt: Vieles darin würde ich heute nicht einmal mehr zitieren, weil es mir zu harmlos erscheint.

Es gab eine Verrohung und auch Zermürbung in diesen zehn Jahren. Wir haben uns als Gesellschaft an vieles gewöhnt. Was vor zehn Jahren noch für eine aufgeregte Offline-Debatte gesorgt hätte, empfinden wir heute schon als Business as Usual.

Gleichzeitig haben auch die Plattformen wesentliche Rückschritte gemacht. Dort konnte man eine Phase des Einlenkens beobachten, speziell nach der US-Präsidentschaftswahl im Jahr 2016. Damals wurde klar, wie stark Facebook und andere Plattformen für Propaganda genutzt wurden. Auch die EU schaute streng auf die Plattformen.

Dieser Eindruck ist mit der Wiederwahl von Donald Trump komplett gekippt. Meta hat seine Richtlinien in vielen Punkten aufgeweicht. Formen der Beleidigung und Herabwürdigung gegen Frauen oder LGBTIQ-Personen sind jetzt explizit erlaubt. Man darf LGBTIQ-Personen auf Facebook und Instagram jetzt als “psychisch krank oder anormal” bezeichnen.

„Frausein an sich ist eine Gefahr“

netzpolitik.org: Sie schreiben, die Erfahrungen dieser Politiker*innen seien für sie ein Symbol für den Zustand der Demokratie. Was meinen sie damit?

Ingrid Brodnig: Ich habe zehn Typen von wiederkehrenden geschlechtsspezifischen Beleidigungen und Bedrohungen herausgearbeitet. Ein Typus besteht in der Abwertung, die auf einer sexuellen Verwertungslogik basiert. Das wäre so ein Kommentar wie: “Niemand will dich ficken.” Frauen stehen also besonders im Fokus.

Politikerinnen sind Frauen und sie sind sehr sichtbar. Beides ist eine Gefahrensituation im Internet. Mit Sichtbarkeit steigt die Wahrscheinlichkeit, dass Communitys auf mich aufmerksam werden, die für gänzlich andere Werte eintreten oder an mir ein Exempel statuieren wollen.

Und Frausein an sich ist eine Gefahr, weil wir eine sehr starke maskulinistische Szene im Netz haben, deren Mitglieder moderne, selbstbewusste Frauen als zentrales Problem ansehen.

Demokratie baut darauf auf, dass die unterschiedlichsten Bevölkerungsgruppen gleichwertig an der politischen Debatte teilhaben können. Das wurde hart erkämpft. Ich glaube, dass derzeit die Gefahr besteht, dass wir hier auf verschiedenen Ebenen Rückschritte machen.

netzpolitik.org: Ein gängiger Einwand lautet, wer in der Öffentlichkeit steht, müsse eben mehr aushalten, auch wenn es mal unfair zugeht.

Ingrid Brodnig: Renate Künast sagte zu mir, als Politikerin hätten die meisten ein bisschen Hornhaut auf der Seele. Für ihr Team seien die Hasskommentare gegen sie anfangs schwerer auszuhalten gewesen als für sie selbst.

Mir macht das Sorge, wenn Menschen in öffentlichen Debatten in einer Demokratie Hornhaut auf der Seele brauchen, um hier überhaupt mitmachen zu können. Es ist immer leichter, eine solche dicke Haut einzufordern, wenn man nicht weiß, was Menschen erleben. Und bei Frauen ist der Verdacht natürlich besonders groß, dass sie einfach zu feinfühlig seien.

Das fehlt beim Schutz vor digitaler Gewalt

netzpolitik.org: Ziehen Frauen sich tatsächlich schneller zurück nach solchen Erfahrungen?

Ingrid Brodnig: Hass im Netz führt tatsächlich dazu, dass Frauen eher leise auftreten oder gar verstummen. 42 Prozent der Frauen, die hasserfüllte Kommentare erhalten, werden vorsichtiger beim Formulieren ihrer Meinung. Bei Männern sind es 16 Prozent, ergab eine norwegische Studie. Das ist ein demokratisches Alarmsignal!

Aber das bedeutet nicht, das Frauen zu schwach sind. Alle Geschlechter erleben digitale Gewalt. Und in jedem einzelnen Fall ist das falsch.

Bei Frauen gibt es allerdings diese spezielle sexualisierte Komponente. Und die hat zum einen eine besonders einschüchternde Wirkung. Zum anderen bekommen Frauen von klein auf gesagt, sie müssten sich vor Gefahren schützen. Es ist oft Teil ihrer Sozialisation, dass sie lernen, den Raum lieber zu verlassen, als zu riskieren, dass die Situation sich weiter zuspitzt.

„Wir haben eine Zweiklassensituation“

netzpolitik.org: In Deutschland wird seit Jahren über Ansätze debattiert, um die Rechte von Betroffene zu stärken. Das Bundesjustizministerium arbeitet an einem „digitalen Gewaltschutzgesetz“. Betroffene sollen damit leichter auf dem Privatklageweg erfahren, wer hinter einem anonymen Account steckt. Was halten Sie davon?

Ingrid Brodnig: Das erscheint mir sinnvoll. Derzeit sind sehr häufig die Kosten einer Privatklage ein hohes Hindernis. Wir haben eine Zweiklassensituation, wo diejenigen, die es sich leisten können, leichter gegen digitale Gewalt vorgehen können als andere. Alles, was dazu beiträgt, das Kostenhindernis zu verringern, ist gut.

netzpolitik.org: Die Pläne für das Gesetz sehen außerdem vor, dass Accounts künftig nach wiederholten Rechtsverletzungen per Gerichtsbeschluss gesperrt werden. Ist das angemessen?

Ingrid Brodnig: Wir müssen eine Lösung finden für Personen, die fortwährend andere Menschen verletzen oder falsche Informationen verbreiten. Wir müssen dann aber auch die Frage nach der Resozialisierung stellen. Wann wird einem Menschen beispielsweise wieder zugesprochen, dass er oder sie wieder posten darf? Bei vielen dieser Nachschärfungen gilt: Der Teufel liegt im Detail. Es bleibt Feinstarbeit.

„Die EU präsentiert sich gerne als Champions der digitalen Grundrechte“

netzpolitik.org: Auf EU-Ebene soll seit 2024 der Digital Services Act die Rechte von Nutzer*innen auf den großen Plattformen stärken. Meta, TikTok und Co. müssen etwa Meldeverfahren anbieten, die “leicht zugänglich und benutzerfreundlich” sind. Hat das zu einer Verbesserung beigetragen?

Ingrid Brodnig: Ohne den Digital Services Act wären wir derzeit sicher schlechter dran in Zeiten, in denen die großen Tech-Plattformen den Schulterschluss mit der Trump-Regierung üben. Der DSA ermöglicht es, hohe Geldbußen zu verhängen, wenn Unternehmen systemisch Risiken ignorieren oder Meldefunktionen fehlen. Aber diese Regeln müssen auch durchgesetzt werden. Bisher gab es aber nur eine negative Entscheidung aus Sicht der Plattformen, nämlich die 120 Millionen Euro Geldbuße für X.

Die EU-Kommission und die EU als Ganzes präsentieren sich gerne als Champions der digitalen Grundrechte. Und auf dem Papier hat die EU auch gute Regeln geschaffen. Aber erst die nächsten ein, zwei Jahre werden zeigen, ob sie dieses Versprechen auch einlöst. Ob ich genügend geschützt werde, wenn Falsches über mich verbreitet wird, wenn ich fertig gemacht werde, wenn ich eingeschränkt werde.

Kann die EU-Kommission die großen Plattformen kontrollieren? Kann sie potenziell rechtswidrige Kommentare auch ernsthaft und rasch prüfen? Und kann sie genügend gegen systemische Risiken unternehmen? An all diesen Fragen wird sich zeigen, wie mutig und selbstbewusst die EU auftritt – auch und gerade gegen die Konzerne in den USA.

„Jede einzelne Anzeige, die leichter erfolgt, ist schon ein Fortschritt“

netzpolitik.org: Was könnte die Bundesregierung konkret tun, um die von Ihnen beschriebene Gewalt einzudämmen?

Ingrid Brodnig: Ich sehe einige konkrete Stellschrauben. Deutschland kann als Staat einige Rechtslücken schließen oder bürokratische Hürden nehmen. Zum Beispiel die Kostenreduktion. Oder auch bildbasierte digitale Gewalt stärker ahnden, zum Beispiel sexualisierte Deepfakes. Das löst das Problem nicht als Ganzes. Aber jede einzelne Anzeige, die leichter erfolgt, ist schon ein Fortschritt. Und die Regierung muss auf europäischer Ebene den Druck erhöhen, damit die eigentlich sinnvollen Regeln auch umgesetzt werden.

netzpolitik.org: Was können Einzelpersonen in dieser Situation beitragen?

Ingrid Brodnig: In der Tat, es gibt eine dritte Ebene: die Persönliche. Ich habe auch mit der Psychotherapeutin und Psychologin Dorothee Scholz gesprochen, die mit Betroffenen digitaler Gewalt zusammenarbeitet. Aus ihrer Sicht kann es die Weltwahrnehmung sehr verändern, wenn Menschen den ganzen Tag nur Hasskommentare lesen.

Das heißt aber auch: Ich kann den Betroffenen solcher Vorfälle schreiben – öffentlich oder privat – und ihnen sagen: Das hast du nicht verdient, lass dich nicht unterkriegen oder du leistest wichtige Arbeit. Auch das hilft.

Feindbild Frau. Wie Politikerinnen im Netz bedroht, beleidigt und verdrängt werden – und was wir alle dagegen tun können“ von Ingrid Brodnig erscheint am 25. Februar 2026 im Brandstätter Verlag. Die Autorin hält am 23.2. und am 16.3. Lesungen in Wien sowie am 26.2. eine Lesung in Berlin.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

KI und Datenschutz: Wo der Digitale Omnibus der EU gerade hinrollt

18. Februar 2026 um 16:14

Unter Hochdruck will die EU Teile ihrer Digitalregulierung überarbeiten. Während der AI Act auf den letzten Metern noch um ein Verbot sexualisierter Deepfakes ergänzt werden könnte, treten beim Datenomnibus zwei wichtige EU-Institutionen auf die Bremse. Die neuesten Entwicklungen im Überblick.

Bild eines weißen Busses, durch den verschwommenen Hintergrund sieht es so aus, als würde er schnell fahren
Zumindest teilweise ist der „Digital Omnibus“ der EU mit hoher Geschwindigkeit unterwegs – Gemeinfrei-ähnlich freigegeben durch unsplash.com Gen Pol

Am 19. November 2025 präsentierte die Europäische Kommission den sogenannten „Digitalen Omnibus“: Mit zwei Gesetzen will die EU ihre Digitalregulierung überarbeiten und auf einen Schlag zahlreiche bestehende Gesetze ändern. Die Kommission will mit dem Paket Regeln vereinfachen, Bürokratie abbauen und so die Wettbewerbsfähigkeit Europas steigern.

Das erste dieser Gesetze, das die Datenschutzgrundverordnung (DSGVO), mehrere Datennutzungsgesetze und die Meldung von Cyber-Vorfällen betrifft, wird „Datenomnibus“ genannt. Das zweite Gesetz, welches die KI-Verordnung ändert, heißt „KI-Omnibus“. Für beide Vorhaben hat die Kommission ein hohes Tempo vorgegeben, die Änderungen sollen so schnell wie möglich beschlossen werden. Während dies beim KI-Omnibus, der unter anderem Teile der europäischen KI-Verordnung aufschieben soll, realistisch erscheint, dürften sich die Verhandlungen um den Datenomnibus deutlich länger hinziehen.

Sollen sexualisierte Deepfakes verboten werden?

Für den KI-Omnibus sind im Parlament zwei Ausschüsse verantwortlich: der Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) und der Ausschuss für bürgerliche Freiheiten, Justiz und Inneres (LIBE). Daher gibt es in diesem Fall auch zwei federführende Abgeordnete, die sogenannten Berichterstatter:innen: Michael McNamara ist Teil der Fraktion der Liberalen, Arba Kokalari gehört der konservativen EVP an, zu der auch CDU/CSU gehören.

Sie haben am 4. Februar gemeinsam ihren ersten Berichtsentwurf vorgelegt. Dieser beschreibt, wie sie die KI-Verordnung im Vergleich zum Vorschlag der EU-Kommission verändern wollen. Die verantwortlichen Abgeordneten anderer Fraktionen, die sogenannten Schattenberichterstatter:innen, haben bis zum 12. Februar ihre Änderungswünsche vorgelegt. Diese sind noch nicht öffentlich.

Bekannt ist jetzt schon, dass derzeit diskutiert wird, ob die Erstellung von sexualisierten Deepfakes im Rahmen des Omnibusses verboten werden soll – und unter welchen Umständen. Nach dem Skandal um Elon Musks Chatbot Grok, mit dem Nutzer:innen unfreiwillige Nacktbilder von Frauen und Minderjährigen erstellt haben, gibt es dafür gerade viel politischen Willen, sowohl im Parlament als auch unter den Mitgliedstaaten. Wie ein solches Verbot ausgestaltet werden könnte, ist jedoch umstritten.

Bei den Verhandlungen wird auch diskutiert, wer die Verantwortung für KI-Schulungen haben soll – die Anbieter der KI-Systeme oder die Regierungen. Außerdem soll entschieden werden, ob die verschobenen Fristen für Hochrisiko-Systeme fest oder flexibel sein werden. Dass sie überhaupt verschoben werden, scheint unter den Verhandelnden niemand mehr anzufechten. Ein weiteres Thema ist die Zentralisierung der Aufsicht im KI-Büro der EU-Kommission und das KI-Training mit sensiblen Daten, um Verzerrungen zu vermeiden. Ebenfalls besprochen werden mögliche Ausnahmen im Transparenzregister für KI-Systeme.

KI-Omnibus könnte bald schon am Ziel sein

Bereits nächste Woche startet im Parlament die Verhandlung, deren Ziel ein finaler Bericht ist. Es ist vorgesehen, dass die beiden Ausschüsse am 18. März darüber abstimmen. Damit würde dann die Parlamentsposition stehen und wäre bereit für den sogenannten Trilog mit der EU-Kommission und den Mitgliedstaaten.

Letztere erarbeiten im Moment ebenfalls ihre Position im Rat der Europäischen Union. Derzeit finden die Gespräche auf Ebene der Arbeitsgruppe „Vereinfachung“ statt. Es gibt bereits zwei Entwürfe. Wenn der Text final ist, wird er an die Diplomat:innen im „Ausschuss der Ständigen Vertreter“ gegeben. Auf der höchsten Ebene ist der Rat für Allgemeine Angelegenheiten für den KI-Omnibus verantwortlich.

Das Steuer hat dabei die derzeitige Ratspräsidentschaft Zypern in der Hand. Sie hat bereits angekündigt, den KI-Omnibus mit Priorität zu behandeln. Und das nicht ohne Grund: Schließlich sollen im Omnibus die Fristen für Hochrisiko-KI-Systeme angepasst werden, die eigentlich ab dem 2. August 2026 gelten würden. Der Omnibus muss daher spätestens bis zu diesem Datum in Kraft treten.

Insgesamt scheinen sich Rat und Parlament beim KI-Omnibus bisher relativ einig zu sein. Sie tendieren in vielen Punkten dazu, zum ursprünglichen Text der KI-Verordnung zurückzugehen. Unterschiede gibt es selbstverständlich in den Details.

Institutionen warnen vor Datenomnibus

Unübersichtlicher und umstrittener ist die Lage beim Datenomnibus. Während die Zusammenlegung von Datennutzungsgesetzen oder die Vereinfachung der Meldewege bei IT-Sicherheitsvorfällen für relativ wenig Aufregung gesorgt haben, ist um die Datenschutzaspekte des Vorhabens eine heftige Debatte entbrannt.

De EU-Kommission behauptet weiter steif und fest, lediglich technische Änderungen vorgeschlagen zu haben, die das Datenschutzniveau in der EU nicht verändern würden. Inzwischen mehren sich jedoch die Stimmen, die sagen: Vorschläge wie eine erleichterte Nutzbarkeit von Daten für KI, Einschränkungen von Betroffenenrechten oder eine Änderung der Definition personenbezogener Daten würde an Grundpfeilern des Datenschutzes rütteln.

In diesen Chor hat sich vergangene Woche auch der Europäische Datenschutzausschuss (EDSA) eingereiht, in dem die nationalen Datenschutzbehörden der EU zusammenarbeiten. „Einige vorgeschlagene Änderungen geben Anlass zu erheblichen Bedenken, da sie das Schutzniveau für Einzelpersonen beeinträchtigen, Rechtsunsicherheit schaffen und die Anwendung des Datenschutzrechts erschweren können“, heißt es in einer gemeinsamen Erklärung des EDSA mit dem Europäischen Datenschutzbeauftragten Wojciech Wiewiórowski.

Ehemalige Meta-Lobbyistin verhandelt über Datenschutz

Zwar begrüße man einige Vorschläge, die zu tatsächlichen Vereinfachungen führen. Darunter falle etwa eine Anhebung des Risikoschwellenwerts, ab dem eine Datenschutzverletzung der zuständigen Datenschutzbehörde gemeldet werden muss, oder die Verlängerung der Frist für die Meldung von Datenpannen. Auch Vorschläge zu Vereinfachungen bei Cookie-Bannern begrüßen die Datenschützer:innen.

Deutlich länger ist jedoch die Liste der gravierenden Mängel, die die Datenschützer:innen ausmachen. Allen voran kritisieren die Behörden die vorgeschlagene Neudefinition personenbezogener Daten, die pseudonymisierte Daten unter Umständen von der DSGVO ausnehmen würde. Dazu heißt es von der Vorsitzenden des Europäischen Datenschutzausschusses, Anu Talus: „Wir fordern die beiden gesetzgebenden Organe jedoch nachdrücklich auf, die vorgeschlagenen Änderungen der Definition personenbezogener Daten nicht anzunehmen, da sie den Schutz personenbezogener Daten erheblich schwächen könnten.“

Was die beiden angesprochenen Organe, das Europäische Parlament und der Rat der Mitgliedstaaten, mit dem Input der Datenschutz-Expert:innen anfangen werden, ist derzeit noch ziemlich offen. Der Datenomnibus wird zwar in den legislativen Prioritäten für 2026 genannt, auf welche sich die drei EU-Institutionen Ende des Jahres einigten. Das bedeutet: Das Vorhaben soll eigentlich noch in diesem Jahr abgeschlossen werden. Eine Positionierung des Rates ist nach Auskunft von Beobachter:innen in den nächsten Monaten allerdings nicht zu erwarten.

Im Parlament stellt man sich ebenfalls auf langwierige und zähe Verhandlungen ein. Hier teilen sich auch beim Datenomnibus zwei Ausschüsse die Federführung. Während im LIBE-Ausschuss für Bürgerliche Freiheiten die Sozialdemokratin Marina Kaljurand Berichterstatterin für das Thema ist, hat im Industrieausschuss (ITRE) Aura Salla das Ruder übernommen. Die finnische Politikerin von der konservativen Europäischen Volkspartei war von 2020 bis 2023 Chef-Lobbyistin des US-Tech-Konzerns Meta in Brüssel. Mit Blick auf den Datenomnibus sagte sie im Januar auf einer Veranstaltung: „Wir müssen deregulieren, nicht nur vereinfachen.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Jugendschutz-Debatte: SPD-Politiker*innen fordern Ausweispflicht oder Netzsperren

18. Februar 2026 um 15:03

Wichtige SPD-Politiker*innen verlangen ein Social-Media-Verbot bis 14 Jahre. Alle Nutzer*innen ab 16 Jahren sollen sich ausweisen, widerspenstigen Unternehmen drohen Netzsperren. Was hat der Vorstoß zu bedeuten? Die Analyse.

Ein Smartphone, umwickelt mit eiserner Kette und Vorhänge-Schloss.
Keine sozialen Medien bis zum 14. Geburtstag (Symbolbild) – Alle Rechte vorbehalten IMAGO/imagebroker; Bearbeitung: netzpolitik.org

Mit einem Impulspapier hat die SPD den Druck in der Debatte um ein Social-Media-Verbot in Deutschland erhöht. Mehrere hochrangige Politiker*innen fordern darin ein komplettes Verbot sozialer Medien für alle Menschen unter 14 Jahren. Alle Nutzer*innen – auch Erwachsene – müssten sich flächendeckend gegenüber Plattformen ausweisen. Unternehmen, die die neue Ausweispflicht nicht umsetzen, müssen dem Papier zufolge mit Netzsperren rechnen.

Die Debatte dreht sich um die Frage: Sollen Kinder und Jugendliche künftig noch auf sozialen Medien durch Feeds scrollen, posten und kommentieren dürfen? Australien hat diese Frage für sich schon beantwortet. Seit vergangenem Dezember gilt dort ein Social-Media-Verbot für alle unter 16 Jahren. Seitdem mehren sich die Rufe nach einem ähnlichen Modell in der EU. Dänemark, Griechenland und Spanien diskutieren darüber. Frankreich hat bereits ein solches Gesetz auf den Weg gebracht.

In Deutschland gab es bislang vereinzelte Forderungen nach einem Social-Media-Verbot, etwa von SPD-Justizministerin Stefanie Hubig, CDU-Digitalminister Karsten Wildberger oder dem Grünen-Politiker Cem Özdemir.

Am 15. Februar meldete sich schließlich eine Gruppe einflussreicher SPD-Politiker*innen gemeinsam zu Wort. Zu den Unterzeichner*innen gehören neben Justizministerin Stefanie Hubig auch Mecklenburg-Vorpommerns Ministerpräsidentin Manuela Schwesig und Katarina Barley, eine der Vizepräsident*innen des EU-Parlaments. Der deutsche Vize-Kanzler Lars Klingbeil hat zwar nicht unterzeichnet, das Papier aber öffentlich unterstützt. Was der SPD-Vorstoß bedeutet, zeigt unsere Analyse.

Welches Gewicht hat das Papier?

Das SPD-Impulspapier hat bereits ein enormes Medienecho ausgelöst. Wichtige Vertreter*innen einer deutschen Regierungspartei formulieren darin erstmals klare Forderungen nach einem kompletten Social-Media-Verbot.

In erster Linie dürfte das Papier wohl eine Signalwirkung Richtung Brüssel haben. Denn Alterskontrollen, wie auch andere Maßnahmen zur Plattform-Regulierung, lassen sich nach geltendem Recht nur auf EU-Ebene wirksam anwenden. Der Vorstoß der SPD in Deutschland könnte damit eine ähnliche Funktion haben wie auch jene aus Spanien oder Frankreich: Sie sollen den Druck auf die EU-Kommission erhöhen, eine EU-weite Regelung zu finden.

Denn bislang gibt es kein EU-Regelwerk, das Social-Media-Plattformen feste Altersgrenzen auferlegt. Stattdessen gilt seit 2024 das Gesetz über digitale Dienste (DSA). Es schreibt unter anderem vor, was Plattformen wie TikTok, Instagram oder YouTube tun müssen, um Kinder und Jugendliche vor Risiken zu schützen. Alterskontrollen sind demnach nur eine von mehreren möglichen Maßnahmen. Nationale Regeln, die über den DSA hinausgehen, sind nach EU-Recht nicht möglich: Der DSA hat Vorrang.

Das dürften auch die Verfasser*innen des SPD-Papiers wissen. Sie schließen mit den Worten, entsprechende Regelungen seien „vorrangig auf europäischer Ebene zu treffen“. Konkret soll die EU die Forderungen im Rahmen des geplanten Digital Fairness Acts umsetzen. Es ist das nächste große Digitalgesetz, bis Ende des Jahres will die Kommission einen Entwurf vorlegen.

In Brüssel verhandeln Kommission, Rat und Parlament derzeit außerdem über ein weiteres Gesetzespaket, das ebenfalls Alterskontrollen für Plattformen und App-Stores vorsieht: Die Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern, kurz: CSA-VO.

Der Impuls der SPD dürfte sich auch an den eigenen Koalitionspartner richten, die Union. In der Regierung zuständig für Jugendmedienschutz ist Bundesfamilienministerin Karin Prien (CDU). Sie hat zwar schon signalisiert, dass sie sich ein Verbot gut vorstellen könne. Allerdings sagte ein Regierungssprecher Anfang der Woche: Die Bundesregierung werde keinen Vorschlag vorlegen, solange die vom Familienministerium einberufene Expert*innenenkommission noch keine Ergebnisse vorgelegt hat. 16 Fachleute sollen darin bis zum Sommer ein Konzept für „Kinder- und Jugendschutz in der digitalen Welt“ entwerfen.

Ausweiskontrollen, Netzsperren: Das fordert das SPD-Papier

Das Papier der SPD sieht eine Social-Media-Regulierung in drei Stufen vor.

Erstens sollen alle Kinder und Jugendliche bis 14 Jahren Social-Media-Plattformen wie TikTok oder Instagram nicht mehr nutzen dürfen. Die Anbieter sollen dazu verpflichtet werden, „den Zugang technisch wirksam zu unterbinden“.

Zweitens soll es für Jugendliche im Alter von 14 und 15 Jahren eine „Jugendversion“ der Plattformen geben, die mehrere Kriterien erfüllt. Sie darf demnach keine algorithmisch sortierten Inhalte zeigen, wie es etwa der For-You-Feed auf TikTok tut. Anbieter dürfen keine personalisierte Inhalte ausspielen. Und sie müssen Funktionen wie Push-Benachrichtigungen und Endlosfeeds abschalten, die darauf ausgelegt sind, Nutzer*innen möglichst lange an die Plattform zu binden.

Erziehungsberechtigte sollen den 14- und 15-Jährigen den Zugang zu den betroffenen Plattformen freischalten. Passieren soll das nach Vorstellung der SPD mit Hilfe der geplanten digitalen Brieftasche (EUDI-Wallet). Das ist eine offizielle App, die künftig allen EU-Bürger*innen zur Verfügung stehen soll. Damit sollen sie sich im Netz ausweisen können, so zumindest das Versprechen der EU. Der Start in Deutschland ist für den 2. Januar 2027 geplant.

Drittens soll es für Menschen ab 16 Jahren einen vollen Zugang zu sozialen Medien geben. Doch auch hier sollen die algorithmisch optimierten Empfehlungssysteme standardmäßig deaktiviert ein – also auch für Erwachsene. Die Verfasser*innen sehen darin eine „Rückkehr zum klassischen Social-Media-Prinzip“. Konkret erklären sie das so: „Ohne weitere Einstellungen sehe ich auf meiner Seite ausschließlich Inhalte von Personen und Accounts, denen ich aktiv folge.“

Sollten sich Plattformen nicht an die Vorgaben halten, fordern die Unterzeichner*innen eine Reihe von Sanktionen. Diese dürften nicht erst nach „langen Prüfverfahren“ greifen, sondern müssten schnell erfolgen, wenn etwa Kinder und Jugendliche gefährdet seien. Die Rede ist von „sofortigen Anordnungen“ und „empfindlichen Sanktionen“ – bis hin zu Netzsperren als „Ultima Ratio“.

Nur knapp erwähnt das Papier Aufklärung und Prävention. Medienbildung an Schulen, Schulsozialarbeit und Elternberatung wolle die SPD stärken. Solchen Maßnahmen fallen aber in der Regel in die Zuständigkeit der Länder und müssten von ihnen finanziert werden.

Welche Schwächen hat das Papier?

An mehreren Stellen argumentiert das Papier unsauber, weckt falsche Erwartungen oder blendet grundrechtliche Abwägungen aus. Folgende Aspekte fallen ins Auge.

  • Altersgrenze: Auf Seite eins argumentieren die Verfasser*innen ausführlich gegen Social-Media-Verbote. Sie fordern Schutz statt Ausschluss. Sie schreiben, ein generelles Verbot würde Kindern und Jugendlichen ihren „virtuellen Lebensraum nehmen und die eigentliche Problematik nicht in Gänze adressieren“. Auf Seite zwei wiederum fordern die Verfasser*innen ohne weitere Begründung ein generelles Social-Media-Verbot für alle unter 14 Jahren. Das ist widersprüchlich.
  • Definition: Das Papier definiert nicht, welche sozialen Medien gemeint sind. Deshalb ist unklar, ob auch kleinere nicht-kommerzielle Netzwerke wie das Fediverse eingeschränkt werden sollen – also Dienste, bei denen die befürchteten Risiken kaum oder nicht bestehen.
  • Netzsperren als Sanktion gegen Online-Plattformen sind verfassungsrechtlich bedenklich, gerade verbunden mit der Forderung, dass Konsequenzen „schnell“ sein müssen. Denn Netzsperren gelten als scharfes Schwert, das insbesondere in autoritären Regimen zum Einsatz kommt. Sie schränken Grundrechte wie Meinungs- und Informationsfreiheit empfindlich ein. Der DSA sieht Netzsperren lediglich bei sehr schweren Verstößen vor – und nur zeitlich beschränkt.
  • Eignung: Einige der im Papier beschriebenen Risiken sind nicht auf soziale Medien beschränkt. Zum Beispiel setzen auch viele Games auf Suchtmechanismen, die Menschen immer wieder ins Spiel hineinziehen und zu teuren In-App-Käufen verleiten. Hassrede und psychischer Druck wiederum sind auch ein großes Problem in Messengern, etwa beim Cybermobbing. Das heißt, die geforderten Regeln passen nur teilweise zu den beschriebenen Risiken.
  • Wirksamkeit: Mit simplen Werkzeugen wie VPN-Diensten lassen sich sowohl Netzsperren als auch Altersschranken umgehen – Jugendliche in Australien tun das schon ersten Berichten zufolge. Das wirft die Frage auf, ob die Forderungen überhaupt eine Wirkung haben. Das SPD-Papier thematisiert das nicht.

Durchblick statt Schnellschüsse

Recherchen wie diese sind nur möglich durch eure Unterstützung.

  • Bots: An zwei Stellen wechselt das SPD-Papier überraschend das Thema. Statt um Jugendschutz geht es plötzlich um Bots. „Wir brauchen mehr Handhabe darüber, dass sich hinter einem Account tatsächlich ein Mensch verbirgt“, heißt es. Demnach sollen die geforderten Alterskontrollen gegen „Bots“ schützen sowie gegen Netzwerke „zur gezielten Manipulation“. Diese Argumente stammen aus der kontroversen Debatte um Klarnamenpflicht. Sie haben kaum Anknüpfungspunkte zur laufenden Jugendschutz-Debatte.
  • Ausweispflicht: Um ihr Alter nachzuweisen, sollen Menschen künftig die digitale Brieftasche (EUDI-Wallet) nutzen, heißt es im SPD-Papier.  Aber laut EU-Recht darf es keinen Zwang zur digitalen Brieftasche geben. In der entsprechenden EU-Verordnung (eIDAS) steht: Die Nutzung der digitalen Brieftasche ist „freiwillig“. Wer sie nicht nutzt, darf „in keiner Weise eingeschränkt oder benachteiligt werden“.
  • Teilhabe: Der Fokus auf die EUDI-Wallet wirft ein weiteres Problem auf. Wer keine Ausweispapiere hat, kann sich auch keine digitale Brieftasche einrichten – und hätte damit künftig keinen Zugang mehr zu Plattformen wie Instagram, TikTok oder YouTube. Das schränkt die digitale Teilhabe ein. Allein in Deutschland leben Hunderttausende Menschen ohne Papiere.
  • Datenschutz: Die Verfasser*innen versprechen Jugendschutz „ohne Einschränkung der Anonymität“. Doch die im Papier beschriebenen Lösungen für Alterskontrollen sind nicht anonym. Zwar will die EU die Kontrollen in der kommenden digitalen Brieftasche datensparsam gestalten. Ein 2025 präsentierter Prototyp funktionierte aber nicht anonym, sondern pseudonym. Ein Pseudonym lässt sich oftmals auf eine Person zurückführen. An anderer Stelle verweist das SPD-Papier auf bereits heute in Deutschland anerkannte Verfahren für Alterskontrollen im Jugendmedienschutz. Diese Verfahren sind teils sehr invasiv: Nutzer*innen müssen je nach Anbieter ihren Ausweis vor die Kamera halten, ihr Gesicht biometrisch scannen oder Daten über die Schufa abgleichen lassen.

Welche Stärken hat das Papier?

Bisher war die Debatte in Deutschland von knappen Forderungen geprägt. Meist haben sich Politiker*innen pauschal für oder gegen ein Social-Media-Verbot ausgesprochen. Das SPD-Papier liefert auf mehreren Ebenen Differenzierung.

  • Die Verfasser*innen zeichnen ein ambivalentes Bild sozialer Medien und legen auch deren Vorteile ausführlich dar: Etwa, dass sie Raum für soziale Kontakte bieten, für demokratischen Diskurs, Information, Teilhabe und Selbstbestimmung, oder dass sie Menschen eine Stimme geben, „die sonst kaum Gehör finden“.
  • Das Papier benennt konkrete Risiken, für die es strengere Regeln geben soll: Es geht um algorithmisch sortierte Feeds, die Desinformation verbreiten können, öffentliche Debatten verzerren und gesellschaftliche Gruppen polarisieren. Um Suchtmechanismen, die menschliche Aufmerksamkeit ausnutzen. Um sozialen Druck und psychische Belastungen.
  • Das Papier behandelt junge Menschen nicht als homogene Gruppe, sondern fordert je nach Altersgruppe abgestufte Vorschriften.
  • Außerdem erkennt das Papier an, dass die beschriebenen Risiken nicht nur junge Menschen betreffen, sondern alle: „Auch Erwachsene sind von Polarisierung, Hassrede und algorithmisch gesteuerten Aufmerksamkeitsökonomien betroffen.“ Entsprechend sollen die vorgeschlagenen Einschränkungen für Menschen ab 16 Jahren ebenso für Erwachsene gelten.

Was passiert als nächstes?

Die Debatte hat eine Eigendynamik, seit Australien im Dezember 2025 mit dem Social-Media-Verbot für unter 16-Jährige vorgeprescht ist. Angefeuert von Nachrichtenmedien wird sie oftmals auf eine simple, binäre Frage verengt: Social-Media-Verbot – ja oder nein.

Am Wochenende will die CDU auf ihrem Parteitag über einen Antrag entscheiden, der ein Verbot für unter 16-Jährige fordert, begleitet mit verpflichtender Altersverifikation. Bereits im Vorfeld hat Bundeskanzler Friedrich Merz „Sympathien“ dazu geäußert. Der Chef der Schwesterpartei CSU, Markus Söder, bewertet ein Verbot weiterhin zurückhaltend.

Die nationalen Vorstöße können ein Druckmittel sein, um die EU zu einer Initiative zu bewegen, und die Kommission hat den Ball bereits aufgegriffen. Digitalkommissarin Henna Virkkunen hat sich für eine EU-weite Lösung ausgesprochen – ohne vorwegzunehmen, ob es auf ein Verbot hinauslaufen soll. Eine konkrete Gelegenheit für strengere Social-Media-Regulierung wäre der geplante Digital Fairness Act. Verbote würden sich allerdings mit dem frisch verhandelten Gesetz über digitale Dienste (DSA) beißen, das abgestufte Regeln je nach Dienst und Risiko vorsieht.

Interessierte können sich den Sommer wohl im Kalender vormerken. Nicht nur die Verfasser*innen des SPD-Papiers pochen auf diesen Zeitraum. Auch die EU-Kommission wolle bis Sommer eine Entscheidung fällen, und die vom Familienministerium einberufene Expert*innen-Kommission soll bis dahin Ergebnisse vorlegen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kinderähnliche Sexpuppen und süchtig machendes Design: EU eröffnet Verfahren gegen Shein

17. Februar 2026 um 18:32

Nach Temu ermittelt die EU-Kommission nun auch gegen einen zweiten Online-Händler aus China. Die Fast-Fashion-Plattform Shein unternimmt vermutlich zu wenig gegen die Risiken, denen sie ihre Nutzer*innen aussetzt. Zur Debatte stehen gleich mehrere Verstöße gegen den Digital Services Act.

Die App Shein wird im App Store angezeigt.
Der Online-Händler Shein hat nicht nur Kleidung, sondern auch illegale Waren verkauft. – Alle Rechte vorbehalten IMAGO / imagebroker

Mit dem Digital Services Act (DSA) verpflichtet die EU sehr große Online-Plattformen, Risiken ihrer Angebote zu identifizieren und zu beheben. Weil der chinesische Fast-Fashion-Händler Shein diesen Vorgaben möglicherweise nicht ausreichend nachgekommen ist, hat die EU-Kommission nun ein Verfahren gegen das Unternehmen eröffnet. Das teilte sie am heutigen zweijährigen Geburtstag der EU-Verordnung über digitale Dienste mit.

Die Shopping-Plattform soll monatlich etwa 126 Millionen aktive Nutzer*innen in der EU haben. Seit Juni 2024 hatte die Kommission mehrfach Informationen von Shein angefragt. Die Entscheidung, eine Untersuchung einzuleiten, basiert auf diesen Auskunftsersuchen, auf einer vorläufigen Analyse der von Shein vorgelegten Risikobewertungsberichte und auf Einschätzungen dritter Parteien.

In Frankreich hatte sich im letzten Jahr bereits Widerstand gegen den Online-Händler geregt, jedoch war die französische Regierung mit dem Versuch gescheitert, die Plattform für drei Monate zu sperren.

„Illegale Produkte sind verboten“

Die Kommission attestiert dem Konzern Handlungsbedarf in drei Bereichen. An erster Stelle steht der Verkauf illegaler Waren, wegen dem der Fast-Fashion-Händler in der Vergangenheit bereits in Kritik stand. Zum Beispiel konnten genehmigungspflichtigen Waffen oder kinderähnliche Sexpuppen auf dem Marktplatz erworben werden.

Bei der Untersuchung geht es jedoch nicht darum, dass die EU gezielt den Verkauf einzelner Produktgruppen kontrollieren will. Vielmehr will sie dafür sorgen, dass die Plattform selbst ihre Systeme so gestaltet, dass Risiken minimiert werden. Konkret muss Shein also dafür sorgen, dass auf dem Marktplatz keine illegalen Waren gehandelt werden können.

„In der EU sind illegale Produkte verboten – egal, ob sie im Ladenregal oder auf einem Online-Marktplatz angeboten werden“, so EU-Kommissionsvizepräsidentin Henna Virkkunen zu dem Verfahren. „Der Digital Services Act schützt die Sicherheit und das Wohlergehen von Käufern und versorgt sie mit Informationen über die Algorithmen, mit denen sie interagieren.“

Ein zweiter Kritikpunkt betrifft mutmaßlich süchtig machendes Design des Online-Händlers. Er vergibt unter anderem Verbraucherpunkte oder Belohnungen für Engagement auf der Plattform. Das könne Suchtpotenzial entwickeln, welches sich negativ auf das Wohlbefinden der Nutzer*innen und den Verbraucherschutz im Internet auswirkt.

Außerdem kritisiert die Kommission mangelnde Transparenz des algorithmischen Empfehlungssystems von Shein. Dieses muss nach dem DSA zudem so gestaltet sein, dass sich Nutzer*innen optional für ein nicht-personalisiertes Empfehlungssystem entscheiden können.

EU ermittelt auch gegen Temu

Shein ist die zweite sehr große Plattform im Bereich Online-Handel, gegen die eine Untersuchung wegen süchtig machender Designpraktiken besteht. Bereits im Jahr 2024 hatte die EU-Kommission aus den gleichen Gründen ein Verfahren gegen Temu eröffnet.

Sollte die Kommission im Zuge der formalen Untersuchung zu einer Nichteinhaltungsentscheidung kommen, also einen tatsächlichen Verstoß gegen den DSA feststellen, kann sie zum Beispiel Bußgelder gegen das Unternehmen verhängen. Bis dahin ist es der Online-Plattform aber möglich, auf Forderungen zu reagieren und Anpassungen vorzunehmen. Wann es zu einer Entscheidung in dem Verfahren kommt, bleibt jedoch offen, denn der DSA schreibt hierfür keine Frist vor.

Der Online-Händler zeigt sich nach Angaben von Zeit.de bisher kooperationswillig: „Wir teilen das Ziel der Kommission, eine sichere und vertrauenswürdige Online-Umgebung zu gewährleisten, und werden uns weiterhin konstruktiv an diesem Verfahren beteiligen.“ Bei altersbeschränkten Produkten habe man bereits weitere Sicherheitsvorkehrungen ergriffen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Geschichten aus dem DSC-Beirat: Leicht lädiert am zweiten Geburtstag

17. Februar 2026 um 09:03

Seit zwei Jahren gelten neue Regeln für Plattformen in der EU. Die haben schon kleine Fortschritte bewirkt und machen Hoffnung. Aber um sie wirksam durchzusetzen, ist noch viel zu tun.

Ein bunter Kuchen auf dem eine Kerze in Form der Ziffer "2" steht.
2 Jahre Digital Services Act, Grund zum Gratulieren? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Kelly Sikkema

Der DSC-Beirat ist ein Gremium aus Zivilgesellschaft, Forschung und Wirtschaft. Er soll in Deutschland die Durchsetzung des Digital Services Act begleiten und den zuständigen Digital Services Coordinator unterstützen. Svea Windwehr ist Mitglied des Beirats und berichtet in dieser Kolumne regelmäßig aus den Sitzungen.

Seit dem 17. Februar 2024, also seit genau zwei Jahren, gilt in der EU der Digital Services Act. Das Regelwerk soll Nutzende schützen und mehr Transparenz und Fairness gegenüber Online-Plattformen und -Diensten schaffen. Gibt es etwas zu feiern?

Die Bilanz ist gemischt: Ein erstes Verfahren gegen X wurde zum Abschluss gebracht, viele andere Ermittlungen laufen noch. Die Rahmenbedingungen für Forschungsdatenzugang stehen endlich, in der Praxis gibt es aber noch massive Probleme. Zivilgesellschaft und Forschende haben unzählige Verfahren angestoßen und liefern wichtige Evidenz zu DSA-Verstößen, sind jedoch Repression und Delegitimierung ausgesetzt.

Pünktlich zum Geburtstag hat sich der neu berufene DSC-Beirat in neuer, kleinerer Konstellation zu seiner ersten gemeinsamen Sitzung getroffen und sich mit dem Stand der DSA-Durchsetzung beschäftigt. Der Beirat ist im Vergleich zu seiner letzten Besetzung geschrumpft, da die vier Vorschläge der AfD im Plenum des Deutschen Bundestages keine Mehrheit fanden. Deshalb und wegen der christ-demokratischen Definition von Zivilgesellschaft ist insbesondere von deren gesetzlich angedachter Stärke im Beirat des DSC nicht viel übrig geblieben.

Fortschritt in kleinen Schritten

Bei der Durchsetzung des DSA geht es nach wie vor oft schleppend voran. Der Koordinator für Digitale Dienste in Deutschland prüft noch, ob weitere außergerichtliche Streitbeilegungsstellen und Trusted Flagger zugelassen werden sollen. Während die Streitbeilegungsstellen etwa bei strittigen Moderationsentscheidungen zwischen Nutzer:innen und Plattformen vermitteln sollen, agieren die Trusted Flagger als vertrauenswürdige Hinweisgeber, deren Meldungen die Plattformen priorisiert bearbeiten sollen. Aktuell gibt es in Deutschland vier Organisationen, die als Trusted Flagger anerkannt sind, sowie zwei Streitbeilegungsstellen.

Von inzwischen insgesamt 30 durch den DSC eingeleiteten Verwaltungsverfahren gegen in Deutschland ansässige Plattformen wegen DSA-Verstößen scheint noch keines zum Abschluss gekommen zu sein. Und auch auf europäischer Ebene wurde seit der Verhängung eines Bußgelds gegen X im Dezember 2025 kein weiteres Verfahren zu Ende gebracht.

Immerhin kleine Fortschritte gibt es beim Datenzugang für Forschende. Nachdem detaillierte Hinweise, wie genau der Datenzugang ausgestaltet werden soll, Ende Oktober 2025 endlich in Kraft getreten sind, können Forschende Anträge auf Datenzugang bei ihren nationalen Aufsichtsbehörden stellen. Über dieses durch den DSA neu geschaffene Recht können sie zum ersten Mal qualitative und quantitative Daten von Plattformen anfragen, um systemische Risiken zu erforschen. Damit schafft der DSA längst überfällige Rahmenbedingungen, die unabhängige Forschung und ein besseres Verständnis von Online-Plattformen ermöglichen sollen – und potenziell wichtige Grundlagen für Durchsetzungsverfahren schaffen können.

Beim deutschen DSC sind seitdem immerhin neun Anträge auf Datenzugang eingegangen. Das klingt vielversprechend, allerdings wurden die meisten der neun Anträge wieder zurückgezogen, da die benötigten Daten auch über den niedrigschwelligeren Datenzugang über Schnittstellen der Plattformen angefragt werden konnten. Diese Möglichkeit, Daten über APIs anzufragen, funktioniert in der Praxis je nach Plattform durchwachsen bis schlecht – mangelnder Zugang zu Forschungsdaten ist einer der DSA-Verstöße, die zum Bußgeld gegen X beigetragen haben. Die Gesellschaft für Freiheitsrechte und Democracy Reporting International haben X kürzlich zum zweiten Mal deswegen verklagt.

Es ist also noch zu früh, um sich über große Durchbrüche beim Datenzugang zu freuen, aber immerhin können Forschende jetzt das System ausprobieren, Anträge stellen und auf Durchsetzung pochen, wenn die Plattformen sich weigern.

Ebenfalls hoffnungsvoll stimmen die kürzlich veröffentlichten vorläufigen Ergebnisse zu einem Verfahren gegen TikTok. Dort kommt die Europäische Kommission zu dem Schluss, dass die Videoplattform nicht genug getan hat, um Risiken von suchtfördernden Mechanismen insbesondere für Minderjährige zu mindern, beispielsweise endlose Feeds und hoch-personalisierte Empfehlungen. Das ist spannend, weil die Kommission davon ausgeht, dass TikTok das „grundlegende Design“ der Plattform ändern muss, um diesen Risiken beizukommen.

Sollte die Kommission bei dieser Einschätzung bleiben und nach Abschluss des Verfahrens Bußgelder gegen TikTok verhängen, hätte der Fall Auswirkungen weit über TikTok hinaus: Endlose Feeds und hoch-personalisierte Empfehlungen sind Kernelemente aller großen sozialen Netzwerke und Videosharingplattformen. Hier zeigt der DSA sein Potenzial, einerseits strukturelle Änderungen zu erstreiten, die das Businessmodell der Plattformen direkt betreffen. Das könnte zu anderen und besseren digitalen Räumen führen .

Andererseits zeigt die Argumentation, dass der DSA sinnvolle Werkzeuge bietet, um den Features und Plattform-Praktiken zu begegnen, die in der Debatte um Verbote von sozialen Medien für Kinder und Jugendliche im Fokus stehen: süchtigmachendes Design, Personalisierung basierend auf Unmengen persönlicher Daten, Produktdesign, das die Rechte und Interessen von Kindern wahrt.

Ein solches Verbot wurde Anfang Februar von Spaniens Premierminister Pedro Sanchez angekündigt, wofür er prompt von Elon Musk als Tyrann und Verräter Spaniens betitelt wurde. Daraufhin solidarisierte sich die Europäische Kommission mit Sanchez, während sie gleichzeitig festhielt, dass nur die Europäische Kommission durch den DSA weitere Verpflichtungen gegenüber sehr großen Online-Plattformen aussprechen darf. Angesichts des Eifers von Mitgliedstaaten wie Spanien, Italien, Griechenland, Frankreich und den Niederlanden bleibt abzuwarten, ob sich EU-Regierungen diesem Machtwort aus Brüssel beugen werden. Ob es also europäische Verboten von sozialen Medien geben wird, ist nach wie vor unklar.

Keine Durchsetzung ohne Repression

Solidarisch hatte sich die Europäische Kommission Ende Dezember auch gegenüber Mitgliedern eines angeblichen „globalen Zensur-industriellen Komplexes“ gezeigt, nachdem sie vom US-Außenministerium mit Visa-Sanktionen belegt worden waren, unter ihnen die beiden Geschäftsführerinnen von HateAid. HateAid ist eine der Organisationen, die als Trusted Flagger in Deutschland zugelassen sind.

Mit diesen Sanktionen markiert die Trump-Regierung Menschen als politische Feinde, die Online-Plattformen für Verstöße gegen geltendes Recht zur Verantwortung ziehen, bestraft sie und versucht, sie an ihrer Arbeit zu hindern.

Seit den Sanktionen gegen Zivilgesellschaft und Forschende vom Dezember hat ein neuer Bericht des Rechtsausschusses des US-Abgeordnetenhauses die Situation weiter verschärft. Die Beschäftigung des Ausschusses mit dem DSA ist getrieben von Jim Jordan, einem republikanischen Abgeordneten, der seit Jahren damit beschäftigt ist, die angebliche Zensur von US-Amerikaner:innen durch den DSA zu beweisen.

Auf 160 Seiten breitet der Bericht Jordans wirre Fantasie aus, dass die Europäische Kommission, unterstützt von der europäischen Zivilgesellschaft, nur ein Ziel mit dem DSA verfolge: die Unterdrückung konservativer, US-amerikanischer Stimmen. Dabei stützt sich der Bericht auf massenweise E-Mails, Screenshots und Dokumente, die Jordan durch Herausgabeverlangen von US-Plattformen bekam – wogegen sich Plattformen offensichtlich nicht oder kaum gewehrt haben.

Der Jordan-Bericht stellt jedoch nicht nur eine Reihe von Falschbehauptungen auf, sondern identifiziert und markiert auch eine ganze Reihe von Kommissionsmitarbeitenden und Vertreter:innen der Zivilgesellschaft, die an Workshops der Kommission zur DSA-Durchsetzung teilnahmen oder anderweitig an der Durchsetzung des DSA beteiligt sind. Ein gefundenes Fressen für jene Kräfte, die genau diese Arbeit verhindern wollen.

Die Repressionen gegen HateAid und Co. werden also wahrscheinlich nicht die letzten gegen Menschen und Organisationen gewesen sein, die sich um die Durchsetzung des DSA bemühen. Auf Seite der Behörden scheint man auch nach dem Shitstorm um Trusted Flagger und der Demontage des Stanford Internet Institute auf Druck rechtskonservativer Politiker kaum auf solche Szenarien vorbereitet sein – um nur zwei Beispiele zu nennen, in denen rhetorische Delegitimierungen durch rechte Akteure zu Einschüchterung, Gefahren für Einzelpersonen und dem Verlust von institutionellen Strukturen geführt haben.

Aufsichtsbehörden, Politik und die Kommission sind jetzt gefragt, nicht nur ihre Solidarität auszudrücken, sondern konkrete Maßnahmen zum Schutz von Zivilgesellschaft und Forschung zu ergreifen. Dabei darf aber nicht nur in die USA geschaut werden: Auch in Deutschland und anderen Mitgliedstaaten setzen konservative und rechte Kräfte die Zivilgesellschaft immer stärker unter Druck. Vom Anti-NGO-Kurs der Union über die Gemeinnützigkeitsdebatte und Kontoschließungen linker Organisationen bis zu physischen Angriffen gegen Aktivist:innen – wenn es der Politik ernst damit ist, zivilgesellschaftliche Arbeit zu schützen, darf sie nicht zwischen politisch genehmen und unbequemen Organisationen unterscheiden.

Ein ganzheitlicher Ansatz muss her: nachhaltige und großzügige Finanzierung, rechtliche Absicherung und vor allem eine Regierungspartei, die versteht, dass die Delegitimierung von NGOs letztlich nur einer Seite hilft – den Feinden demokratischer und offener Gesellschaften.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Digitalisierungsstrategie: Wie „Künstliche Intelligenz“ unser Gesundheitswesen verändern soll – und welche Fragen das aufwirft

16. Februar 2026 um 14:19

Das Bundesgesundheitsministerium hat in der vergangenen Woche ein Update zur Digitalisierungsstrategie des Gesundheitswesens vorgelegt. Die sogenannte Künstliche Intelligenz spielt darin eine zentrale Rolle. Umso wichtiger ist es, dass wir jetzt die richtigen Fragen stellen.

Eine Ärztin weist auf eine Röntgenaufnahme, die einen Schädel zeigt. Ein älterer Mensch hört ihr zu,
Hört ihr bereits eine „KI“ zu? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Vitaly Gariev

Die Versprechungen, die mit „Künstlicher Intelligenz“ („KI“) und mit Digitalisierung einhergehen, sind gewaltig. Das ist auch im „Update der Digitalisierungsstrategie für das Gesundheitswesen und die Pflege“ nicht anders, die Bundesgesundheitsministerin Nina Warken (CDU) am 11. Februar vorstellte. Ein „gesünderes und längeres Leben für alle“ soll die Digitalisierung ermöglichen, sie soll die medizinische Versorgung und Pflege „besser und effizienter“ machen, heißt es darin zum Beispiel.

Die Strategie hatte der damalige Minister Karl Lauterbach ursprünglich im Jahr 2023 vorgelegt. Der Aufbau des Europäischen Gesundheitsdatenraums (EHDS), neue Erwartungen im Bereich der „Künstlichen Intelligenz“ sowie der Plan eines neuen Systems für die Erstversorgung machten das nun vorgelegte Update notwendig.

Die wichtigsten Elemente: Die ePA soll zur zentralen Anwendung für Gesundheitsthemen ausgebaut werden, Digitalisierung der Schlüssel zu einem erfolgreichen Primärärzt*innensystem sein und „KI“ soll „sicher, flächendeckend und wirksam“ eingesetzt werden.

Digitalisierung und „KI“ werden das Gesundheitswesen fraglos verändern. Doch es ist wichtig, jetzt die richtigen Fragen zu stellen.

Wie weit hilft „KI“ dem Gesundheitswesen?

Während Digitalisierung und „KI“ durchaus das Potenzial haben, Prozesse im Gesundheitswesen zu vereinfachen und die Versorgung zu verbessern, kommt es auf eine gewissenhafte Abwägung bei der Umsetzung an.

Dabei dürfen wir vor allem nicht vernachlässigen, wie weitreichend die Auswirkungen auf Menschen in Gesundheitsberufen, auf Patient*innen und auf das Verhältnis zwischen ihnen sein können. Dazu braucht es mehr strategische Auseinandersetzung und Debatten.

Den großen Hoffnungen, mit denen der Einsatz von „KI“ derzeit verbunden ist, müssen wir realistisch begegnen. Weder wird „KI“ alle strukturellen Probleme im Gesundheitswesen wie Personalmangel oder Kostenexplosion lösen können. Noch sind die großen Versprechungen medizinischer Spitzenleistungen und Effizienzgewinne bisher eingetreten – oder auch nur auf absehbare Zeit erwartbar.

Die technische Architektur der KI-Systeme gründet auf massenhaften Daten plus Stochastik, also der mathematischen „Kunst des Vermutens“. Das begrenzt diese Systeme dauerhaft. Es gibt keine Garantie dafür, dass Aussagen der „KI“ wahr und richtig sind.

Anders als bei einem Algorithmus, der nach festen Regeln funktioniert und bei gleichen Bedingungen wiederholbare Ergebnisse liefert, ist diese Wiederholbarkeit bei „KI“ gerade nicht gewährleistet. Auch ist es nicht nachvollziehbar, was genau den jeweiligen Antworten zugrunde liegt.

Welche Zwecke soll und kann Dokumentation erfüllen?

„KI“-gestützte Dokumentation soll in wenigen Jahren bei mehr als 70 Prozent der Einrichtungen der Standard sein, heißt es in der Strategie.

Sicherlich: Dokumentation ist oft lästig, aber sie kann auch dabei helfen, ein gemeinsames Verständnis zwischen Patient*in und Ärzt*in herzustellen, Angaben zu überprüfen oder eine wichtige abschließende Reflexion über einen Fall darstellen.

Was bewirkt Automatisierung mit „KI“?

Doch selbst wenn eine Entlastung durch Automatisierung in diesem Fall naheliegt: Schafft sie am Ende tatsächlich mehr qualitativ hochwertige Zeit für die Behandlung von Patient*innen? Oder wird sie am Ende die Arbeit von Menschen in Gesundheitsberufen noch weiter verdichten?

Das ist gerade angesichts des demografischen Wandels erwartbar. Er wird in den nächsten Jahren dazu führen, dass viele ältere Patient*innen größere Behandlungsbedarfe in die Praxen und Krankenhäuser bringen, während zugleich viele Menschen in Gesundheitsberufen in Rente gehen. Weniger Ärzt*innen müssen also künftig mehr Patient*innen behandeln – wenn nicht gegengesteuert wird.

Dabei entscheidet eine gute Beziehung zwischen Ärzt*innen und Patient*innen über den Heilungsverlauf mit, auch bei körperlichen Erkrankungen. Doch dafür braucht es vor allem eines: Zeit.

So umfassend will Warken die Gesundheitsdaten aller Versicherten verknüpfen

Wie wichtig ist uns digitale Souveränität?

Bei der Automatisierung der Dokumentation strebt die Ministerin ein hohes Tempo an. Mit Blick auf die bisher auf dem Markt dominierenden Anbieter könnte das dazu führen, dass schon bald OpenAI, Google Gemini und Co. regelmäßig ebenfalls im Sprechzimmer anwesend sind. Die Abhängigkeit von den US-amerikanischen Tech-Konzernen wächst bei verstärktem Einsatz dieser Dienste also weiter an.

Große Anbieter von Praxisverwaltungssystemen werben bereits mit „KI“-Tools zur Dokumentation und Automatisierung. Schaut man genauer in deren Datenschutzbestimmungen, bestätigt sich diese Vermutung.

Doctolib setzt Anthropic und Google Gemini als „KI“ ein und hostet bei Amazon Web Services. Konkurrent Jameda begrüßt die neue Strategie als „wichtiges Signal für die Branche“ und verweist auf das eigene Dokumentationstool Noa Notes, das ebenfalls auf Amazon Web Services sowie Microsoft Azure setzt und auch OpenAI in seiner Datenschutzerklärung stehen hat.

VIA Health verspricht als „erster virtueller Assistent speziell für die Psychotherapie“ besten Datenschutz. Gleichzeitig weist das Unternehmen in seiner Datenschutzerklärung darauf hin, zur „Transkribierung der Audiospur sowie […] Erstellung der Sitzungsprotokolle“ verschiedene Drittanbieter von „Large Language Models (LLMs)“ einzusetzen.

Das alles spiegelt die gegenwärtige Realität weiter Teile unserer digitalen Infrastruktur wider. Zugleich passt es nicht zusammen mit politischen Forderungen nach mehr digitaler Souveränität, die auch von der Bundesregierung selbst regelmäßig vorgetragen werden.

Wie verändern Sprachmodelle die Beziehung zwischen Ärzt*innen und Patient*innen?

Auch zu „KI“-gestützten Systemen der medizinischen Ersteinschätzung müssen wir uns Gedanken machen. Künftig sollen Symptome in ein Computersystem eingegeben werden, danach erfolgt eine technische Einschätzung.

Dieses Verfahren soll Teil des Erstversorgungssystems werden und so den Zugang ins Gesundheitswesen (mit)regeln. Noch ist nicht klar, ob regelbasierte Algorithmen oder „KI“ die technische Grundlage dafür bilden werden.

Es kann grundsätzlich sinnvoll sein, vor dem Besuch einer Praxis die Symptome in ein technisches System einzugeben und sich gegebenenfalls aufgrund einer besseren Steuerung Wartezeit zu ersparen.

Eines genaueren Blicks bedürfen allerdings Themen, die sensibler und oft schambesetzt sind. Einfühlsam und ohne Vorurteile über Sexualität zu reden, fällt Menschen oft schwer. Viele Patient*innen sprechen das Symptom einer Geschlechtskrankheit daher erst am Ende einer Sprechstunde an. Oder eine psychische Belastungssituation wird erst im Laufe eines Gesprächs deutlich.

Öffnen wir mit digitalen Angeboten also tatsächlich neue Wege für Patient*innen? Oder verlieren wir etwas, wenn wir auf standardisierte digitale Ersteinschätzungen setzen? Und wie können geschützte Räume entstehen für sensible Themen wie Sexualität, Geschlechtskrankheiten, Substanzkonsum oder psychische Störungen, wenn das vertrauliche Gespräch mit einer behandelnden Person von einem „KI“-Tool mitgeschnitten wird?

Wie gut sind Sprachmodelle als Gesundheitsassistenzen wirklich?

„KI“ soll zur ständigen Begleiterin für Patient*innen werden und perspektivisch „individualisierte Gesundheitsempfehlungen“ geben, heißt es in der Strategie. Das Bundesgesundheitsministerium möchte so die Eigenverantwortung der Versicherten stärken.

Dabei hat gerade erst eine in der wissenschaftlichen Zeitschrift „Nature“ veröffentlichte Studie gezeigt, dass „KI“-Systeme faktisch daran scheitern, richtige Ergebnisse hervorzubringen, sobald man sich von theoretischem Lehrbuchwissen verabschiedet und reale Patient*innen auf sie loslässt.

Hinzu kommt: Bei Sprachmodellen, der Grundlage von KI-Systemen, werden die Eingaben nicht über Standardfragen geleitet. Sondern das Verfahren hängt stark von den Eingaben der User*innen ab – und damit die Ausgaben der Systeme.

Weil aber die Anzahl möglicher Nutzer*inneneingaben unbegrenzt ist, lässt sich damit auch nicht verlässlich für alle Anwendungsfälle überprüfen, wie gut ChatGPT und Co. im Einzelfall reagieren. Die Erwartung an Verlässlichkeit von Software-Programmen, die sich aus Zeiten regelbasierter Programmierung speist, ist bei auf Stochastik gründenden Ansätzen nicht haltbar – denn da sind immer Wahrscheinlichkeiten oder sogar der Zufall im Spiel.

Zwar gibt es mittlerweile Beispiele, in denen Menschen sagen: „KI“ hat mir dabei geholfen, dass es mir gesundheitlich wieder besser geht. Gerade bei seltenen Erkrankungen, denen Ärzt*innen in ihrem Berufsalltag nur überaus selten begegnen, wird den Sprachmodellen ein solches Potenzial zugesprochen.

Gleichzeitig gibt es jedoch groteske Beispiele, in denen ChatGPT bei der Bewertung von Daten eines Gesundheitstrackers die Note „ungenügend“ – also kurz vor Herzinfarkt – „erraten“ hat, während zwei Ärzte keine Anhaltspunkte für eine Erkrankung finden konnten.

Menschen handeln als Menschen und sind damit – auch in der Interaktion mit Maschinen und bei der Interpretation „maschineller“ Antworten – oft unberechenbar.

Das wiederum kann weitreichende Auswirkungen für Interaktionen zwischen Mensch und Mensch im Behandlungszimmer haben. Fragen Ärzt*innen in der Sprechstunde künftig mit ab, ob Patient*innen bereits vorab mit „KI“ recherchiert haben? Wie gehen Versicherte damit um, wenn sich Empfehlungen von „KI“-Systemen von denen realer Mediziner*innen unterscheiden? Oder wenn die von der „KI“ vorgeschlagenen Behandlungen nicht von den Kassen gedeckt werden?

Wie bleibt das Gesundheitswesen menschlich?

Wenn sie gut gemacht sind, bieten Technologien die Chance, Medizin besser zu machen. Dafür müssen wir uns allerdings die richtigen Fragen stellen – jenseits von Heilsversprechen und Technikgläubigkeit sowie im Wissen um den hochkomplexen Faktor Mensch.

Der Mensch ist dabei kein „nerviges Beiwerk“. Am Ende sollen es ja wir alle sein, die von den neuen Technologien profitieren – und nicht nur die Tech-Milliardäre, die sie mit den größten Versprechungen bewerben.

Manuel Hofmann ist Referent für Digitalisierung der Deutschen Aidshilfe. Offenlegung: Der Autor hat im vergangenen Jahr auf Einladung der Gematik am Fachforum Technologien und Anwendungen“ für die Weiterentwicklung der Digitalisierungsstrategie „Gemeinsam Digital“ teilgenommen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Bundesgesundheitsministerium: So umfassend will Warken die Gesundheitsdaten aller Versicherten verknüpfen

16. Februar 2026 um 13:00

Bundesgesundheitsministerin Nina Warken hat ihre Digitalisierungsstrategie vorgelegt. Darin betont die CDU-Ministerin, die Patient:innensouveränität stärken zu wollen. Tatsächlich aber will sie eine der umfassendsten Gesundheitsdateninfrastrukturen weltweit aufbauen. Nutznießer sind Forschung und Pharma-Unternehmen. Die Rechte der Patient:innen bleiben auf der Strecke.

Bundesministerin für Gesundheit Nina Warken schaut konzentriert
Ganz auf die Vernetzung von Gesundheitsdaten fokussiert: Gesundheitsministerin Nina Warken (CDU). – Alle Rechte vorbehalten IMAGO / dts Nachrichtenagentur

Rund 75 Millionen gesetzlich Versicherte, ihre Gesundheitsdaten täglich übermittelt an ein nationales Forschungsdatenzentrum, verknüpfbar mit hunderten Medizinregistern und europaweit vernetzt – das ist die Vision von Bundesgesundheitsministerin Nina Warken (CDU).

Die Ministerin präsentierte in der vergangenen Woche ihre „Digitalisierungsstrategie für das Gesundheitswesen und die Pflege“. Darin verspricht Warken eine bessere medizinische Versorgung und mehr Patientensouveränität. Tatsächlich aber zielt ihre Strategie vor allem darauf ab, eine der umfassendsten Gesundheitsdateninfrastrukturen weltweit aufzubauen.

Das knapp 30-seitige Papier legt zugleich die Grundlage für ein umfangreiches „Digitalgesetz“. Den Entwurf will das Bundesgesundheitsministerium (BMG) noch im laufenden Quartal vorlegen. Die Rechte der Patient:innen drohen darin weitgehend auf der Strecke zu bleiben.

Die geplante Dateninfrastruktur ruht auf drei Säulen: die elektronische Patientenakte, das Forschungsdatenzentrum Gesundheit und das geplante Medizinregistergesetz. Das Zusammenspiel aller drei Vorhaben ebnet auch der EU-weiten Vernetzung der Gesundheitsdaten den Weg.

Die ePA soll zur „Gesundheits(daten)plattform“ werden

Alle Versicherten, die nicht widersprochen haben, besitzen seit Januar 2025 eine elektronische Patientenakte (ePA); seit Oktober 2025 sind Behandelnde dazu verpflichtet, sie zu verwenden. Gesundheitsministerin Warken will die ePA nicht nur zum „zentralen Dreh- und Angelpunkt“ der ärztlichen Versorgung machen, sondern auch zur „Gesundheits(daten)plattform“ ausbauen.

Dafür sollen erstens mehr strukturierte Daten in die ePA fließen, die dann „möglichst in Echtzeit für entsprechende Anwendungsfälle nachnutzbar“ sind. Derzeit sind dort vor allem noch PDF-Dateien hinterlegt, die nicht einmal durchsuchbar sind, was den Umgang mit der ePA aus Sicht von Behandelnden deutlich erschwert.

Zweitens soll die ePA weitere Funktionen wie eine digitale Terminvermittlung und elektronische Überweisungen erhalten. Die Patientenakte soll so „auch interessanter werden für diejenigen, die nicht krank sind“, kündigte Warken an. Derzeit nutzen gerade einmal rund 4 Millionen Menschen ihre ePA aktiv. Bis zum Jahr 2030 soll sich ihre Zahl, so das Ziel des BMG, auf 20 Millionen erhöhen.

„Künstliche Intelligenz“ soll Symptome auswerten

Wer sich krank fühlt, soll künftig auch über die ePA-App eine digitale Ersteinschätzung einholen können. Mit Hilfe eines Fragenkatalogs sollen Versicherte dann erfahren, ob ihre Symptome den Gang zur Hausärztin oder gar zur Notfallambulanz rechtfertigen.

Diese Auswertung soll offenbar auch mit Hilfe sogenannter Künstliche Intelligenz erfolgen. Ohnehin soll KI laut Warken „in Zukunft da eingesetzt werden können, wo sie die Qualität der Behandlung erhöht, beim Dokumentationsaufwand entlastet oder bei der Kommunikation unterstützt“. Bis 2028 sollen beispielsweise mehr als 70 Prozent der Einrichtungen in der Gesundheits- und Pflegeversorgung KI-gestützte Dokumentation nutzen – ungeachtet der hohen Risiken etwa für die Patientensicherheit oder die Autonomie der Leistungserbringer.

Dafür will das BMG „unnötigen bürokratischen Aufwand“ für KI-Anbieter reduzieren. Das Ministerium strebt dafür mit Blick auf den Digitalen Omnibus der EU-Kommission „eine gezielte Anpassung der KI-Verordnung“ an. Das umstrittene Gesetzesvorhaben der Kommission zielt darauf ab, Regeln für risikoreiche KI-Systeme hinauszuzögern und den Datenschutz deutlich einzuschränken. Zivilgesellschaftliche Organisationen warnen eindringlich, dass mit dem Omnibus der „größte Rückschritt für digitale Grundrechte in der Geschichte der EU“ drohe.

Forschungsdatenzentrum soll als „Innovationsmotor“ wirken

Die in der ePA hinterlegten Daten sollen aber nicht nur der ärztlichen Versorgung dienen, sondern vor allem auch der Forschung zugutekommen. Sie sollen künftig – sofern Versicherte dem nicht aktiv widersprechen – täglich automatisch an das Forschungsdatenzentrum Gesundheit (FDZ) gehen. Während Warken die ePA als „Dreh- und Angelpunkt“ der Versorgung sieht, beschreibt sie das FDZ als „Innovationsmotor“ der Gesundheitsforschung.

Das FDZ wurde nach jahrelangen Verzögerungen im vergangenen Herbst erst handlungsfähig. Es ist beim Bundesamt für Arzneimittel und Medizinprodukte (BfArM) in Bonn angesiedelt. Forschende können sich bei dem Zentrum registrieren, um mit den dort hinterlegten Daten zu arbeiten. Auch Pharma-Unternehmen können sich bewerben. Eine Voraussetzung für eine Zusage ist, dass die Forschung einem nicht näher definierten „Gemeinwohl“ dient.

Die pseudonymisierten Gesundheitsdaten sollen das FDZ nicht verlassen. Stattdessen erhalten Forschende Zugriff auf einen Datenzuschnitt, der auf ihre Forschungsfrage abgestimmt ist. Die Analysen erfolgen in einer „sicheren Verarbeitungsumgebung“ auf einem virtuellen Desktop, das Forschende übers Internet aufrufen können.

Ob dabei tatsächlich angemessene Schutzstandards bestehen, muss indes bezweifelt werden. Denn das Forschungszentrum verfügte in den vergangenen Jahren nicht einmal über ein IT-Sicherheitskonzept, weshalb auch ein Gerichtsverfahren der Gesellschaft für Freiheitsrechte ruht.

Gemeinsam mit der netzpolitik.org-Redakteurin Constanze Kurz hatte die GFF gegen die zentrale Sammlung sensibler Gesundheitsdaten beim FDZ geklagt. Aus ihrer Sicht sind die gesetzlich vorgesehenen Schutzstandards unzureichend, um die sensiblen Gesundheitsdaten vor Missbrauch zu schützen. Sie verlangt daher für alle Versicherten ein voraussetzungsloses Widerspruchsrecht gegen die Sekundärnutzung der eigenen Gesundheitsdaten. Nachdem das FDZ seit Oktober den aktiven Betrieb aufgenommen hat, dürfte das ruhende Verfahren in Kürze fortgesetzt werden.

„Real-World-Überwachung“ ermöglichen

Dessen ungeachtet haben sich laut BfArM-Präsident Karl Broich bereits 80 Einrichtungen beim FDZ registriert. Die Antragsteller kommen zu gleichen Teilen aus Wirtschaft, Verwaltung und Forschung. Mehr als zwei Drittel von ihnen hätten bereits konkrete Forschungsanträge gestellt, bis zum Ende des Jahres will Warken diese Zahl über die Schwelle von 300 hieven. Alle positiv beschiedenen Anträge sollen künftig in einem öffentlichen Antragsregister einsehbar sein.

Zum Jahreswechsel wird das FDZ wohl auch über weit mehr Daten verfügen als derzeit. Bislang übermitteln die gesetzlichen Krankenkassen die Abrechnungsdaten all ihrer Versicherten an das Forschungszentrum. Diese geben bereits Auskunft darüber, welche Leistungen und Diagnosen die Versicherungen in Rechnung gestellt bekommen haben.

Ab dem vierten Quartal dieses Jahres sollen dann nach und nach die Behandlungsdaten aus der ePA hinzukommen. Den Anfang machen Daten aus der elektronischen Medikationsliste, anschließend folgen die Laborfunde, dann weitere Inhalte.

Der baldige Datenreichtum gibt dem FDZ aus Sicht von BfArM-Chef Broich gänzlich neue Möglichkeiten. Er geht davon aus, dass seine Behörde in zehn Jahren bundesweit „einer der großen Daten-Hubs“ ist. Mit den vorliegenden Daten könnten Forschende dann umfassende „Lifecycle-Beobachtungen“ durchführen – „eine Real-World-Überwachung also, die klassische klinische Prüfungen so nicht abdecken können“.

Auch im FDZ soll „Künstliche Intelligenz“ mitwirken. Zum einen in der Forschung selbst: „Dafür arbeiten wir an Konzepten, die Datenschutz, Sicherheit und wissenschaftliche Nutzbarkeit von Beginn an zusammendenken“, sagt Broich. Zum anderen soll das FDZ Datensätze etwa für das Training von Sprachmodellen bereitstellen, wie die Digitalisierungsstrategie des BMG ausführt und auch bereits gesetzlich festgeschrieben ist. Sowohl Training als auch Validierung und Testen von KI-Systemen sind eine zulässige Nutzungsmöglichkeiten. Das bedeutet konkret: Die sensiblen Gesundheitsdaten von Millionen Versicherten können zum Training von Sprachmodellen verwendet werden.

Wie „Künstliche Intelligenz“ unser Gesundheitswesen verändern soll – und welche Fragen das aufwirft

Warken will Medizinregister miteinander verknüpfen

Ab 2028 könnten Trainingsdaten dann auch detaillierte Daten zu Krebserkrankungen enthalten. Denn in knapp zwei Jahren sollen die FDZ-Datenbestände mit Krebsregistern sowie dem Projekt genomDE verknüpft werden, das Erbgutinformationen von Patient:innen sammelt.

Die Datenfülle beim FDZ dürfte damit noch einmal ordentlich zunehmen. Allein die Krebsregister der Länder Bayern, Nordrhein-Westfalen und Rheinland-Pfalz halten Daten von insgesamt mehr als drei Millionen Patient:innen vor. Wer nicht möchte, dass etwa die eigenen Krebsdaten mit den Genomdaten verknüpft werden, muss mindestens einem der Register komplett widersprechen.

Im Gegensatz etwa zu den Krebsregistern der Länder, die auf Basis spezieller rechtlicher Grundlagen arbeiten, bewegen sich die meisten anderen Medizinregister dem BMG zufolge derzeit „in einem heterogenen Normengeflecht von EU-, Bundes- und Landesrecht“, was „die Schaffung einer validen Datenbasis“ behindere.

Das Ministerium hat daher bereits im Oktober das „Gesetz zur Stärkung von Medizinregistern und zur Verbesserung der Medizinregisterdatennutzung“ auf den Weg gebracht. Der Referentenentwurf sieht vor, einheitliche rechtliche Vorgaben und Qualitätsstandards für Medizinregister zu schaffen.

Ein Zentrum für Medizinregister (ZMR), das ebenfalls am BfArM angesiedelt wäre, soll demnach bestehende Medizinregister nach festgelegten Vorgaben etwa hinsichtlich Datenschutz und Datenqualität bewerten. Qualifizierte Register werden dann in einem Verzeichnis aufgeführt, dürfen zu einem festgelegten Zweck kooperieren und auch anlassbezogen Daten zusammenführen. Die personenbezogenen Daten, die dort gespeichert sind, können für die Dauer von bis zu 100 Jahren in den Registern gespeichert werden.

Derzeit gibt es bundesweit rund 350 Medizinregister. Zu den größten zählen das „Deutsche Herzschrittmacher Register“, das die Daten von mehr als einer Million Patient:innen enthält, und das „TraumaRegister DGU“ mit Daten von mehr als 100.000 Patient:innen. Das Gesundheitsministerium geht davon aus, dass etwa drei Viertel der bestehenden Medizinregister Interesse daran haben könnten, in das Verzeichnis des ZMR aufgenommen zu werden.

Verbraucher- und Datenschützer:innen mahnen Schutzvorkehrungen an

Gesundheitsdaten, die dem ZMR vorliegen, sollen ebenfalls pseudonymisiert oder anonymisiert der Forschung bereitstehen. Das geplante Medizinregistergesetz sieht außerdem vor, dass die Daten qualifizierter Register ebenfalls miteinander verknüpft werden können.

Zu diesem Zweck sollen Betreiber von Medizinregistern und die meldenden Gesundheitseinrichtungen registerübergreifende Pseudonyme erstellen dürfen. Als Grundlage dafür soll der unveränderbare Teil der Krankenversichertennummer von Versicherten (KVNR) dienen.

Fachleute weisen darauf hin, dass eine Pseudonymisierung insbesondere bei Gesundheitsdaten keinen ausreichenden Schutz vor Re-Identifikation bietet. Das Risiko wächst zudem, wenn ein Datensatz mit weiteren Datensätzen zusammengeführt wird, wenn diese weitere personenbezogene Daten der gleichen Person enthält.

Das Netzwerk Datenschutzexpertise warnt zudem davor, die Krankenversichertennummer in einer Vielzahl von Registern vorzuhalten. Weil im Gesetzentwurf notwendige Schutzvorkehrungen fehlen würden, sei „das Risiko der Reidentifizierung bei derart pseudonymisierten Datensätzen massiv erhöht“.

Der Verbraucherzentrale Bundesverband kritisiert die Menge an personenbezogenen Daten, die laut Gesetzentwurf an qualifizierte Medizinregister übermittelt werden dürfen. Dazu zählen neben sozialdemographischen Informationen auch Angaben zu Lebensumständen und Gewohnheiten sowie „zu einem Migrationshintergrund oder einer ethnischen Zugehörigkeit, der Familienstand oder die Haushaltsgröße“.

Um die Patient:innendaten besser zu schützen, forderte der Verband bereits im November vergangenen Jahres, eindeutig identifizierende Daten vom Kerndatensatz eines Medizinregisters getrennt aufzubewahren.

Gesundheitsministerium schafft Schnittstellen in die EU

Das Gesundheitsministerium lässt sich davon jedoch nicht beirren und strebt weitere Datenverknüpfungen an. Laut seiner Digitalisierungsstrategie will das BMG das Forschungspseudonym auch dazu nutzen, um die Gesundheits- und Pflegedaten „mit Sozialdaten und Todesdaten zu Forschungszwecken“ sowie „mit Abrechnungs- und ePA-Daten“ zu verbinden. Ob Versicherte dieser umfangreichen Datenverknüpfung überhaupt noch effektiv und transparent widersprechen können, ist derzeit zweifelhaft. Sicher aber ist: Der Aufwand dürfte immens sein.

Die Digitalisierungsstrategie macht ebenfalls deutlich, dass das Ministerium die geplanten Maßnahmen auch in Vorbereitung auf den Europäischen Gesundheitsdatenraum (EHDS) ergreift. Der EHDS ist der erste sektorenspezifische Datenraum in der EU und soll als Blaupause für weitere sogenannte Datenräume dienen. Schon in wenigen Jahren sollen hier die Gesundheitsdaten von rund 450 Millionen EU-Bürger:innen zusammenlaufen und grenzüberschreitend ausgetauscht werden.

Konkret bedeutet das: In gut drei Jahren, ab Ende März 2029, können auch Forschende aus der EU beim FDZ Gesundheitsdaten beantragen. Und das Zentrum für Medizinregister soll dem BMG zufolge ebenfalls Teil der europäischen Gesundheitsdateninfrastruktur werden.

Der größte Brückenschlag in der Gesundheitsdateninfrastruktur steht also erst noch bevor. Und auch hier bleibt die Ministerin eine überzeugende Antwort schuldig, was die Versicherten davon haben.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Internet shutdowns in Africa: A human rights and democratic crisis

15. Februar 2026 um 06:23

Internet shutdowns have become a growing threat to Africa’s democracy. They are an increasingly common part of the authoritarian toolkit used by governments to control information and suppress dissent. Here’s why you should care.

A stern-looking woman wearing a red headscarf and sunglasses, with soldiers in the background
Tanzanian President Samia Suluhu Hassan attends her inauguration ceremony in Dodoma, Tanzania, Nov. 3, 2025. – Alle Rechte vorbehalten IMAGO / Xinhua

A German version of the article can be found here: „Internet-Shutdowns in Afrika: Eine Krise für Menschenrechte und Demokratie


As Tanzanians went to the polls in October 2025, the country entered an information blackout. Connectivity began slowing on the eve of the election. By the morning of October 29, all regions reported a full data disruption.

Opposition parties were among the first to raise the alarm. ‘It became impossible to coordinate polling agents or even report irregularities,’ says Asha*, a youth organizer with an opposition party. She explains that with WhatsApp and SMS restricted, their party’s observers could not share photos, results, or evidence of intimidation in real time.

In the East African country, a total of 37 million people were called upon to vote for a new parliament and president. In the run-up to the elections, Samia Suluhu Hassan, the incumbent president and first woman to hold the office, had tightened her grip on the public sphere. Critical journalists and opposition politicians had been kidnapped. The two most promising opposition parties were excluded from the election.

The communications shutdown seemed to confirm fears about the integrity of the most important democratic processes. An election observer described witnessing the ticking of ballot papers and the adding of numbers during the shutdown. ‘The blackout was the final confirmation that this election would not be transparent, and I was among many who were kicked out by the police during counting,’ says Faustine*, an observer during the election.

Days later, protesters in Mwanza and Arusha attempted to demonstrate, but the lack of communication tools made mass mobilization nearly impossible. Any demonstrations that did emerge despite the blackout were brutally suppressed. Tanzania’s sudden disconnection, occurring during the most sensitive democratic moment, illustrates how shutdowns immobilize opposition networks while giving governments near-total narrative control.

High costs to economies and democracies

In 2016, the United Nations Human Rights Council adopted a resolution confirming the importance of internet access for human rights. Internet shutdowns, it says, undermine the expression, assembly, and informational rights of citizens.

Only days after the election in Tanzania, the African Commission on Human and Peoples‘ Rights voiced concern about the digital blackout. The commission issued a press release, reminding everyone that ‘internet shutdowns undoubtedly constitute a violation of Article 9 of the African Charter on Human and Peoples’ Rights, which guarantees individuals the right to receive information, as well as the right to express and disseminate information.’

Tanzania’s blackout, however, is not an isolated case but part of a regional pattern: governments cutting connectivity during moments of political vulnerability. Across the continent, these disruptions occur at predictable moments: elections, anti-government protests, military coups, ethnic conflict, or when investigative journalism threatens state legitimacy. Governments often justify shutdowns using the language of security, stability, and ‚fake news‘, but the purpose is to control information and suppress dissent.

Access Now’s #KeepItOn coalition reported that African states, including Tanzania, accounted for some of the highest global disruptions in recent years. Their latest report shows that 2024 saw the highest number of shutdowns ever recorded in a single year for the region, with 21 documented internet access shutdowns in 15 African countries. Just a few weeks ago, at the same time as the communications blackout in Iran, people in Uganda also had to endure another internet shutdown during elections.

In all cases, the people most affected – activists, journalists, humanitarian responders, opposition politicians, and young voters – are those at the heart of democratic participation. The outcomes extend beyond digital access challenges, including economic paralysis, humanitarian isolation, and the erosion of fundamental rights. The work of journalists becomes impossible, businesses that use online platforms or mobile money to operate lose significant revenue, and hospitals and humanitarian workers lose contact with the outside world during critical moments.

According to the organization NetBlocks Cost of Shutdown Tool (COST), internet shutdowns cost the Tanzanian economy more than US $238 million in 2025. In total, it is estimated that internet shutdowns cost sub-Saharan economies US $1.11 billion that year. But ultimately, the cost to democracy is even greater.

Ethiopia: More than 100 million people offline during civil war

In recent years, one of the worst offenders for intentional internet disruptions in Africa was Ethiopia, with over ten documented shutdowns since 2019. Between 2020 and 2022, Ethiopia’s regions of Tigray and Oromia were plunged into physical and digital isolation. Government-imposed shutdowns during the civil war not only silenced dissent but cut off humanitarian efforts.

The UN reported that over 100 million people were affected during a three-week internet shutdown in July 2020. As reports by the #KeepItOn coalition highlight, each blackout coincided with escalations in violence, a pattern that suggests the intent was not ‘security,’ but strategic invisibility.

The Committee to Protect Journalists (CPJ) was among the organizations to condemn the detention of journalists and the internet blackout. In a country where digital banking, education, and emergency response increasingly rely on connectivity, these shutdowns paralyzed people’s lives.

Sudan: Shutdowns in support of a military coup

Another example is Sudan, where internet shutdowns have marked a history of military rule. From 2019 to 2023, the government repeatedly cut access to the internet to limit the mobilization of protests and responses to coups. For instance, the army detained civilian leadership in October 2021 and cut internet access across the country.

The Sudanese people were left without any way to communicate with people inside or outside the country for almost a month. Protest organizers relied on offline networks and direct contact to pass information across neighborhoods to organize protests. Videos of military violence and mass arrests were delayed for weeks, allowing the army to act with impunity.

Human Rights Watch and other rights organizations labelled these disruptions as intentional hindrances to justice. The cutoff did more than thwart information; it stifled the civic space altogether. According to Human Rights Watch, the presence of military forces at hospitals has undermined or prevented access to medical care for those in need, and „medical professionals said the lack of internet access has only made it more difficult for them to organize ways to provide care.“ The work of emergency responders was also affected by the inability to receive money transfers via mobile banking applications.

A tool for authoritarian forces

While Ethiopia and Sudan differ politically and culturally, their shutdown patterns are similar. Both governments used connectivity restrictions not only as temporary security tools but also as long-term strategies to manage information and public situations.

Beyond the immediate disruption of communication, shutdowns also affect the options of opposition parties and civil society groups. In many African countries, opposition relies mostly on messaging apps, low-cost livestreaming, and citizen-led election monitoring networks.

When these channels go dark, opposition parties cannot coordinate polling agents, collect evidence, or deploy rapid response teams. Civil society watchdogs cannot verify electoral tallies, giving ruling parties space to manipulate results. Furthermore, especially women and youth activists, who organize primarily online, lose their mobilizing power. Grassroots organizers face physical danger, as they must revert to door-to-door communication.

In Tanzania, polling agents and observers reported that the blackout and police harassment created deep psychological fatigue. ‘We felt powerless throughout the process,’ says election observer Faustine*. ‘It wasn’t just technical, it silenced many things that happened in polling stations that are undemocratic.’

How civil society pushes back

Civil society organizations in Africa and elsewhere have made it clear that internet shutdowns are a growing human rights issue and are organizing resistance. For example, the Nigerian Paradigm Initiative as well as Uganda-based CIPESA challenge service suspensions in court. They educate citizens about civil disobedience, digital rights, and how to utilize technology.

Dozens of NGOs have signed onto the African Declaration of Internet Rights and Freedoms, which calls for unrestricted internet access across the region. Unfortunately, this declaration has been ignored by governments. Along with controls, the absence of transparency is a problem. Reports and data are often compiled by global initiatives, such as Access Now’s #KeepItOn coalition.

Civil society’s influence, while often indirect, has increasingly translated into legal and political consequences for governments that impose shutdowns. According to Felicia Anthonio, #KeepItOn Global Campaign Manager at Access Now, sustained advocacy has pushed internet shutdowns onto the global human rights agenda, with regional and international bodies now recognizing them as violations of fundamental rights.

Courts such as the ECOWAS Court have ruled against shutdowns in countries including Togo, Nigeria, Senegal and Guinea, sending what Anthonio describes as a clear message that shutdowns are illegal and those responsible can be held accountable.

Beyond litigation, civil society pressure has also led to public commitments by authorities to keep the internet on during elections in countries like Ghana, Kenya and the Democratic Republic of the Congo, as well as reversals or early terminations of shutdowns in places such as Zambia, South Sudan and Mauritius. While governments still hold the power to disconnect, civil society continues to shape legal norms, public opinion and accountability mechanisms aimed at ending shutdowns altogether.

What the Global North can do

Shutdowns are a ‘local issue’ in the context of authoritarian states; however, the regional and continent-wide normalization of shutdowns can lead to an export of authoritarian behaviors. Each shutdown legitimizes and emboldens further authoritarianism in neighboring countries, so that they are increasingly seen in networks of purportedly democratic states.

Stopping shutdowns requires pressure beyond the continent. Western governments and tech companies often condemn disruptions, but their responses often remain symbolic. There are ways, however, in which countries in the Global North could have a more profound positive influence.

First and foremost, they could stop exporting surveillance and censorship tools that allow shutdowns to be implemented. Furthermore, they could tie development funding to digital rights protections, ensuring governments that receive aid cannot also sabotage communication networks without consequences. Support for local civil society groups is also important, for example through funding digital security training or legal assistance for court challenges.

As Sophia Nabalayo, a Kenyan PR & Communications Specialist, tells netzpolitik.org: ‘African activists can fight shutdowns on the ground, but global actors often control the infrastructure and financing that make shutdowns possible. We need solidarity, not just statements.’

* Names have been changed for safety reasons and are known to the editorial team.


About the author: Derrick Wachaya is a climate communicator and freelance journalist based in Nairobi.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Internet-Shutdowns in Afrika: Eine Krise für Menschenrechte und Demokratie

15. Februar 2026 um 06:23

Internetsperren sind ein zunehmend verbreitetes Werkzeug autoritärer Regierungen, um Informationen zu kontrollieren und abweichende Meinungen zu unterdrücken. Damit sind sie zu einer wachsenden Bedrohung für die Demokratie in Afrika geworden. Das sollte auch den Globalen Norden interessieren.

Eine streng blickende Frau mit rotem Kopftuch und Sonnenbrille, im Hintergrund Soldaten
Die tansanische Präsidentin Samia Suluhu Hassan nimmt am 3. November 2025 an ihrer Amtseinführungszeremonie in Dodoma, Tansania, teil. – Alle Rechte vorbehalten IMAGO / Xinhua

Die englischsprachige Version des Artikels ist hier zu finden: „Internet shutdowns in Africa: A human rights and democratic crisis


Als die Menschen in Tansania im Oktober 2025 an die Wahlurnen gingen, wurde ihr Land von einem Informations-Blackout erfasst. Bereits am Vorabend der Wahlen kam es zu Einschränkungen der Internetverbindung, am Morgen des 29. Oktober meldeten dann alle Regionen einen vollständigen Ausfall der Datenverbindungen.

Oppositionsparteien gehörten zu den ersten, die Alarm schlugen. „Es war unmöglich geworden, Wahlbeobachter:innen zu koordinieren oder Unregelmäßigkeiten zu melden“, sagt Asha*, eine junge Aktivistin einer Oppositionspartei. Sie erklärt, dass die Beobachter:innen ihrer Partei aufgrund der Einschränkungen bei WhatsApp und SMS Fotos, Ergebnisse oder Beweise für Einschüchterungen nicht zeitnah weitergeben konnten.

Insgesamt waren in dem ostafrikanischen Land 37 Millionen Menschen dazu aufgerufen, ein neues Parlament und ein neues Staatsoberhaupt zu wählen. Im Vorfeld der Wahlen hatte Samia Suluhu Hassan, die amtierende Präsidentin und erste Frau in diesem Amt, ihren Griff um den Hals der Öffentlichkeit verstärkt. Kritische Journalisten und Oppositionspolitiker wurden entführt, die beiden aussichtsreichsten Oppositionsparteien von den Wahlen ausgeschlossen.

Der Shutdown schien alle Sorgen um die Integrität der demokratischen Prozesse zu bestätigen. Eine Wahlbeobachterin berichtet, dass sie während der Abschaltung miterlebt habe, wie beim Auszählen der Stimmzettel Zahlen addiert wurden. „Die Abschaltung war die endgültige Bestätigung dafür, dass wir es hier nicht mit transparenten Wahlen zu tun haben würden“, so Faustine*. „Ich gehörte zu den vielen, die während der Auszählung von der Polizei hinausgeworfen wurden.“

In den folgenden Tagen versuchten Aktivist:innen in Orten wie Mwanza und Arusha Menschen für Proteste zu mobilisieren, doch aufgrund fehlender Kommunikationsmittel war eine Massenmobilisierung nahezu unmöglich. Alle Demonstrationen, die trotz der Unterbrechung stattfanden, wurden brutal unterdrückt. Tansanias plötzliche Internetsperre veranschaulicht, wie Shutdowns zum sensibelsten Zeitpunkt demokratischer Prozesse Opposition verhindern und Regierungen nahezu vollständige Kontrolle über die Informationsverbreitung verschaffen können.

Hohe Kosten für Volkswirtschaften und Demokratien

Im Jahr 2016 verabschiedete der Menschenrechtsrat der Vereinten Nationen eine Resolution, die die Bedeutung des Internetzugangs für die Menschenrechte betont. Demnach untergraben Internet-Shutdowns die Meinungs-, Versammlungs- und Informationsrechte der Menschen.

Nur wenige Tage nach der Wahl in Tansania äußerte die Afrikanische Kommission der Menschenrechte und der Rechte der Völker sich besorgt über den digitalen Blackout. In einer Pressemitteilung erinnerte die Kommission daran, dass „Internet-Sperren zweifellos einen Verstoß gegen Artikel 9 der Afrikanischen Charta der Menschenrechte und Rechte der Völker darstellen, der Einzelpersonen das Recht auf Informationsempfang sowie das Recht auf freie Meinungsäußerung und Verbreitung von Informationen garantiert“.

Doch Tansanias Internet-Shutdown ist kein Einzelfall, sondern Teil eines größeren regionalen Musters: Immer wieder schalten afrikanische Regierungen in Zeiten politischer Instabilität die Internetversorgung ab. Auf dem gesamten Kontinent treten diese Störungen zu vorhersehbaren Zeitpunkten auf: bei Wahlen, regierungskritischen Protesten, Militärputschen, ethnischen Konflikten oder wenn journalistische Recherchen die staatliche Autorität gefährden. Regierungen rechtfertigen Sperrungen oft mit Argumenten wie Sicherheit, Stabilität und „Fake News“, doch ihr eigentliches Ziel ist es, Informationen zu kontrollieren und abweichende Meinungen zu unterdrücken.

Jährliche Berichte der von Access Now koordinierten #KeepItOn-Koalition zeigen, dass afrikanische Staaten weltweit zu den Ländern mit den meisten Shutdowns gehörten. Der neueste #KeepItOn-Report belegt, dass 2024 das Jahr mit den meisten Internet-Abschaltungen in der Region war, mit 21 dokumentierten Abschaltungen in 15 afrikanischen Ländern. Erst vor wenigen Wochen, parallel zum Kommunikations-Shutdown im Iran, mussten auch die Menschen in Uganda während der Wahlen eine Internetsperre erdulden.

In allen Fällen sind diejenigen Personen am stärksten betroffen, die im Zentrum der demokratischen Teilhabe stehen: Aktivist:innen, Journalist:innen, humanitäre Helfer:innen, Oppositionelle und junge Wähler:innen. Die Folgen gehen über Zugangsprobleme zur digitalen Welt hinaus und führen zu wirtschaftlicher Lähmung, humanitärer Isolation und zur Aushöhlung grundlegender Rechte. Die Arbeit von Journalist:innen wird unmöglich, Unternehmen, die Online-Plattformen oder mobiles Geld für ihren Betrieb nutzen, erleiden große Verluste; Krankenhäuser und humanitäre Helfer:innen verlieren in kritischen Momenten den Kontakt zur Außenwelt.

Laut dem Cost of Shutdown Tool (COST) der Organisation NetBlocks kosteten Internetabschaltungen allein die tansanische Wirtschaft im Jahr 2025 mehr als 238 Millionen US-Dollar. Insgesamt werden die Kosten von Internetabschaltungen für die Volkswirtschaften südlich der Sahara in diesem Jahr auf 1,11 Milliarden US-Dollar geschätzt. Noch schwerer wiegen jedoch die Kosten für die Demokratie.

Äthiopien: Mehr als 100 Millionen Menschen offline im Bürgerkrieg

In den vergangenen Jahren war Äthiopien mit über zehn dokumentierten Abschaltungen seit 2019 einer der größten Übeltäter für vorsätzliche Internet-Shutdowns in Afrika. Zwischen 2020 und 2022 wurden insbesondere die Regionen Tigray und Oromia in physische und digitale Isolation gestürzt. Während des Bürgerkriegs verhängte die Regierungen mehrere Abschaltungen, die nicht nur Dissidenten zum Schweigen brachten, sondern auch humanitäre Hilfe erschwerten.

Die Vereinten Nationen berichteten, dass von einem dreiwöchigen Shutdown im Juli 2020 mehr als 100 Millionen Menschen betroffen waren. Wie Berichte der #KeepItOn-Koalition hervorheben, fiel jede Abschaltung mit einer Eskalation der Gewalt zusammen. Ein Muster, das darauf hindeutet, dass das Ziel nicht „Sicherheit”, sondern strategische Unsichtbarkeit war.

Das Committee to Protect Journalists (CPJ) gehört zu den Organisationen, die die Inhaftierung von Journalisten und die gezielte Internetabschaltung verurteilten. In einem Land, in dem digitales Banking, Bildung und Katastrophenhilfe zunehmend auf Konnektivität angewiesen sind, lähmten diese Abschaltungen das Leben der Menschen.

Sudan: Shutdowns als Unterstützung für einen Militärputsch

Ein weiteres Beispiel ist der Sudan, wo Internet-Shutdowns die Geschichte der Militärherrschaft geprägt haben. Von 2019 bis 2023 hat die Regierung wiederholt den Zugang zum Internet gesperrt, um die Mobilisierung von Protesten und Reaktionen auf einen Staatsstreich einzuschränken. So zum Beispiel im Oktober 2021, als die Armee die zivile Führung festgenommen und den Internetzugang im gesamten Sudan abgeschaltet hat.

Die sudanesische Bevölkerung konnte fast einen Monat lang nicht mit Menschen innerhalb oder außerhalb des Sudan kommunizieren. Die Organisator:innen von Protesten waren auf Offline-Netzwerke und direkten Kontakt angewiesen, um Informationen in den Stadtvierteln weiterzugeben und Demonstrationen zu organisieren. Videos von militärischer Gewalt und Massenverhaftungen wurden wochenlang nicht hochgeladen, sodass die Armee ungestraft handeln konnte.

Human Rights Watch und andere Menschenrechtsorganisationen bezeichneten diese Störungen als vorsätzliche Behinderung der Justiz. Die Sperrung behinderte nicht nur den Informationsfluss, sondern unterdrückte den gesamten zivilgesellschaftlichen Handlungsspielraum. Laut Human Rights Watch hat die Präsenz von Militärkräften in Krankenhäusern den Zugang zu medizinischer Versorgung für Bedürftige beeinträchtigt oder verhindert, und „Mediziner sagten, dass der fehlende Internetzugang es ihnen noch schwerer gemacht habe, die Versorgung zu organisieren“. Auch die Arbeit von humanitären Helfer:innen wurde dadurch beeinträchtigt, dass sie keine Geldüberweisungen über Mobile-Banking-Apps empfangen konnten.

Ein Werkzeug für autoritäre Kräfte

Äthiopien und Sudan unterscheiden sich zwar politisch und kulturell, doch die zu beobachtende Vorgehensweise bei der Abschaltung von Kommunikationsdiensten ist ähnlich. Beide Regierungen nutzten Einschränkungen der Konnektivität nicht nur als vorübergehende Sicherheitsmaßnahmen, sondern auch als langfristige Strategien, um die öffentliche Debatte und die Verbreitung von Informationen zu kontrollieren.

Darüber hinaus schränken die Abschaltungen auch die Möglichkeiten von Oppositionsparteien und zivilgesellschaftlichen Gruppen ein. In vielen afrikanischen Ländern stützt sich die Opposition hauptsächlich auf Messaging-Apps, kostengünstige Livestreams und von Bürger:innenn geführte Wahlbeobachtungsnetzwerke.

Wenn diese Kanäle nicht mehr funktionieren, können Oppositionsparteien keine Wahlbeobachter:innen koordinieren, keine Beweise sammeln und keine Krisenteams entsenden. Auch zivilgesellschaftliche Kontrollinstanzen können die Wahlergebnisse nicht überprüfen, was den Regierungsparteien Spielraum für Manipulationen lässt. Darüber hinaus verlieren insbesondere Frauen und junge Aktivist:innen, die sich hauptsächlich online organisieren, ihre Mobilisierungsmacht. Organisator:innen an der Basis sind zusätzlich physischen Gefahren ausgesetzt, weil sie auf die Kommunikation von Tür zu Tür zurückgreifen müssen.

In Tansania berichteten Wahlbeobachter:innen, dass die Sperrung und die Schikanen durch die Polizei zu einer tiefen psychischen Erschöpfung geführt hätten. „Wir fühlten uns während des gesamten Prozesses machtlos“, erzählt uns Faustine*. „Es war nicht nur ein technisches Hindernis, sondern führte dazu, dass viele undemokratische Vorgänge in den Wahllokalen verschleiert wurden.“

Wie die Zivilgesellschaft Widerstand leistet

Zivilgesellschaftliche Organisationen in Afrika und anderen Teilen der Welt haben deutlich gemacht, dass Internet-Sperren ein wachsendes Menschenrechtsproblem darstellen, und organisieren Widerstand dagegen. So fechten beispielsweise die nigerianische Paradigm Initiative und die in Uganda ansässige CIPESA die Sperrung von Diensten vor Gericht an. Sie klären die Bürger über zivilen Ungehorsam, digitale Rechte und den Umgang mit Technologie auf.

Dutzende von NGOs haben die Afrikanische Erklärung der Internetrechte und -freiheiten unterzeichnet, die einen uneingeschränkten Internetzugang für die Region fordert. Leider haben die Regierungen diese Erklärung ignoriert. Neben Kontrolle ist auch die mangelnde Transparenz ein Problem. Berichte und Daten werden oft von globalen Initiativen wie der #KeepItOn-Koalition von Access Now zusammengestellt.

Der Einfluss der Zivilgesellschaft ist zwar oft indirekt, hat jedoch zunehmend rechtliche und politische Konsequenzen für Regierungen, die Abschaltungen verhängen. Laut Felicia Anthonio, #KeepItOn Global Campaign Manager bei Access Now, hat anhaltende Lobbyarbeit dazu geführt, dass Internet-Shutdowns überhaupt auf der globalen Menschenrechtsagenda stehen und dass regionale und internationale Gremien sie nun als Verletzung von Grundrechten anerkennen.

Gerichte wie der Gerichtshof der Westafrikanischen Wirtschaftsgemeinschaft ECOWAS haben gegen Abschaltungen in Ländern wie Togo, Nigeria, Senegal und Guinea entschieden und damit, so Anthonio, eine klare Botschaft gesendet, dass Internet-Shutdowns illegal sind und die Verantwortlichen zur Rechenschaft gezogen werden können.

Über Rechtsstreitigkeiten hinaus habe der Druck der Zivilgesellschaft auch dazu geführt, dass Regierungsbehörden in Ländern wie Ghana, Kenia und der Demokratischen Republik Kongo sich öffentlich dazu verpflichtet haben, das Internet während Wahlen aufrechtzuerhalten. Zudem seien Internet-Sperren in Ländern wie Sambia, Südsudan und Mauritius rückgängig gemacht oder vorzeitig beendet worden, erzählt die Aktivistin. Zwar hätten Regierungen nach wie vor die Macht, das Internet abzuschalten. Doch die Zivilgesellschaft arbeite stetig daran, Rechtsnormen, die öffentliche Meinung und Rechenschaftspflichten dahingehend zu anzupassen, damit Internet-Sperren der Vergangenheit angehören.

Was der Globale Norden tun kann

Internet-Shutdowns sind zwar ein „lokales Problem“ im Kontext autoritärer Staaten, doch eine regionale und afrikaweite Normalisierung kann auch zu einem Export autoritärer Methoden führen. Jede Internetsperre legitimiert und stärkt autoritäre Bestrebungen in Nachbarländern, sodass sie inzwischen auch in vermeintlich demokratischen Staaten zu beobachten sind.

Um Shutdowns zu unterbinden, bedarf es deshalb auch Druck von außerhalb des Kontinents. Westliche Regierungen und Technologieunternehmen verurteilen solche Störungen zwar oft, doch ihre Reaktionen bleiben meist symbolisch. Es gibt jedoch Ideen, wie Länder des Globalen Nordens einen tiefergehenden positiven Einfluss ausüben könnten.

Allen voran könnten sie den Export von Überwachungs- und Zensurwerkzeugen einstellen, die Shutdowns ermöglichen. Darüber hinaus könnten sie Gelder der Entwicklungshilfe an den Schutz digitaler Rechte knüpfen und so sicherstellen, dass Regierungen, die Unterstützung erhalten, nicht gleichzeitig Kommunikationsnetzwerke sabotieren können, ohne dass dies Konsequenzen hat. Auch die Unterstützung lokaler zivilgesellschaftlicher Gruppen ist wichtig, beispielsweise durch die Finanzierung von Schulungen zur digitalen Sicherheit oder durch Rechtsbeistand bei Gerichtsverfahren.

Wie Sophia Nabalayo, eine kenianische PR- und Kommunikationsspezialistin, gegenüber netzpolitik.org erklärt: „Afrikanische Aktivist:innen können vor Ort gegen Abschaltungen kämpfen, aber globale Akteure kontrollieren oft die Infrastruktur und die Finanzmittel, die Abschaltungen erst möglich machen. Wir brauchen Solidarität, nicht nur Erklärungen.“

* Die Namen wurden aus Sicherheitsgründen geändert und sind der Redaktion bekannt.


Über den Autor: Derrick Wachaya ist Kommunikationsexperte für Klimaschutz und freiberuflicher Journalist in Nairobi.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

❌