🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
✇netzpolitik.org

Interview zu Personenkennzeichen: „Den gläsernen Bürger nicht nur rechtlich, sondern auch technisch verhindern“

Von: Daniel Leisegang

Während die Bundesregierung behördenübergreifend eine lebenslang gültige Personenkennzahl einführen will, geht das Nachbarland Österreich einen anderen Weg. Warum dieser mehr Datenschutz verspricht, ohne die Verwaltungsdigitalisierung zu behindern, erläutert die österreichische Juristin Heidi Scheichenbauer im Gespräch.

Viele Postfaecher in waagerechter und senkrechter Anordnung, jedes Fach mit einer Kennziffer und einem Buchstabencode
Die österreichische Verwaltung nutzt eine Art Einweg-Kennzeichen, das den den „gläsernen Bürger“ verhindern soll. – Alle Rechte vorbehalten IMAGO / Zoonar

Seit Jahren wird in Deutschland über die sogenannte steuerliche Identifikationsnummer diskutiert. Die Steuer-ID soll es Behörden erleichtern, untereinander Daten auszutauschen, indem sie als zentraler Bezugspunkt für unterschiedliche Register dient. Die ID ist lebenslang gültig, alle Bürger:innen erhalten sie vom Bundeszentralamt für Steuern bei Geburt.

Jurist:innen und Datenschützer:innen kritisieren eine solche Personenkennzahl unter anderem mit Bezug auf das Volkszählungsurteil des Bundesverfassungsgerichts als verfassungswidrig. Bei der Einführung der Steuer-ID im Jahr 2007 wurden Bedenken von Datenschützer:innen als „konstruierter Erregungszustand“ weggewischt, nur um dann 13 Jahre später genau das zu tun, wovor diese gewarnt hatten. Damals plante die Große Koalition unter Angela Merkel (CDU), die Steuer-ID dazu zu nutzen, um Verwaltungsdaten zusammenzuführen. Die Ampelkoalitionäre folgten trotz früherer Kritik diesem Konzept und auch die schwarz-rote Bundesregierung hält an diesem Plan fest.

Der Kopf einer Person vor einem Fensterausschnitt
Heidi Scheichenbauer - Alle Rechte vorbehalten Andreas Czák

Österreich hat bereits vor einigen Jahren einen anderen Weg eingeschlagen und das bereichsspezifische Personenkennzeichen (bPK) eingeführt. Sie ist eine Art Einweg-Kennzeichen, das für unterschiedliche Verwaltungsbehörden angepasst wird. Die bPK verspricht so einen höheren Datenschutz und steuerbare Hürden gegen behördenübergreifende Profilbildung – ohne eine effektive Verwaltungsdigitalisierung zu behindern.

Wir haben mit Heidi Scheichenbauer über das bereichsspezifische Personenkennzeichen gesprochen. Sie ist Senior Researcher und Senior Consultant am Research Institute – Digital Human Rights Center. Als Juristin forscht und lehrt sie zu künstlicher Intelligenz in der Verwaltung, Datenschutz im Non-Profit-Sektor und Plattformregulierung.

„Best-Practice-Beispiel“ aus Österreich

netzpolitik.org: In Deutschland geht es in der Debatte um Verwaltungsmodernisierung viel darum, Datensilos aufzubrechen. Österreich will diese möglichst aufrechterhalten. Warum ist das so?

Heidi Scheichenbauer: Tatsächlich haben wir in Österreich ein Best-Practice-Beispiel dafür, wie sich Daten in der Verwaltung datenschutzoptimiert verarbeiten lassen. Wir bauen eine digitale Verwaltung auf und verhindern zugleich den sprichwörtlichen „gläsernen Bürger“.

Bevor die Bundesregierung ein bundesweit einheitliches Personenkernzeichen einführt, sollte sie einen Blick auf ihr kleines Nachbarland werfen. Unsere Erfahrungen zeigen, dass Privacy by Design auch in diesem Bereich möglich ist.

netzpolitik.org: Wie kam es dazu?

Heidi Scheichenbauer: Im Jahr 2001 gab es in Österreich eine Volkszählung. Damals wurden sehr viele Daten über die Bevölkerung gesammelt und das erste Mal ein zentrales Melderegister auf Bundesebene eingerichtet.

Dieses Zentrale Melderegister (ZMR) enthielt eine Vielzahl an personenbezogenen Daten. Darunter den Namen, das Geschlecht, das Geburtsdatum, die Staatsangehörigkeit. Das allein ist datenschutzrechtlich schon sehr kritisch. Und dann vergab das ZMR allen Bürger:innen auch noch einen bundesweiten Identifikator, die sogenannte Stammzahl. Viele fürchteten damals, dass damit der gläserne Bürger geschaffen wird.

Man hat sich daher einen Weg überlegt, wie man dieses Datenschutzthema adressieren kann – und schuf die bereichsspezifischen Personenkennzeichen, kurz: bPK. Diese Personenkennzeichen beruhen auf der Stammzahl, sind aber für jeden Verwaltungsbereich anders.

Also hat eine Bürgerin zum Beispiel beim Finanzamt ein eigenes bPK, für die Sozialversicherung ist es ein anderes. Und die eine Behörde kann mit dem Kennzeichen, das ihr vorliegt, keine sinnvollen Anfragen bei einer anderen Behörde stellen.

Eine Nummer, sie alle zu finden

Eine heikle Sache

netzpolitik.org: Eine bemerkenswerte Wende. Normalerweise wecken viele Daten auch viele Begehrlichkeiten.

Heidi Scheichenbauer: Es gab damals ein Bewusstsein dafür, dass die Daten im Zentralen Melderegister und die Verwendung eines einheitlichen Identifikators eine heikle Sache sind.

Bei der Einführung hagelte es daher Kritik an den geplanten Neuerungen. Bemängelt wurde unter anderem die mögliche Verknüpfung der vorliegenden Daten mit dem „Ursprungskennzeichen“, also der ZMR-Zahl. Denn damit ist eine behördenübergreifende Identifizierung einer bestimmten Person möglich.

Weiters wurde vorgebracht, dass das Kennzeichen eine Verknüpfung mit anderen individuellen Datensätzen ermögliche, beispielsweise aus der Einkommens- oder Volkszählungsstatistik.

Daten können – das zeigt auch der österreichische Postdatenskandal – sehr viel über das eigene Leben preisgeben, vom Wohnsitz bis zur vermuteten politischen Einstellung. Und dann wird auch klar, wie sehr man mit diesen Daten Menschen diskriminieren und manipulieren kann.

Ein Einweg-Kennzeichen für die Verwaltung

netzpolitik.org: Wie wird das bereichsspezifische Personenkennzeichen erzeugt?

Heidi Scheichenbauer: Es beruht auf der ZMR-Zahl, die im Zentralen Melderegister alle gemeldeten Personen erhalten. Aus ihr wird mit Hilfe eines Verschlüsselungsverfahrens die individuelle Stammzahl abgeleitet. Aus dieser Stammzahl wird dann für die jeweiligen Verwaltungsbereiche einzelne Ableitungen erzeugt.

netzpolitik.org: Erhält jede Behörde automatisch eine bPK für jede:n Bürger:in?

Heidi Scheichenbauer: Nein, nicht automatisch. Teilweise müssen die Behörden dafür zunächst bei der Stammzahlenregisterbehörde einen Antrag stellen, manchmal sogar ganz klassisch per Online-Formular. Bei dem Vorgang müssen Beamt:innen angeben, in welchem Verwaltungsbereich sie tätig sind. Es gibt aktuell rund 30 Tätigkeitsbereiche.

netzpolitik.org: Es gibt also für jede:n Bürger:in je nach Verwaltungsbereich individuelle Einwegskennzahlen. Das klingt recht aufwendig. Hat sich das im Alltag bewährt?

Heidi Scheichenbauer: Auf jeden Fall. Denn die Behörden können so nicht ohne weiteres behördenübergreifende Verarbeitungstätigkeiten vornehmen und damit auch kein Profiling betreiben.

Dafür sorgt auch eine Bereichsabgrenzungsverordnung, die unterschiedliche Verwaltungsbereiche voneinander trennt. Auch dem ging eine politische Diskussion voraus: Was gehört alles zu Steuern und Abgaben, was zu anderen Bereichen.

Auch diese Trennung soll den gläsernen Bürger verhindern. Nicht nur rechtlich, sondern eben auch technisch.

Strikte Trennung innerhalb der Verwaltung

netzpolitik.org: Wie kann eine Behörde denn mit anderen Behörden Daten austauschen?

Heidi Scheichenbauer: Das kann sie auf dem Wege der Amtshilfe tun. Es gibt auch die Möglichkeit, verschlüsselte bereichsspezifische Personenkennzeichen zu beziehen und dann so zu kommunizieren. Aber grundsätzlich ist das gesetzlich sehr strikt getrennt.

Das österreichische E-Government-Gesetz schreibt vor, dass zusammengehörige Lebenssachverhalte in ein und demselben Bereich zusammengefasst werden und dass miteinander unvereinbare Datenverarbeitungen innerhalb desselben Bereichs nicht vorgesehen sind.

netzpolitik.org: In der deutschen Debatte gibt es hingegen das Bestreben, Daten zusammenzuführen, weil die Verwaltung dann angeblich effizienter arbeiten könne. Gibt es eine ähnliche Debatte in Österreich?

Heidi Scheichenbauer: Auf der politischen Ebene haben wir aktuell keine Diskussion dahingehend, dass das bPK-System infrage gestellt wird. Es hat sich gut eingespielt und auch bewährt. In den vergangenen Jahren gab es auch keine politischen Bestrebungen, das System zu verändern. Auch Datenpannen oder Missbrauchsfälle gab es nicht. Zumindest keine, die öffentlich bekannt wurden.

Eine hundertprozentige Sicherheit gibt es, wie so oft im Leben, nicht. Die Privacy-by-Design-Maßnahmen verhindern hier aber tatsächlich sehr effektiv einen ansonsten prinzipiell möglichen Missbrauch.

netzpolitik.org: In Deutschland gilt die Devise, die Daten in einen großen Pool zu geben und den Behördenzugriff rechtlich zu regulieren. Ist das österreichische Modell aus deiner Sicht sicherer?

Heidi Scheichenbauer: Das ist ohne Zweifel sicherer, weil die meisten Risiken für die betroffenen Personen schon in der technischen Gestaltung signifikant gemindert werden. Es werden nämlich kryptografische Verfahren angewendet, die nicht umkehrbar sind. Von bPKs kann somit nicht mehr auf die Stammzahl zurückgerechnet werden. Das ist mathematisch schlicht nicht möglich.

Und auch organisatorisch ist das Zentrale Melderegister ein Ort, der sehr gut abgesichert ist, wie ich auch aus persönlicher Erfahrung weiß. Ich hatte vor vielen Jahren aus beruflichen Gründen einen Termin bei einem Dienstleister der Stammzahlenregisterbehörde. Damals machte ich die Erfahrung, dass man in das betreffende Gebäude nur sehr schwer hineinkommt.

Digitale Identitäten und künstliche Intelligenz

netzpolitik.org: In Österreich gibt es seit einigen Jahren die ID Austria. Zum Ende dieses Jahres soll in allen EU-Mitgliedstaaten die ID-Wallet starten. Welche Auswirkungen hat das auf die bPK?

Heidi Scheichenbauer: Die ID Austria ist ein digitaler Identitätsnachweis. Ich kann mich damit also gegenüber dem Finanzamt und dem Wohnungsamt ausweisen. Dadurch könnten theoretisch behördenübergreifende Profile erstellt werden. Doch es gibt Schutzmaßnahmen, die das verhindern sollen.

So müssen personenbezogene Daten pseudonymisiert und innerhalb bestimmter Fristen gelöscht werden. Die Daten dürfen außerdem, soweit es notwendig ist, nur von bestimmten Stellen verarbeitet oder übermittelt werden. Und sie unterliegen strengen Zugriffsrechten. Im Gegensatz zu den geplanten ID-Wallets der EU sieht die ID Austria gesetzlich sowohl gegenüber Behörden als auch privaten Einrichtungen einen strengen Akkreditierungsprozess unter anderem zur Sicherstellung der Datenminimierung, also des „minimal data set“ bei jeder Anwendung vor. An dem bestehenden System der bPK rüttelt die ID Austria also nicht.

netzpolitik.org: Der Einsatz von sogenannter Künstlicher Intelligenz wird mit Blick auf Verwaltungsdaten ebenfalls diskutiert. Gerade in der Sozialverwaltung gibt es Bestrebungen, Sprachmodelle mit den dort hinterlegten Daten zu trainieren. Gibt es ähnliche Debatten auch in Österreich?

Heidi Scheichenbauer: Durchaus und meist gilt das Datenschutzrecht dann als böse, weil es derartiges verhindere. Die österreichischen Verwaltungseinrichtungen äußern ihren Unmut vor allem über den Datenschutz, als dass sie nach Lösungen suchen. Dabei könnten sie etwa darüber nachdenken, wie KI-Training mit anonymen Daten möglich wäre. Das ist alles aber auch noch sehr im Fluss.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Gesellschaft für Freiheitsrechte: Klage gegen zentrale Speicherung von Gesundheitsdaten geht weiter

Von: Daniel Leisegang

Beim Forschungsdatenzentrum Gesundheit sollen die Gesundheitsdaten aller gesetzlich Versicherten zusammenlaufen. Ein Gerichtsverfahren dagegen wird nun fortgesetzt. Dessen Ausgang könnte Pläne von Gesundheitsministerin Nina Warken durchkreuzen.

Zwei Menschen vor blauem Hintergrund
Karl Broich und Nina Warken auf der Pressekonferenz zur Eröffnung des Forschungsdatenzentrums Gesundheit im Oktober 2025. – Alle Rechte vorbehalten IMAGO / dts Nachrichtenagentur

Drei Jahre lang herrschte Stillstand. Nun geht ein Gerichtsverfahren weiter, das sich gegen die zentrale Speicherung von Gesundheitsdaten aller gesetzlich Versicherten im Forschungsdatenzentrum Gesundheit (FDZ) richtet.

Die Klage hatte die Gesellschaft für Freiheitsrechte (GFF) gemeinsam mit Constanze Kurz, netzpolitik.org-Redakteurin und Sprecherin des Chaos Computer Club (CCC), sowie einem weiteren anonymen Kläger im Mai 2022 eingereicht. Weil das FDZ aber jahrelang nicht arbeitsfähig war und kein IT-Sicherheitskonzept vorlegen konnte, ruhte das Verfahren seit Februar 2023. Im vergangenem Herbst wurde das FDZ offiziell eröffnet, weshalb die GFF das Verfahren nun nach eigenen Angaben fortsetzt und weitere Schriftsätze eingereicht hat.

Der Ausgang der Klage könnte weitreichende Folgen haben. Denn es geht um die Forschung mit Gesundheitsdaten, eine zentrale Säule der erst vor wenigen Wochen vorgestellten Digitalisierungsstrategie von Bundesgesundheitsministerin Nina Warken (CDU). Sollte das Gericht zugunsten der Klagenden entscheiden, könnten wichtige Vorhaben ihres Ministeriums ins Wanken geraten.

Kläger:innen fordern effektiven Widerspruch und besseren Schutz

Die Klagenden werden von dem Rechtswissenschaftler Matthias Bäcker vor dem Sozialgericht Berlin und dem Sozialgericht Frankfurt vertreten. Aus ihrer Sicht verstößt die zentrale Sammlung hochsensibler Gesundheitsinformationen beim FDZ zum einen gegen das Grundrecht der Versicherten, selbst über die eigenen Daten zu bestimmen, sowie gegen das Datenschutzrecht der Europäischen Union.

Zum anderen seien die gespeicherten Daten nicht ausreichend geschützt. Für deren Übermittlung werden nur Namen, Geburtstag und -monat der Versicherten entfernt. Ein von der GFF in Auftrag gegebenes Gutachten des Kryptographie-Professors Dominique Schröder kommt zu dem Schluss, dass eine solche Pseudonymisierung die Versicherten nicht ausreichend schützt. Durch den Abgleich mit anderen Datensätzen ließen sich Betroffene ohne großen Aufwand re-identifizieren.

Die GFF fordert daher für alle Versicherten ein „voraussetzungsloses Widerspruchsrecht“, dass ihre eigenen Gesundheitsdaten für Forschung und andere Zwecke weitergenutzt werden. „Gesundheitsdaten gehören zu den sensibelsten Informationen überhaupt und sind ein lukratives Ziel für Kriminelle“, sagt Jürgen Bering, Jurist bei der GFF. „Forschung darf daher nur unter ausreichenden Schutzmaßnahmen stattfinden.“

Auf dem Weg zu „einem der größten Daten-Hubs“

Gesundheitsministerin Warken sieht das Forschungsdatenzentrum als „Innovationsmotor“ der Gesundheitsforschung. Die Einrichtung ist beim Bundesamt für Arzneimittel und Medizinprodukte (BfArM) in Bonn angesiedelt. Seit 2022 werden dort Gesundheitsdaten zu allen gesetzlich Versicherten in einer zentralen Datenbank zusammengeführt und für die Dauer von bis zu 100 Jahren gespeichert. Forschende müssen sich bei diesem Zentrum registrieren, um mit den Daten arbeiten zu können.

Bislang übermitteln die gesetzlichen Krankenkassen nur die Abrechnungsdaten all ihrer Versicherten an das FDZ. Diese Daten geben Auskunft darüber, welche Leistungen die Versicherungen in Rechnung gestellt bekommen haben und mit welchen Diagnosen diese versehen sind.

Ab dem vierten Quartal dieses Jahres sollen dann nach und nach die Behandlungsdaten aus der elektronischen Patientenakte hinzukommen. BfArM-Chef Karl Broich geht davon aus, dass seine Behörde in zehn Jahren bundesweit „einer der großen Daten-Hubs“ ist.

„Gesundheitsdaten brauchen zwingend angemessene Sicherheitsmaßnahmen“

Sollte die GFF mit ihrer Klage Erfolg haben, könnte dieses Ziel verfehlt werden. Denn bislang ist vorgesehen, dass die ePA-Daten automatisch an das FDZ gehen – sofern Versicherte dem nicht aktiv widersprechen. Dieser Automatismus müsste dann möglicherweise einer aktiven Einwilligung der Versicherten weichen.

Aus Sicht der Klagenden wäre dies zu begrüßen. „Es wird höchste Zeit, dass das Verfahren fortgeführt wird“, sagt Constanze Kurz. „Denn es braucht Klarheit zur Sicherheit und zum Widerspruchsrecht, schon weil inzwischen der Kreis der nutzungsberechtigten Stellen ganz erheblich erweitert wurde.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

NGOs fordern: Ex-Meta-Lobbyistin soll nicht EU-Digitalgesetze aufweichen

Von: Tomas Rudl

Mit der finnischen EU-Abgeordneten Aura Salla soll eine ehemalige Meta-Lobbyistin maßgeblich am geplanten digitalen Regulierungsabbau in der EU mitwirken. Nun fordern mehrere Nichtregierungsorganisationen ihre Abberufung als Chef-Verhandlerin des EU-Parlaments.

Aura Salla (MEP)
Vor ihrer Wahl ins EU-Parlament im Sommer 2024 war die finnische EU-Abgeordnete Aura Salla Chef-Lobbyistin von Meta in Brüssel – nun soll sie über die Deregulierung im Digitalbereich mitbestimmen. – Alle Rechte vorbehalten IMAGO / Martin Bertrand

Die finnische EU-Abgeordnete Aura Salla ist in Brüssel bestens vernetzt. Vor ihrer Zeit im EU-Parlament war die konservative Politikerin dort Chef-Lobbyistin von Meta. Davor hatte Salla diverse Positionen in der EU-Kommission bekleidet, unter anderem war sie im Kabinett des damaligen Vize-Präsidenten Jyrki Katainen tätig.

Von der Politik in die Privatwirtschaft und wieder zurück: Das als „Revolving Door“ bekannte Phänomen sorgt immer wieder für Probleme, da es schnell zu Interessenskonflikten führt. Zumindest auf dem Papier ist die EU dagegen gewappnet: Ein detailliertes Regelwerk soll verhindern, dass Beamt:innen nahtlos von einer Rolle in die nächste schlüpfen und dabei etwa Kontakte und Wissen mitnehmen, das sie im neuen Job eigentlich nicht haben sollten.

Für Aura Salla könnte es deshalb nun eng werden. Eine Reihe zivilgesellschaftlicher Organisationen, darunter Corporate Europe Observatory (CEO), LobbyControl und Transparency International EU fordern in einem heute veröffentlichten offenen Brief an den Industrieausschuss (ITRE) im EU-Parlament, Salla von ihrer Rolle als Berichterstatterin für den sogenannten Digitalen Omnibus abzuberufen.

Unter diesem Begriff verhandelt die EU derzeit ein Gesetzespaket, mit dem die Digitalregulierung überarbeitet und entschlackt werden soll. Ziel sind vereinfachte Regeln, um die Wettbewerbsfähigkeit Europas zu verbessern. Kritiker:innen weisen darauf hin, dass mit dem Regulierungsabbau unter anderem das Datenschutzniveau empfindlich abgesenkt würde. Als eine der Berichterstatterinnen – und damit Verhandlungsführerinnen – des EU-Parlaments hätte Aura Salla dabei viel Einfluss auf das fertige Gesetz.

Ehemalige Meta-Lobbyistin mischt kräftig mit

„Die Ernennung einer ehemaligen Big-Tech-Lobbyistin, um Digitalgesetze zu überarbeiten und zu schwächen, wirft schwerwiegende Fragen hinsichtlich unzulässiger Einflussnahme auf den Gesetzgebungsprozess auf“, so die NGOs in ihrem Schreiben. Gerade Meta, zu dem Facebook, Instagram und WhatsApp gehören, steht bekanntlich mit Vorgaben wie jenen zum Datenschutz auf Kriegsfuß. Rund 2,5 Milliarden Euro an Geldbußen wurden dem Datenkonzern wegen wiederholter Vergehen in der EU auferlegt.

„Das Unternehmen hat ein starkes Interesse daran, die Datenschutz-Grundverordnung (DSGVO) durch den Digitalen Omnibus zu schwächen, und kann seine engen Verbindungen zu Frau Salla nutzen, um dies zu erreichen“, warnen die NGOs. Tatsächlich habe sich Salla als Abgeordnete bereits mehrfach mit ihrem ehemaligen Arbeitgeber getroffen, unter anderem bei einem Lobbytreffen im September 2024 und einem weiteren im Januar 2025.

Bereits jetzt lässt sich am Omnibus-Entwurf der Kommission der Einfluss der Wirtschaft ablesen, wie eine gemeinsame Analyse von CEO und LobbyControl im Januar ergeben hatte. Mit Industrieforderungen praktisch deckungsgleiche Vorschläge durchziehen den gesamten Entwurf, der in der Leseart der NGOs einen „beispiellosen Angriff auf digitale Rechte“ darstellt. Zudem lese sich der Vorschlag wie eine Wunschliste ausgerechnet US-amerikanischer Tech-Konzerne, anstatt europäische Unternehmen zu stärken.

Voll auf Deregulierungslinie

Ähnliche Positionen wie die Tech-Konzerne vertritt auch Aura Salla. Die zur konservativen EVP-Fraktion gehörende Politikerin warnte etwa vor einem „Regulierungs-Tsunami“, fürchtet Überregulierung durch Gesetze wie den Digital Services Act und möchte Tech-Konzernen erlauben, Verkehrs- und Metadaten ihrer Nutzer:innen möglichst ungehindert zum Trainieren ihrer KI-Systeme verwenden zu können.

Nach ihrer Bestellung zur Berichterstatterin zeigte Salla auf, in welche Richtung sie den Digitalen Omnibus lenken will: „Jahrelang konzentrierte sich die EU auf die Regulierung ihrer eigenen Unternehmen, während China und die USA in Wachstum und technologische Entwicklung investierten. Das endlose Klicken durch Cookie-Einstellungen und die sich überschneidenden und unklaren Regeln für Unternehmen haben das Internet nicht sicherer gemacht, sondern das Wachstum europäischer Unternehmen gebremst. Europäische Unternehmen müssen endlich Priorität haben“, schrieb sie in einer Pressemitteilung.

Zugleich sieht Salla die EU nicht notwendigerweise in der Verantwortung: „Big Tech sollte in ihren Heimatkontinenten reguliert werden“, sagte sie Ende 2024 dem Magazin Wired. In vielen Fällen wären das die USA, so Salla – ein Land, das traditionell reichlich wenig von Regulierung hält, erst recht unter Präsident Donald Trump und seinen Tech-Oligarchen wie Mark Zuckerberg im Schlepptau. Indes schlägt Salla „Maßnahmen wie Zölle, Datenpreismechanismen oder eine Digitalsteuer für Unternehmen außerhalb der EU“ vor. Diese Ansätze dürften jedoch kaum im Digitalen Omnibus verhandelt werden.

Halb verdeckte Interessenkonflikte

Ein ungünstiges Licht auf Salla werfe zudem ihre Tendenz, „wiederholt potenzielle Interessenkonflikte zu verschleiern“, kritisieren die NGOs. So hatte sie etwa nicht offengelegt, Anteile an Rüstungsbetrieben zu halten, obwohl diese Transparenz EU-Abgeordneten ausdrücklich vorgeschrieben ist. Erst Berichterstattung des Online-Mediums Follow the Money hat sie letztlich gezwungen, ihre Aktien zu verkaufen.

Auch als Omnibus-Berichterstatterin sieht Salla keine Interessenskonflikte. In ihrer offiziellen Erklärung hierzu – eine Pflicht für Berichterstatter:innen – hat sie im Februar die einschlägige Frage verneint. Aus Sicht der NGOs verstößt sie damit gegen die Transparenzregeln, die für Abgeordnete gelten.

Auf Anfrage weist Salla die Vorwürfe zurück. Ab ihrem Eintritt in den Mutterschutz im Februar 2023 habe sie nicht mehr für Meta gearbeitet und seit ihrem endgültigen Abschied im Mai 2023 auch kein Geld bekommen, sagt Salla zu netzpolitik.org:„Selbstverständlich habe ich seit meinem Ausscheiden keine Zahlungen mehr von dem Unternehmen erhalten“. Im Zusammenhang mit der Berichterstatterrolle „habe ich keine laufende berufliche Tätigkeit, keine finanziellen Interessen und keine persönlichen Interessen, die einen Interessenkonflikt darstellen könnten“, sagt Salla.

Als Berichterstatterin wolle sie dem europäischen öffentlichen Interesse dienen und die Wettbewerbsfähigkeit Europas stärken, so die Abgeordnete. „Ich habe meine Ansichten zur Notwendigkeit der technologischen Souveränität der EU, zur Beseitigung der Abhängigkeit von amerikanischen Technologiekonzernen und zur Förderung europäischer Alternativen stets deutlich zum Ausdruck gebracht“, sagt die Finnin.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Datenschutz-Reform: Mitgliedstaaten gehen auf Abstand zu Plänen der EU-Kommission

Von: Ingo Dachwitz

Es ist das erste Signal des Rates im Ringen um den sogenannten Datenomnibus: In einem ersten Positionierungsentwurf stellen sich die Mitgliedstaaten gegen mehrere Vorschläge der EU-Kommission, die von Datenschutz-Expert:innen kritisiert worden waren. Wir veröffentlichen den Zwischenstand.

Eine Straße im Sonnenlicht, im Vordergrund Verkehrsschilder auf den "Stop" in rot und "Go" in grün stehen
Stop and Go für unterschiedliche Vorschläge im „Digital Omnibus“ – Gemeinfrei-ähnlich freigegeben durch unsplash.com Tanya Barrow

Die Europäische Union verhandelt derzeit über den „Digitalen Omnibus“. So wird ein Gesetzespaket genannt, mit dem die EU-Kommission Teile der europäischen Digitalregulierung überarbeiten will – und das möglichst schnell. Während die Kommission selbst lediglich von „technischen Änderungen“ und „Vereinfachung“ spricht, sehen viele andere auch einen Rückbau von Regulierung.

Industrieverbänden geht dieser nicht weit genug, zivilgesellschaftlichen Organisationen und Datenschützer:innen zu weit.

Während sich bei angestrebten Anpassungen der KI-Verordnung mögliche Kompromisse andeuten, sind vor allem weitreichende Änderungen im Bereich des Datenschutzes umstritten. Nun gibt es einen ersten Positionierungsentwurf des Rates zu diesem sogenannten Datenomnibus, der zentrale Vorschläge der EU-Kommission ablehnt oder abschwächt. Wir veröffentlichen das Dokument, über das erste Medien am Freitag berichteten.

Keine Neudefinition personenbezogener Daten

Eine von der EU-Kommission geplante Änderung der Definition personenbezogener Daten soll laut dem Ratspapier gestrichen werden. Der ursprüngliche Kommissionsvorschlag hätte zur Konsequenz, dass pseudonymisierte Daten unter Umständen nicht mehr von der Datenschutzgrundverordnung (DSGVO) erfasst wären. Das kritisierten unter anderem der Europäische Datenschutzausschuss und der EU-Datenschutzbeauftragte scharf. Sie sehen darin eine Schwächung des Schutzniveaus der DSGVO sehen und fürchten Rechtsunsicherheiten.

Die Mitgliedstaaten kommen anscheinend zu einer ähnlichen Einschätzung. Laut dem Verhandlungsstand des Rates sollen statt einer geänderten Definition lieber Richtlinien des Europäischen Datenschutzausschusses klären, wann pseudonymisierte Daten möglicherweise nicht der DSGVO unterliegen. Wegfallen soll auch eine neue Regel, die der EU-Kommission ermöglicht hätte, per Durchführungsakt Standards zu setzen und so die Deutungshoheit über datenschutzrechtliche Auslegungsfragen zu erlangen.

Auch einen Kommissionsvorschlag, voll-automatisierte Entscheidungen unter bestimmten Umständen zu erlauben, will der Rat streichen. Diese sind nach der DSGVO bislang verboten und sollen es dem Papier zufolge bleiben. Das Papier der Mitgliedstaaten übernimmt jedoch weniger strittige Vorschläge der Kommission, etwa um Meldewege bei IT-Sicherheitsvorfällen zu vereinfachen.

Konkretisieren will der Rat eine sehr breit gefasste Regel, die es Datenverarbeitern ermöglichen würde, Auskunfts- oder Löschanfragen von Betroffenen sehr leicht abzulehnen. Dies soll dem Papier zufolge nur noch dann möglich sein, wenn Betroffene eine große Anzahl identischer oder weitgehend ähnlicher Anfragen einreichen und dies mit der alleinigen Absicht tun, dem Verantwortlichen Schaden zuzufügen.

Wo steht Deutschland?

Das Dokument ist ein erster Vorschlag der zypriotischen Ratspräsidentschaft und beruht auf Beratungen der Mitgliedstaaten in der Arbeitsgruppe Vereinfachung. Bevor der Rat seine Position beschließt, wird der Arbeitsstand in der Gruppe weiter diskutiert und in weiteren Gremien beraten werden, so etwa im ranghöheren Ausschuss der Ständigen Vertreter. Es handelt sich also nur um ein erstes Signal, aber dieses fällt deutlich aus.

Sollte der Digitale Omnibus, der ja eigentlich nur Vereinfachungen vornehmen soll, am Ende ohne größere Reform der DSGVO verabschiedet werden, bedeutet es nicht, dass diese vom Tisch sind. Tatsächlich hatte die Kommission bereits angedeutet, dass ein für später im Jahr geplanter Fitness-Check der Digitalregulierung der Rahmen für eine größere Datenschutzreform sein könnte.

Der Datenomnibus wird nun zunächst weiter im EU-Parlament und im Rat diskutiert. Die nächsten Beratungen der Ratsarbeitsgruppe Vereinfachung finden an diesem Freitag statt. Dort wird das Feedback der Mitgliedstaaten auf den Positionsentwurf besprochen.

Deutschland gehört zu den Ländern, die sich hier gegen den Vorschlag der Ratspräsidentschaft und hinter die Deregulierungspläne der Kommission stellen könnten. Das deutsche Digitalministerium hatte die EU-Kommission im letzten Jahr zu ihren weitreichenden Vorschlägen ermutigt, unter anderem mit einem Positionspapier, das wir veröffentlicht haben. Darin regte Deutschland unter anderem weitreichende Einschränkungen von Betroffenenrechte an.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Digital Services Act: Datenzugang ist kein Plattformprivileg, sondern ein Recht

Von: Gastbeitrag · Jakob Ohme, LK Seiling

Die EU-Kommission hat X ein Bußgeld auferlegt, weil der Datenzugang, den die Plattform Forschenden zur Verfügung stellt, nicht DSA-konform ist. Die Urteilsbegründung ist bemerkenswert: Forschung wird darin nicht länger nur als Beobachterin von Plattformmacht verstanden, sondern als aktiver Bestandteil regulatorischer Kontrolle.

Ein Astronaut, der im flachen Wasser steht, dahinter ein hell erleuchtetes Tor.
Forschende brauchen Zugang, um forschen zu können. – Gemeinfrei-ähnlich freigegeben durch unsplash.com KNXRT

Im Dezember vergangenen Jahres hat die Europäische Kommission erstmals ein Verfahren nach dem Gesetz über digitale Dienste (DSA) abgeschlossen. Sie kam dabei unter anderem zu dem Ergebnis, dass das von X bereitgestellte System, über das Wissenschaftler:innen an Nutzungsdaten gelangen sollen, nicht DSA-konform ist. Die Kommission verhängte eine Strafe von 120 Millionen Euro; X hat bis Anfang März Zeit, seine Plattform anzupassen. Der DSA ist das zentrale EU-Gesetz zur Regulierung großer Online-Plattformen und soll unter anderem Transparenz schaffen, Risiken für die öffentliche Meinungsbildung begrenzen und Forschung zu diesen Risiken ermöglichen.

Inzwischen liegt die Begründung der Kommissionsentscheidung vor. Am 28. Januar veröffentlichte der von Republikanern geführte Justizausschuss des US-Repräsentantenhauses ein Dokument der Europäischen Kommission, das die Gründe für ihre Entscheidung gegen X im Dezember darlegt. Es zeigt, wie die EU den DSA konkret durchsetzen will – und welche Rolle Datenzugang und wissenschaftliche Evidenz dabei spielen.

Die politisch motivierte Veröffentlichung und Einordnung durch den Justizausschuss, der im DSA vor allem europäische Zensurabsichten sieht, sind zwar fragwürdig. Sie ändern aber nichts an der inhaltlichen Bedeutung der Begründung selbst. Ein zentraler Bestandteil der Begründung betrifft Versäumnisse beim Gewähren von Datenzugang für Forschende nach Artikel 40(12) DSA. Dieser Datenzugang soll es ermöglichen, systemische Risiken für die EU zu erforschen – etwa Desinformation oder süchtigmachende Plattform-Designs.

Dass Plattformen diesen Zugang bislang häufig nicht freiwillig gewährten, war einer der Gründe für die Einführung des DSA. Aus dem Urteil liest sich, dass X nur knapp fünf Prozent der Anfragen von Wissenschaftler:innen genehmigt hat. Es handelt sich hier also um ein strukturelles Problem.

Enge Auslegung und Verzögerungstaktiken sind unzulässig

Die EU-Kommission stellt unmissverständlich klar, dass Plattformen das gesetzlich verankerte Recht auf Datenzugang nicht in ein von ihnen kontrolliertes Privileg umdeuten dürfen. X hatte Anträge systematisch abgelehnt, wenn Forschende nicht zweifelsfrei nachweisen konnten, dass die beantragten Daten ausschließlich der Erforschung systemischer Risiken dienen. Diese enge Auslegung widerspricht laut Kommission dem Zweck des Gesetzes. Forschende müssen nicht beweisen, dass man aus „Mehl, Butter und Eiern nur einen einzigen Kuchen backen kann“.

Erstmals wird zudem konkretisiert, was als unzulässige Verzögerung gilt: Eine Bearbeitungszeit von mehr als zwei Monaten ordnet die Kommission ausdrücklich als „undue delay“ ein – also als unerlaubteVerzögerung. Damit erhalten Forschende erstmals eine belastbare rechtliche Orientierung. Auch der Versuch, Datenzugang an Kosten, institutionelle Zugehörigkeit oder einen EU-Standort zu knüpfen, weist die Europäische Kommission zurück.

Scraping ist zulässig – auch ohne Plattformgenehmigung

Eine weitere wegweisende Klarstellung betrifft das Scraping, also das automatisierte Auslesen öffentlich zugänglicher Inhalte. Diese Zugangsform ist zentral, um Plattformdaten auch ohne Mitwirkung der Anbieter zu erheben und von Plattformen bereitgestellte Daten überprüfen zu können.

Die Kommission stellt klar, dass Forschenden dieses Recht zusteht, sofern sie die Kriterien aus Artikel 40(12) und 40(8) DSA erfüllen: Forschung zu systemischen Risiken, kein kommerzielles Interesse, transparenter Umgang mit Finanzierung und nachweisbare Datenschutz- sowie Sicherheitsmaßnahmen.

Plattformen dürfen Scraping nicht pauschal über ihre Nutzungsbedingungen untersagen, und eine vorherige Genehmigung ist nicht erforderlich – gerade weil hier die Gefahr eines „undue delay“ besteht.

Evidenz aus der Forschung hat Beweiswert

Besonders bemerkenswert ist, wie die Kommission mit der Frage der Evidenz umgeht. Sie weist die Vorstellung zurück, der Beweiswert müsse an akademische Seniorität, große Stichproben oder klassische Peer-Review-Formate gebunden sein. Entscheidend seien stattdessen methodische Sorgfalt und faktische Relevanz für den konkreten Fall.

In diesem Zusammenhang verweist die Begründung mehrfach auf den vom DSA40 Data Access Collaboratory am Weizenbaum-Institut betriebenen Data Access Tracker. Obwohl die Daten aus der wissenschaftlichen Community gesammelt wurden und keine Zufallsstichprobe darstellen, attestiert die Kommission der Erhebung ausdrücklich Beweiswert im juristischen Sinne. Auch ein von X kritisierter Preprint – ein noch nicht begutachteter Forschungsartikel – wird als relevante Evidenz anerkannt, nicht zuletzt, weil er später peer-reviewed veröffentlicht wurde.

Methodisch nachvollziehbare Forschung wird hier selbst zur Grundlage regulatorischer Durchsetzung.

Relevanz nicht nur für X

Politisch ist die Begründung der Kommission damit weit mehr als eine Einzelfallentscheidung gegen X. Sie markiert einen Meilenstein in der Durchsetzung des Digital Services Act: Forschung wird nicht länger nur als Beobachterin von Plattformmacht verstanden, sondern als aktiver Bestandteil regulatorischer Kontrolle.

Indem die Kommission methodisch nachvollziehbare Forschung ausdrücklich als rechtlich relevante Evidenz anerkennt und Plattformen klare Grenzen bei Verzögerung, Kosten und Zugangsbeschränkungen setzt, verschiebt sich das Machtgefüge zugunsten von Öffentlichkeit und Wissenschaft. Ob diese Standards künftig konsequent durchgesetzt werden und möglichen Klagen der Plattformen standhalten, wird entscheidend dafür sein, ob der DSA sein zentrales Versprechen einlösen kann: Plattformregulierung nicht nur auf dem Papier, sondern auf Basis überprüfbarer Beweise.

Dass diese Prinzipien nicht nur abstrakt gelten, sondern praktisch durchsetzbar sind, zeigt der jüngste Erfolg von Democracy Reporting International gegen X. Gerichte bestätigen zunehmend, dass Forschende ihren Anspruch auf Datenzugang aktiv einklagen können – und damit eine zentrale Rolle bei der demokratischen Kontrolle von Plattformen einnehmen.

Dr. Jakob Ohme leitet die Forschungsgruppe „Digital News Dynamics“ am Weizenbaum-Institut und untersucht dort die Rolle des digitalen Journalismus im Spannungsfeld von Influencern und Künstlicher Intelligenz. Er ist zudem Co-Principal Investigator im #DSA40 Collaboratory und arbeitet dort an kooperativen Modellen für den Zugang zu Plattformdaten im Rahmen des Digital Services Act der EU. LK Seiling ist Plattformforscher in der Forschungsgruppe „Digital News Dynamics“ am Weizenbaum-Institut und koordiniert die Arbeit des #DSA40 Collaboratory als Experte für Forschungsdatenzugang.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Digitale Gewalt: Die Rhetorik der tausend Nadelstiche

Von: Gastbeitrag · Ingrid Brodnig

Beleidigungen sind wirkungsvoll, weil sie uns Menschen signalisieren, welchen Stellenwert wir in der Gesellschaft haben. Oftmals richten sie sich gegen Politikerinnen. Sie werden nicht als Individuum, sondern als Vertreterin ihres Geschlechts herabgestuft. Wie kommt es dazu? Und was können wir dagegen unternehmen?

Mehrere geöffnete Münder
Konstantes Beleidigen und Sticheln ist auf allen digitalen Plattformen möglich. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Nsey Benajah

In einem meiner Interviews mit einer jungen SPD-Abgeordneten zog diese während des Gesprächs ihr Handy hervor – und begann, an sie gerichtete Antworten auf der Plattform X vorzulesen:

  • „Wie viel Scheiße kann ein Mensch labern?“
  • „Frau XYZ und solche wie sie können nichts, leisten nichts und brauchen deshalb Steuergeld um sich wertvoll zu fühlen (…)“
  • „Was schreiben Sie hier für einen Unsinn?“
  • „Schluck deine Pillen und denk über eine Therapie nach.“
  • „Sagt die Lügnerin“
  • „Are you stupid?“ (Gepostet als Bild)

Dieses Bundestagsmitglied hat Migrationshintergrund. Sie erhält auch rassistische Antworten wie:

  • „Von wo kommst du?“
  • „Du nix Grammatik?“
  • „Wir schieben dich ab“

Die Abgeordnete sagte zu mir, „so extreme Sachen, extreme Gewaltfantasien“ habe sie bisher nicht erlebt, wie andere Politikerinnen, mit denen ich sprach.

Stellen Sie sich jedoch vor: Jedes Mal, wenn Sie eine App öffnen oder eine Ihrer Äußerungen eine größere Reichweite erzielt, müssen Sie damit rechnen, hasserfüllte Nachrichten zu bekommen. Manche abschätzigen Äußerungen entfalten ihre vollständige Wirkung vor allem indirekt und in der Menge. Nicht die einzelne Wortmeldung ist entscheidend – das größere Problem ist das Stakkato an Beleidigungen, mit dem manche Personen (und manche von mir befragte Abgeordnete) konfrontiert sind, wenn sie sich auf Social Media bewegen.

Einerseits kann es sein, dass Menschen in akuten Fällen von Shitstorms über ein paar Tage hinweg hunderte oder tausende solcher Botschaften abbekommen. Andererseits können sich solche Sticheleien über Wochen und Monate hinziehen.

Entscheidend ist vor allem die Masse

Buchcover "Feindbild Frau" von Ingrid Brodnig
„Feindbild Frau“ von Ingrid Brodnig, 208 Seiten, Brandstätter Verlag, 2026, ISBN 978-3-7106-0942-8. - Alle Rechte vorbehalten Brandstätter Verlag

Ich nenne das die Rhetorik der tausend Nadelstiche. Diese Art des konstanten Beleidigens und Stichelns gegen eine Person ist auf allen digitalen Plattformen möglich – auf X ist sie meines Erachtens besonders stark ausgeprägt.

Der Milliardär Elon Musk hat 2022 die Plattform Twitter gekauft und später zu X umbenannt. Er hat die Regeln gelockert und eine Generalamnestie für gesperrte Accounts ausgesprochen. Selbst extremistische User und Userinnen, die Hassrede verbreiten, durften auf die Plattform zurückkehren. Dass der Umgangston brutaler wurde, ist nicht einfach nur ein Bauchgefühl. Eine Gruppe von Forschenden aus Kalifornien berechnete, dass nach der Übernahme Twitters durch Elon Musk sowohl homophobe, rassistische als auch transfeindliche Posts zunahmen. Das Problem ist, dass sich besonders aggressive Communitys auf einzelne Accounts einschießen oder sehr aktiv werden können, wenn ein Tweet populär wird, der ihnen nicht recht ist.

Ich selbst bin nicht mehr auf X aktiv, weil ich diese Plattform nicht weiter unterstützen will. Mir ist es ab und zu passiert, dass einzelne Tweets größere Reichweite erzielten; ich bekam zuerst den Zuspruch von Gleichdenkenden und dann tagelang stichelnde, teils auch menschenfeindliche Kommentare. Zum Beispiel habe ich das Wahlkampf-Video eines FPÖ-Politikers kritisiert, in dem dieser eine Regenbogenfahne in den Müllkorb warf. Im Bild war der Slogan „Aufräumen für Österreich“ zu lesen. Über Tage hinweg erhielt ich beleidigende Äußerungen über queere Menschen. „Keine Macht den Perversen …“, schrieb ein anonymer Account. Jemand anders postete eine Zeichnung, auf der sich jemand den braunen Hintern nach dem Stuhlgang mit einer Regenbogenfahne abwischt. Viele Rückmeldungen auf X fallen in die Kategorie „jenseitig“: Ein Bild suggeriert zum Beispiel, Satan würde die Regenbogenfahne nähen.

Entscheidend ist hier vor allem die Masse: Wenn Sie auf Ihrem Account täglich mit solchem Unsinn und solchen menschenfeindlichen Reaktionen überschwemmt werden, ist das kein angenehmes Erlebnis. Man sieht irgendwann die konstruktiven Antworten gar nicht mehr, weil sie untergehen in der Vielzahl hämischer und unsachlicher Kommentare.

Das Ziel ist Verdrängung

Zurück zu der SPD-Abgeordneten, die ihr Handy gezückt hatte. Sie erzählt: „Bei mir hatte das zur Folge, dass ich mich bei X zum Beispiel zurückgezogen habe und nur noch ganz, ganz selten etwas poste.“ Ich fragte sie, wie es ihr damit geht, dass sie die Plattform meidet. Ihre Antwort: „Es erschwert meine Arbeit. Ich sage das immer wieder: Diese Debattenräume ermöglichen uns Politikerinnen natürlich auch, Debatten zu führen. Und wenn wir uns daraus zurückziehen, dann erschwert es mir die Arbeit, weil ich diesen Raum nicht mehr nutzen kann, um auch mein politisches Bild oder meine Meinung darin debattieren zu können. Gleichzeitig entziehe ich mich natürlich auch Diskursen von anderen. Das ist natürlich nicht gut, aber ich habe mich in erster Linie aus Selbstschutz dazu entschlossen.“

Beleidigungen sind wirkungsvoll – weil sie uns Menschen signalisieren, welchen Stellenwert wir in der Gesellschaft haben. Natürlich kann man manche Unfreundlichkeiten weglächeln oder rationalisieren. Sich selbst erinnern, dass gehässige Postings keine ernstzunehmenden Debattenbeiträge sind. Doch es gibt eine Grenze, wie gut dieses Weglächeln und Rationalisieren funktioniert. Die Philosophin Sybille Krämer schreibt: „Wir sind in unserer Existenz von Sprache abhängig, weil (…) wir darauf angewiesen sind, angeredet, angesprochen, angerufen zu werden. Zum Menschen werden wir nicht dadurch, dass wir Sprache haben oder gebrauchen, vielmehr ist die Sprache der ‚Stoff‘ aus dem der Mensch als ein soziales Wesen ‚gemacht‘ ist.“

Digitale Gewalt birgt die Gefahr, manche Gruppen ganz besonders aus der öffentlichen Debatte zu verdrängen. Man nennt das einen Chilling-Effekt, wenn das Erleben oder Beobachten von Beleidigungen bewirkt, dass sich jemand aus der öffentlichen Debatte zurückzieht. Und ich könnte jetzt viele Untersuchungen zitieren, die Chilling-Effekte bei Frauen beobachteten. Besonders aufschlussreich erscheint mir eine Auswertung aus Norwegen: Die Soziologin Marjan Nadim und der Politologe Audun Fladmoe beobachteten, „dass Frauen im Vergleich zu Männern eine stärkere Tendenz dazu haben, nach Online-Belästigung vorsichtiger darin zu werden, ihre Meinung öffentlich zu äußern“. Und mit steigender Intensität, also wenn Kommentare nicht nur „unangenehm“, sondern „hasserfüllt“ waren, vergrößerte sich der Abstand zwischen den Geschlechtern. Hatten sie „hasserfüllte“ Kommentare erhalten, gaben 42 Prozent der Frauen an, künftig vorsichtiger beim Formulieren ihrer Meinung zu sein – dies sagten nur 16 Prozent der Männer.

„Es braucht gestandene Frauen und keine ‚Weibchen‘.“

Die CDU-Politikerin und damalige Vizepräsidentin des deutschen Bundestages Yvonne Magwas war immens viel negativen Reaktionen ausgesetzt, nachdem sie den AfD-Politiker Stephan Brandner angezeigt hatte. Er hatte sie „bemerkenswert dumm“ genannt. Auf ein hämisches Posting hierzu folgten zum Beispiel 500 Replys. Magwas wurde „saudumm“ genannt. Der Politikerin wurde „MI Mi MI“ vorgeworfen, also zu große Wehleidigkeit. Rasch fallen auch Geschlechterklischees. Ein anonymer Account schreibt: „Jeder weiß, dass es in der Politik auch mal rauer im Ton zugeht. Statt einer Anzeige sollten Frauen vielleicht mal lernen, damit umzugehen und sich Verbal zu wehren. Es braucht gestandene Frauen und keine ‚Weibchen‘. Wo ist eure Emanzipation, nach der ihr immer schreit!? 🙄“. Ein Detail dazu: Ich finde es grundsätzlich immer bemerkenswert, wenn anonyme Accounts Menschen, die mit ihrem Namen und ihrem Gesicht in der Öffentlichkeit stehen, ausrichten, sie müssten fähig sein, mehr auszuhalten.

Ich könnte hier sehr deutliche sexistische Beleidigungen zitieren, die im Rahmen dieses Austauschs gepostet wurden, die teils unter die Gürtellinie gingen oder pauschal Frauen in der Politik verteufelten. Aber nehmen wir ein Beispiel eines Postings heran, das Frauen auf der Bildebene negativ abstempelt:

Eine Grafik, die Gesichter verschiedener bekannter Frauen zeigt.

Ich zeige diesen Beitrag ausnahmsweise her, um die beleidigende Bildsprache in den Fokus zu rücken: Diese Collage besteht in einigen Fällen aus unvorteilhaften Fotos, die bekannte Politikerinnen zeigen – sie haben etwa den Mund geöffnet während einer Rede, sie grinsen, lachen oder schauen irritiert. Das ist eine sehr simple Methode, jemanden negativ auf der Bildebene vorzuführen. Für sich genommen sind die einzelnen Bilder noch eher unspektakulär, aber speziell in Kombination wecken sie einen negativen Eindruck. Ergänzend dazu vertritt der Text die Sichtweise: Frauen wären schlecht für die Politik (konkret, sie würden diese hässlicher und korrupter machen). Meines Erachtens disqualifiziert sich dieses Posting von selbst durch die Ausdrucksweise – sowohl in Wort als auch im Bild. Allerdings entspricht es einem wiederkehrenden Typ der Beleidigung: Ich nenne es eine Pars-pro-Toto- Beleidigung. Es wird eine oder mehrere Politikerinnen zitiert oder vorgeführt, die jemand nicht mag, um anhand dessen die Gesamtheit der Frauen in der Politik negativ zu bewerten.

In vielen Fällen werden Politikerinnen also nicht als Individuum, sondern als Vertreterin ihres Geschlechts herabgestuft. Ähnliche Abwertungslogiken passieren auch Minderheiten: zum Beispiel einzelnen Menschen mit Migrationshintergrund, deren angebliches Fehlverhalten oder Inkompetenz dann als Beleg für das angebliche Fehlverhalten oder die Inkompetenz der gesamten Gruppe gewertet wird. Die hier zitierte Collage ist nur eines von vielen Beispielen, wie auf der Bildebene Häme ausgeteilt wird.

Nur weiter so, Daumen hoch!

Aber treten wir einen Schritt zurück: Bei der Rhetorik der tausend Nadelstiche gibt es ein tiefergehendes Problem: Sie ist von einer starken Asymmetrie geprägt. Während es für die Betroffenen sehr unangenehm ist, hunderte, vielleicht tausende solcher Sticheleien abzubekommen, ist dieser Vorgang für die Personen, die sich an diesen Sticheleien beteiligen, oft witzig. Da lobt man sich gegenseitig noch dafür. Zum Beispiel schreibt ein User, dass er auch den Eindruck habe, die CDU-Politikerin Magwas wäre dumm. Für diese schlichte Aussage erhält er 159 Likes. In solchen Momenten lernen Menschen potenziell: Nur weiter so, Daumen hoch!

Es ist ein wiederkehrendes Problem, dass abschätzige Wortmeldungen oft mit Likes belohnt werden. In einer Studie, die Facebook-Kommentare in den USA auswertete, beobachteten der Kommunikationswissenschaftler Jin Woo Kim und Kollegen: Mit steigender Toxizität (also steigender Unfreundlichkeit) stieg auch die Anzahl der Likes im Schnitt. Dieser Effekt kippt irgendwann, wenn die Sprache allzu gehässig wird. Aber eine gröbere Art des Ausdrucks scheint sich zu rentieren, wenn man Likes ernten will.

Dass Lerneffekte eintreten können, dafür gibt es Hinweise. Ich orientiere mich hier an Forschung zum Thema Lerneffekte auf Social Media. Konkret hat sich eine Gruppe von Psycholog:innen mit moralischer Empörung befasst – darunter versteht man, wenn Menschen etwas als Verstoß gegen ihre Wertvorstellungen wahrnehmen und mit Wut, Ekel, Abscheu reagieren. Die Untersuchung fand heraus, dass es zu Lerneffekten kommt, wenn Menschen moralisch empört posten. Als moralische Empörung wurden zum Beispiel Postings auf Twitter gewertet, die Sätze enthielten wie „du bist ein wertloses Stück Scheiße“ oder „halt deine Lügenfresse“.

Wenn User:innen eine Wortmeldung mit moralischer Entrüstung verfassten und daraufhin überdurchschnittlich viele Likes und Shares bekamen, dann stieg die Wahrscheinlichkeit, dass sie am Folgetag erneut empört posteten. Die Forschenden nennen das „bestärkendes Lernen“ oder „Reinforcement Learning“. Ein zweiter Lerneffekt kam hinzu: Wer sich neu auf einer Plattform anmeldet, erhält durch das Mitlesen der Postings einen Eindruck vom dort üblichen Umgangston. Hier fiel auf: Wenn sich Menschen in ideologisch extremeren Netzwerken befanden, also vielen Profilen am Rande des politischen Spektrums folgten, posteten sie auch eher selbst moralisch entrüstet. Diesen Effekt nennt man „Norm Learning“, Normenlernen. Diese Effekte „könnten moderatere Nutzerinnen und Nutzer motivieren, mit der Zeit weniger moderat zu sein“, notieren die Studienautorinnen und -autoren. Also die Sorge besteht, dass sich hier auch die Auffassung von Menschen, was sie als angemessene Ausdrucksweise empfinden, mit der Zeit verschieben könnte.

Wir alle können ein Korrektiv sein

Eine wichtige Beobachtung: Wir alle können ein Korrektiv sein. Wir haben natürlich nicht so viel Macht wie beispielsweise Milliardär Elon Musk mit seiner Plattform X. Auch können wir als Einzelne oder Einzelner nicht beeinflussen, dass es Communitys gibt, die in einer Tour solche Kampagnen gegen einzelne Personen oder auch Organisationen führen. Aber sinnvoll ist zu verstehen, dass die Wiederholung wirkmächtig ist, dass jede Wortmeldung einen Beitrag leistet: Denn es bedeutet, dass wir alle eine Möglichkeit des Gegensteuerns haben, indem wir selbst das Wort ergreifen.

Ich sprach mit der Psychologischen Psychotherapeutin Dorothee Scholz, ihre fachliche Spezialisierung liegt auf digitaler Gewalt. Sie sagte etwas, das gut die Wirkmacht der wiederkehrenden Abwertungen erklärt: „Es gibt eine Daumenregel in der Psychologie: In das eigene Gefühl kommt das, was man erlebt – nicht das, was man weiß.“ Das heißt, von Hasskommentaren und Diffamierungsversuchen Betroffene wissen auf einer rein rationalen Ebene, dass die Personen hinter solchen Botschaften eine Minderheit sind. Aber: „Den ganzen Tag nur Hasskommentare zu erleben, macht etwas mit der eigenen Weltwahrnehmung. Die Intensität dieser Erfahrung führt nachvollziehbarerweise zu einem ‚Verrutschen‘ der Sichtweise auf andere Menschen und damit auch zu einem starken Gefühl der Isolation.“

Ein Stück weit hilfreich gegen dieses „Verrutschen“ der Sichtweise kann es sein, Betroffenen immer wieder Wertschätzung zu kommunizieren: indem wir unsere Wertschätzung ausdrücken oder benennen, wie unfair ein Angriff ist. Dazu muss man nicht exakt dieselben Ansichten wie die betroffene Person haben – aber wenn man feststellt, dass sie über Gebühr fertiggemacht wird, ist es sinnvoll, etwas zu sagen.

Diese zivilgesellschaftliche Beharrlichkeit, immer wieder Solidarität mit Betroffenen zu zeigen, ist eine notwendige Antwort auf die Rhetorik der tausend Nadelstiche. Natürlich wird keine Person es schaffen, auf jede Wutkampagne im Internet zu reagieren, aber ab und zu kann man solche Signale senden. Und selbst wenn man nicht auf Social Media ist, ist es möglich, eine E-Mail zu schreiben. Ich persönlich glaube, in manchen Fällen kann dies einen Beitrag leisten, dass eine Situation nicht kippt und der Blick auf die Welt einer Person nicht zu sehr eintrübt.

Betroffene sollen sehen: Es gibt da draußen so viele andere Stimmen – und die meisten Menschen wollen mir Gutes.

Dieser Textauszug ist ein redigierter Auszug aus „Feindbild Frau. Wie Politikerinnen im Netz bedroht, beleidigt und verdrängt werden – und was wir alle dagegen tun können“ von Ingrid Brodnig. Das Buch erscheint am 25. Februar 2026 im Brandstätter Verlag.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Digitale Gewalt: „Hass im Netz führt dazu, dass Frauen eher leise auftreten“

Von: Chris Köver

In ihrem neuen Buch „Feindbild Frau“ zeigt Ingrid Brodnig, wie Politiker*innen auf die systematischen Bedrohungen und Beleidigungen reagieren, die sie im Netz erleben. Im Interview spricht sie über dickes Fell, Durchsetzungslücken und Doppelstandards, die es Frauen schwer machen, sich dagegen zu wehren.

Mensch steht mit gekreuzten Armen vor einer Wand
Es ist leicht, ein dickes Fell einzufordern, wenn man nicht weiß, was Frauen im Netz erleben, sagt Journalistin Ingrid Brodnig. – Alle Rechte vorbehalten Gianmaria GAva

Ingrid Brodnig beobachtet seit Jahren die Debattenkultur im Netz, wenn man diese so bezeichnen kann. Die österreichische Journalistin hat sich spezialisiert auf Bücher und Beiträge zu Falschinformationen und digitaler Gewalt. Während der Corona-Pandemie galt sie als gefragte Expertin, um Verschwörungstheorien rund um die Pandemie einzuordnen. Noch länger beschäftigt sich Brodnig mit dem, was oftmals unter „Hass im Netz“ gefasst wird: Hetzkampagnen, gezielten Bedrohungen und Beleidigungen im digitalen Raum, die oft unterhalb der Schwelle zur Straftat liegen und doch große Wirkung entfalten.

Sechs Sachbücher hat Brodnig bislang veröffentlicht – unter anderem zu den Auswirkungen des Onlineseins auf die Gesellschaft, Falschnachrichten, Anonymität und zur Macht der großen Plattformen. Jetzt folgt ein weiteres. Für die Recherche hat sie mit Abgeordneten und Politikerinnen aus Deutschland und Österreich über ihre Erfahrungen mit Alltagsgewalt im Internet gesprochen, darunter Renate Künast und Anke Domscheit-Berg.

„Eine substanzielle Aufarbeitung erfolgt kaum“

netzpolitik.org: Dass Politikerinnen im Netz besonders häufig bedroht und massiv beleidigt werden, ist kein neues Phänomen. Warum greifen Sie das Thema erneut auf?

Ingrid Brodnig: Wir sehen diese Fälle in den Medien. Da geht es jedes Jahr um eine andere Person: Renate Künast, Ricarda Lang, Heidi Reichinnek. Eine substanzielle Aufarbeitung erfolgt aber kaum.

Wir beschäftigen uns kurz damit und freuen uns, dass Renate Künast einen juristischen Erfolg erzielt. Aber die Geschichte endet ja damit nicht.Ich wollte von den Politikerinnen erfahren: Wie erfahren sie die Anfeindungen? Und welche wiederkehrenden Muster lassen sich darin erkennen?

netzpolitik.org: Was haben Sie erfahren?

Ingrid Brodnig: Ich mache das an einem Beispiel fest. Vor ein paar Jahren gab es eine schreckliche Massenvergewaltigung in einem Bus in Indien, die Frau starb. Zu dieser Zeit schrieb jemand auf Twitter einer Politikerin, er würde ihr gerne eine Busfahrt durch Indien spendieren.

Das ist eine verklausulierte Vergewaltigungsdrohung, die aus juristischer Sicht womöglich nicht als Vergewaltigungsdrohung eingestuft wird. Denn es wird keine Absicht formuliert im Sinne von: „Ich werde dich vergewaltigen.“ Die Frau sagte dazu: Es macht keinen Unterschied, ob das verklausuliert ist oder nicht, der Effekt ist der gleiche. Das reicht bis hin zu körperlichen Folgen, Herzzustände, Schlaflosigkeit, Zittern plötzlich vor einem TV-Auftritt.

netzpolitik.org: Sie wollen, dass die Menschen so mehr über die Folgen der Gewalt erfahren?

Ingrid Brodnig: Es gibt ein großes Bewusstsein dafür, dass Hass im Netz gegen Frauen existiert, aber die Debatte verpufft schnell an dieser Erkenntnis. Wenn man diese digitale Gewalt genauer beschreibt, dann wird viel klarer, was die Betroffenen erleben und was es auslöst.

„Es ist schlimmer geworden in den vergangenen 10 Jahren“

netzpolitik.org: Sie haben bereits vor zehn Jahren ein Buch mit dem Titel “Hass im Netz” geschrieben, das sich auch mit der Gewalt gegen Politikerinnen befasst. Was hat sich seitdem verändert?

Ingrid Brodnig: Es ist schlimmer geworden. Ich habe zur Vorbereitung das alte Buch nochmal zur Hand genommen und gemerkt: Vieles darin würde ich heute nicht einmal mehr zitieren, weil es mir zu harmlos erscheint.

Es gab eine Verrohung und auch Zermürbung in diesen zehn Jahren. Wir haben uns als Gesellschaft an vieles gewöhnt. Was vor zehn Jahren noch für eine aufgeregte Offline-Debatte gesorgt hätte, empfinden wir heute schon als Business as Usual.

Gleichzeitig haben auch die Plattformen wesentliche Rückschritte gemacht. Dort konnte man eine Phase des Einlenkens beobachten, speziell nach der US-Präsidentschaftswahl im Jahr 2016. Damals wurde klar, wie stark Facebook und andere Plattformen für Propaganda genutzt wurden. Auch die EU schaute streng auf die Plattformen.

Dieser Eindruck ist mit der Wiederwahl von Donald Trump komplett gekippt. Meta hat seine Richtlinien in vielen Punkten aufgeweicht. Formen der Beleidigung und Herabwürdigung gegen Frauen oder LGBTIQ-Personen sind jetzt explizit erlaubt. Man darf LGBTIQ-Personen auf Facebook und Instagram jetzt als “psychisch krank oder anormal” bezeichnen.

„Frausein an sich ist eine Gefahr“

netzpolitik.org: Sie schreiben, die Erfahrungen dieser Politiker*innen seien für sie ein Symbol für den Zustand der Demokratie. Was meinen sie damit?

Ingrid Brodnig: Ich habe zehn Typen von wiederkehrenden geschlechtsspezifischen Beleidigungen und Bedrohungen herausgearbeitet. Ein Typus besteht in der Abwertung, die auf einer sexuellen Verwertungslogik basiert. Das wäre so ein Kommentar wie: “Niemand will dich ficken.” Frauen stehen also besonders im Fokus.

Politikerinnen sind Frauen und sie sind sehr sichtbar. Beides ist eine Gefahrensituation im Internet. Mit Sichtbarkeit steigt die Wahrscheinlichkeit, dass Communitys auf mich aufmerksam werden, die für gänzlich andere Werte eintreten oder an mir ein Exempel statuieren wollen.

Und Frausein an sich ist eine Gefahr, weil wir eine sehr starke maskulinistische Szene im Netz haben, deren Mitglieder moderne, selbstbewusste Frauen als zentrales Problem ansehen.

Demokratie baut darauf auf, dass die unterschiedlichsten Bevölkerungsgruppen gleichwertig an der politischen Debatte teilhaben können. Das wurde hart erkämpft. Ich glaube, dass derzeit die Gefahr besteht, dass wir hier auf verschiedenen Ebenen Rückschritte machen.

netzpolitik.org: Ein gängiger Einwand lautet, wer in der Öffentlichkeit steht, müsse eben mehr aushalten, auch wenn es mal unfair zugeht.

Ingrid Brodnig: Renate Künast sagte zu mir, als Politikerin hätten die meisten ein bisschen Hornhaut auf der Seele. Für ihr Team seien die Hasskommentare gegen sie anfangs schwerer auszuhalten gewesen als für sie selbst.

Mir macht das Sorge, wenn Menschen in öffentlichen Debatten in einer Demokratie Hornhaut auf der Seele brauchen, um hier überhaupt mitmachen zu können. Es ist immer leichter, eine solche dicke Haut einzufordern, wenn man nicht weiß, was Menschen erleben. Und bei Frauen ist der Verdacht natürlich besonders groß, dass sie einfach zu feinfühlig seien.

Das fehlt beim Schutz vor digitaler Gewalt

netzpolitik.org: Ziehen Frauen sich tatsächlich schneller zurück nach solchen Erfahrungen?

Ingrid Brodnig: Hass im Netz führt tatsächlich dazu, dass Frauen eher leise auftreten oder gar verstummen. 42 Prozent der Frauen, die hasserfüllte Kommentare erhalten, werden vorsichtiger beim Formulieren ihrer Meinung. Bei Männern sind es 16 Prozent, ergab eine norwegische Studie. Das ist ein demokratisches Alarmsignal!

Aber das bedeutet nicht, das Frauen zu schwach sind. Alle Geschlechter erleben digitale Gewalt. Und in jedem einzelnen Fall ist das falsch.

Bei Frauen gibt es allerdings diese spezielle sexualisierte Komponente. Und die hat zum einen eine besonders einschüchternde Wirkung. Zum anderen bekommen Frauen von klein auf gesagt, sie müssten sich vor Gefahren schützen. Es ist oft Teil ihrer Sozialisation, dass sie lernen, den Raum lieber zu verlassen, als zu riskieren, dass die Situation sich weiter zuspitzt.

„Wir haben eine Zweiklassensituation“

netzpolitik.org: In Deutschland wird seit Jahren über Ansätze debattiert, um die Rechte von Betroffene zu stärken. Das Bundesjustizministerium arbeitet an einem „digitalen Gewaltschutzgesetz“. Betroffene sollen damit leichter auf dem Privatklageweg erfahren, wer hinter einem anonymen Account steckt. Was halten Sie davon?

Ingrid Brodnig: Das erscheint mir sinnvoll. Derzeit sind sehr häufig die Kosten einer Privatklage ein hohes Hindernis. Wir haben eine Zweiklassensituation, wo diejenigen, die es sich leisten können, leichter gegen digitale Gewalt vorgehen können als andere. Alles, was dazu beiträgt, das Kostenhindernis zu verringern, ist gut.

netzpolitik.org: Die Pläne für das Gesetz sehen außerdem vor, dass Accounts künftig nach wiederholten Rechtsverletzungen per Gerichtsbeschluss gesperrt werden. Ist das angemessen?

Ingrid Brodnig: Wir müssen eine Lösung finden für Personen, die fortwährend andere Menschen verletzen oder falsche Informationen verbreiten. Wir müssen dann aber auch die Frage nach der Resozialisierung stellen. Wann wird einem Menschen beispielsweise wieder zugesprochen, dass er oder sie wieder posten darf? Bei vielen dieser Nachschärfungen gilt: Der Teufel liegt im Detail. Es bleibt Feinstarbeit.

„Die EU präsentiert sich gerne als Champions der digitalen Grundrechte“

netzpolitik.org: Auf EU-Ebene soll seit 2024 der Digital Services Act die Rechte von Nutzer*innen auf den großen Plattformen stärken. Meta, TikTok und Co. müssen etwa Meldeverfahren anbieten, die “leicht zugänglich und benutzerfreundlich” sind. Hat das zu einer Verbesserung beigetragen?

Ingrid Brodnig: Ohne den Digital Services Act wären wir derzeit sicher schlechter dran in Zeiten, in denen die großen Tech-Plattformen den Schulterschluss mit der Trump-Regierung üben. Der DSA ermöglicht es, hohe Geldbußen zu verhängen, wenn Unternehmen systemisch Risiken ignorieren oder Meldefunktionen fehlen. Aber diese Regeln müssen auch durchgesetzt werden. Bisher gab es aber nur eine negative Entscheidung aus Sicht der Plattformen, nämlich die 120 Millionen Euro Geldbuße für X.

Die EU-Kommission und die EU als Ganzes präsentieren sich gerne als Champions der digitalen Grundrechte. Und auf dem Papier hat die EU auch gute Regeln geschaffen. Aber erst die nächsten ein, zwei Jahre werden zeigen, ob sie dieses Versprechen auch einlöst. Ob ich genügend geschützt werde, wenn Falsches über mich verbreitet wird, wenn ich fertig gemacht werde, wenn ich eingeschränkt werde.

Kann die EU-Kommission die großen Plattformen kontrollieren? Kann sie potenziell rechtswidrige Kommentare auch ernsthaft und rasch prüfen? Und kann sie genügend gegen systemische Risiken unternehmen? An all diesen Fragen wird sich zeigen, wie mutig und selbstbewusst die EU auftritt – auch und gerade gegen die Konzerne in den USA.

„Jede einzelne Anzeige, die leichter erfolgt, ist schon ein Fortschritt“

netzpolitik.org: Was könnte die Bundesregierung konkret tun, um die von Ihnen beschriebene Gewalt einzudämmen?

Ingrid Brodnig: Ich sehe einige konkrete Stellschrauben. Deutschland kann als Staat einige Rechtslücken schließen oder bürokratische Hürden nehmen. Zum Beispiel die Kostenreduktion. Oder auch bildbasierte digitale Gewalt stärker ahnden, zum Beispiel sexualisierte Deepfakes. Das löst das Problem nicht als Ganzes. Aber jede einzelne Anzeige, die leichter erfolgt, ist schon ein Fortschritt. Und die Regierung muss auf europäischer Ebene den Druck erhöhen, damit die eigentlich sinnvollen Regeln auch umgesetzt werden.

netzpolitik.org: Was können Einzelpersonen in dieser Situation beitragen?

Ingrid Brodnig: In der Tat, es gibt eine dritte Ebene: die Persönliche. Ich habe auch mit der Psychotherapeutin und Psychologin Dorothee Scholz gesprochen, die mit Betroffenen digitaler Gewalt zusammenarbeitet. Aus ihrer Sicht kann es die Weltwahrnehmung sehr verändern, wenn Menschen den ganzen Tag nur Hasskommentare lesen.

Das heißt aber auch: Ich kann den Betroffenen solcher Vorfälle schreiben – öffentlich oder privat – und ihnen sagen: Das hast du nicht verdient, lass dich nicht unterkriegen oder du leistest wichtige Arbeit. Auch das hilft.

Feindbild Frau. Wie Politikerinnen im Netz bedroht, beleidigt und verdrängt werden – und was wir alle dagegen tun können“ von Ingrid Brodnig erscheint am 25. Februar 2026 im Brandstätter Verlag. Die Autorin hält am 23.2. und am 16.3. Lesungen in Wien sowie am 26.2. eine Lesung in Berlin.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

KI und Datenschutz: Wo der Digitale Omnibus der EU gerade hinrollt

Von: Anna Ströbele Romero · Ingo Dachwitz

Unter Hochdruck will die EU Teile ihrer Digitalregulierung überarbeiten. Während der AI Act auf den letzten Metern noch um ein Verbot sexualisierter Deepfakes ergänzt werden könnte, treten beim Datenomnibus zwei wichtige EU-Institutionen auf die Bremse. Die neuesten Entwicklungen im Überblick.

Bild eines weißen Busses, durch den verschwommenen Hintergrund sieht es so aus, als würde er schnell fahren
Zumindest teilweise ist der „Digital Omnibus“ der EU mit hoher Geschwindigkeit unterwegs – Gemeinfrei-ähnlich freigegeben durch unsplash.com Gen Pol

Am 19. November 2025 präsentierte die Europäische Kommission den sogenannten „Digitalen Omnibus“: Mit zwei Gesetzen will die EU ihre Digitalregulierung überarbeiten und auf einen Schlag zahlreiche bestehende Gesetze ändern. Die Kommission will mit dem Paket Regeln vereinfachen, Bürokratie abbauen und so die Wettbewerbsfähigkeit Europas steigern.

Das erste dieser Gesetze, das die Datenschutzgrundverordnung (DSGVO), mehrere Datennutzungsgesetze und die Meldung von Cyber-Vorfällen betrifft, wird „Datenomnibus“ genannt. Das zweite Gesetz, welches die KI-Verordnung ändert, heißt „KI-Omnibus“. Für beide Vorhaben hat die Kommission ein hohes Tempo vorgegeben, die Änderungen sollen so schnell wie möglich beschlossen werden. Während dies beim KI-Omnibus, der unter anderem Teile der europäischen KI-Verordnung aufschieben soll, realistisch erscheint, dürften sich die Verhandlungen um den Datenomnibus deutlich länger hinziehen.

Sollen sexualisierte Deepfakes verboten werden?

Für den KI-Omnibus sind im Parlament zwei Ausschüsse verantwortlich: der Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) und der Ausschuss für bürgerliche Freiheiten, Justiz und Inneres (LIBE). Daher gibt es in diesem Fall auch zwei federführende Abgeordnete, die sogenannten Berichterstatter:innen: Michael McNamara ist Teil der Fraktion der Liberalen, Arba Kokalari gehört der konservativen EVP an, zu der auch CDU/CSU gehören.

Sie haben am 4. Februar gemeinsam ihren ersten Berichtsentwurf vorgelegt. Dieser beschreibt, wie sie die KI-Verordnung im Vergleich zum Vorschlag der EU-Kommission verändern wollen. Die verantwortlichen Abgeordneten anderer Fraktionen, die sogenannten Schattenberichterstatter:innen, haben bis zum 12. Februar ihre Änderungswünsche vorgelegt. Diese sind noch nicht öffentlich.

Bekannt ist jetzt schon, dass derzeit diskutiert wird, ob die Erstellung von sexualisierten Deepfakes im Rahmen des Omnibusses verboten werden soll – und unter welchen Umständen. Nach dem Skandal um Elon Musks Chatbot Grok, mit dem Nutzer:innen unfreiwillige Nacktbilder von Frauen und Minderjährigen erstellt haben, gibt es dafür gerade viel politischen Willen, sowohl im Parlament als auch unter den Mitgliedstaaten. Wie ein solches Verbot ausgestaltet werden könnte, ist jedoch umstritten.

Bei den Verhandlungen wird auch diskutiert, wer die Verantwortung für KI-Schulungen haben soll – die Anbieter der KI-Systeme oder die Regierungen. Außerdem soll entschieden werden, ob die verschobenen Fristen für Hochrisiko-Systeme fest oder flexibel sein werden. Dass sie überhaupt verschoben werden, scheint unter den Verhandelnden niemand mehr anzufechten. Ein weiteres Thema ist die Zentralisierung der Aufsicht im KI-Büro der EU-Kommission und das KI-Training mit sensiblen Daten, um Verzerrungen zu vermeiden. Ebenfalls besprochen werden mögliche Ausnahmen im Transparenzregister für KI-Systeme.

KI-Omnibus könnte bald schon am Ziel sein

Bereits nächste Woche startet im Parlament die Verhandlung, deren Ziel ein finaler Bericht ist. Es ist vorgesehen, dass die beiden Ausschüsse am 18. März darüber abstimmen. Damit würde dann die Parlamentsposition stehen und wäre bereit für den sogenannten Trilog mit der EU-Kommission und den Mitgliedstaaten.

Letztere erarbeiten im Moment ebenfalls ihre Position im Rat der Europäischen Union. Derzeit finden die Gespräche auf Ebene der Arbeitsgruppe „Vereinfachung“ statt. Es gibt bereits zwei Entwürfe. Wenn der Text final ist, wird er an die Diplomat:innen im „Ausschuss der Ständigen Vertreter“ gegeben. Auf der höchsten Ebene ist der Rat für Allgemeine Angelegenheiten für den KI-Omnibus verantwortlich.

Das Steuer hat dabei die derzeitige Ratspräsidentschaft Zypern in der Hand. Sie hat bereits angekündigt, den KI-Omnibus mit Priorität zu behandeln. Und das nicht ohne Grund: Schließlich sollen im Omnibus die Fristen für Hochrisiko-KI-Systeme angepasst werden, die eigentlich ab dem 2. August 2026 gelten würden. Der Omnibus muss daher spätestens bis zu diesem Datum in Kraft treten.

Insgesamt scheinen sich Rat und Parlament beim KI-Omnibus bisher relativ einig zu sein. Sie tendieren in vielen Punkten dazu, zum ursprünglichen Text der KI-Verordnung zurückzugehen. Unterschiede gibt es selbstverständlich in den Details.

Institutionen warnen vor Datenomnibus

Unübersichtlicher und umstrittener ist die Lage beim Datenomnibus. Während die Zusammenlegung von Datennutzungsgesetzen oder die Vereinfachung der Meldewege bei IT-Sicherheitsvorfällen für relativ wenig Aufregung gesorgt haben, ist um die Datenschutzaspekte des Vorhabens eine heftige Debatte entbrannt.

De EU-Kommission behauptet weiter steif und fest, lediglich technische Änderungen vorgeschlagen zu haben, die das Datenschutzniveau in der EU nicht verändern würden. Inzwischen mehren sich jedoch die Stimmen, die sagen: Vorschläge wie eine erleichterte Nutzbarkeit von Daten für KI, Einschränkungen von Betroffenenrechten oder eine Änderung der Definition personenbezogener Daten würde an Grundpfeilern des Datenschutzes rütteln.

In diesen Chor hat sich vergangene Woche auch der Europäische Datenschutzausschuss (EDSA) eingereiht, in dem die nationalen Datenschutzbehörden der EU zusammenarbeiten. „Einige vorgeschlagene Änderungen geben Anlass zu erheblichen Bedenken, da sie das Schutzniveau für Einzelpersonen beeinträchtigen, Rechtsunsicherheit schaffen und die Anwendung des Datenschutzrechts erschweren können“, heißt es in einer gemeinsamen Erklärung des EDSA mit dem Europäischen Datenschutzbeauftragten Wojciech Wiewiórowski.

Ehemalige Meta-Lobbyistin verhandelt über Datenschutz

Zwar begrüße man einige Vorschläge, die zu tatsächlichen Vereinfachungen führen. Darunter falle etwa eine Anhebung des Risikoschwellenwerts, ab dem eine Datenschutzverletzung der zuständigen Datenschutzbehörde gemeldet werden muss, oder die Verlängerung der Frist für die Meldung von Datenpannen. Auch Vorschläge zu Vereinfachungen bei Cookie-Bannern begrüßen die Datenschützer:innen.

Deutlich länger ist jedoch die Liste der gravierenden Mängel, die die Datenschützer:innen ausmachen. Allen voran kritisieren die Behörden die vorgeschlagene Neudefinition personenbezogener Daten, die pseudonymisierte Daten unter Umständen von der DSGVO ausnehmen würde. Dazu heißt es von der Vorsitzenden des Europäischen Datenschutzausschusses, Anu Talus: „Wir fordern die beiden gesetzgebenden Organe jedoch nachdrücklich auf, die vorgeschlagenen Änderungen der Definition personenbezogener Daten nicht anzunehmen, da sie den Schutz personenbezogener Daten erheblich schwächen könnten.“

Was die beiden angesprochenen Organe, das Europäische Parlament und der Rat der Mitgliedstaaten, mit dem Input der Datenschutz-Expert:innen anfangen werden, ist derzeit noch ziemlich offen. Der Datenomnibus wird zwar in den legislativen Prioritäten für 2026 genannt, auf welche sich die drei EU-Institutionen Ende des Jahres einigten. Das bedeutet: Das Vorhaben soll eigentlich noch in diesem Jahr abgeschlossen werden. Eine Positionierung des Rates ist nach Auskunft von Beobachter:innen in den nächsten Monaten allerdings nicht zu erwarten.

Im Parlament stellt man sich ebenfalls auf langwierige und zähe Verhandlungen ein. Hier teilen sich auch beim Datenomnibus zwei Ausschüsse die Federführung. Während im LIBE-Ausschuss für Bürgerliche Freiheiten die Sozialdemokratin Marina Kaljurand Berichterstatterin für das Thema ist, hat im Industrieausschuss (ITRE) Aura Salla das Ruder übernommen. Die finnische Politikerin von der konservativen Europäischen Volkspartei war von 2020 bis 2023 Chef-Lobbyistin des US-Tech-Konzerns Meta in Brüssel. Mit Blick auf den Datenomnibus sagte sie im Januar auf einer Veranstaltung: „Wir müssen deregulieren, nicht nur vereinfachen.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Kinderähnliche Sexpuppen und süchtig machendes Design: EU eröffnet Verfahren gegen Shein

Von: Laura Jaruszewski

Nach Temu ermittelt die EU-Kommission nun auch gegen einen zweiten Online-Händler aus China. Die Fast-Fashion-Plattform Shein unternimmt vermutlich zu wenig gegen die Risiken, denen sie ihre Nutzer*innen aussetzt. Zur Debatte stehen gleich mehrere Verstöße gegen den Digital Services Act.

Die App Shein wird im App Store angezeigt.
Der Online-Händler Shein hat nicht nur Kleidung, sondern auch illegale Waren verkauft. – Alle Rechte vorbehalten IMAGO / imagebroker

Mit dem Digital Services Act (DSA) verpflichtet die EU sehr große Online-Plattformen, Risiken ihrer Angebote zu identifizieren und zu beheben. Weil der chinesische Fast-Fashion-Händler Shein diesen Vorgaben möglicherweise nicht ausreichend nachgekommen ist, hat die EU-Kommission nun ein Verfahren gegen das Unternehmen eröffnet. Das teilte sie am heutigen zweijährigen Geburtstag der EU-Verordnung über digitale Dienste mit.

Die Shopping-Plattform soll monatlich etwa 126 Millionen aktive Nutzer*innen in der EU haben. Seit Juni 2024 hatte die Kommission mehrfach Informationen von Shein angefragt. Die Entscheidung, eine Untersuchung einzuleiten, basiert auf diesen Auskunftsersuchen, auf einer vorläufigen Analyse der von Shein vorgelegten Risikobewertungsberichte und auf Einschätzungen dritter Parteien.

In Frankreich hatte sich im letzten Jahr bereits Widerstand gegen den Online-Händler geregt, jedoch war die französische Regierung mit dem Versuch gescheitert, die Plattform für drei Monate zu sperren.

„Illegale Produkte sind verboten“

Die Kommission attestiert dem Konzern Handlungsbedarf in drei Bereichen. An erster Stelle steht der Verkauf illegaler Waren, wegen dem der Fast-Fashion-Händler in der Vergangenheit bereits in Kritik stand. Zum Beispiel konnten genehmigungspflichtigen Waffen oder kinderähnliche Sexpuppen auf dem Marktplatz erworben werden.

Bei der Untersuchung geht es jedoch nicht darum, dass die EU gezielt den Verkauf einzelner Produktgruppen kontrollieren will. Vielmehr will sie dafür sorgen, dass die Plattform selbst ihre Systeme so gestaltet, dass Risiken minimiert werden. Konkret muss Shein also dafür sorgen, dass auf dem Marktplatz keine illegalen Waren gehandelt werden können.

„In der EU sind illegale Produkte verboten – egal, ob sie im Ladenregal oder auf einem Online-Marktplatz angeboten werden“, so EU-Kommissionsvizepräsidentin Henna Virkkunen zu dem Verfahren. „Der Digital Services Act schützt die Sicherheit und das Wohlergehen von Käufern und versorgt sie mit Informationen über die Algorithmen, mit denen sie interagieren.“

Ein zweiter Kritikpunkt betrifft mutmaßlich süchtig machendes Design des Online-Händlers. Er vergibt unter anderem Verbraucherpunkte oder Belohnungen für Engagement auf der Plattform. Das könne Suchtpotenzial entwickeln, welches sich negativ auf das Wohlbefinden der Nutzer*innen und den Verbraucherschutz im Internet auswirkt.

Außerdem kritisiert die Kommission mangelnde Transparenz des algorithmischen Empfehlungssystems von Shein. Dieses muss nach dem DSA zudem so gestaltet sein, dass sich Nutzer*innen optional für ein nicht-personalisiertes Empfehlungssystem entscheiden können.

EU ermittelt auch gegen Temu

Shein ist die zweite sehr große Plattform im Bereich Online-Handel, gegen die eine Untersuchung wegen süchtig machender Designpraktiken besteht. Bereits im Jahr 2024 hatte die EU-Kommission aus den gleichen Gründen ein Verfahren gegen Temu eröffnet.

Sollte die Kommission im Zuge der formalen Untersuchung zu einer Nichteinhaltungsentscheidung kommen, also einen tatsächlichen Verstoß gegen den DSA feststellen, kann sie zum Beispiel Bußgelder gegen das Unternehmen verhängen. Bis dahin ist es der Online-Plattform aber möglich, auf Forderungen zu reagieren und Anpassungen vorzunehmen. Wann es zu einer Entscheidung in dem Verfahren kommt, bleibt jedoch offen, denn der DSA schreibt hierfür keine Frist vor.

Der Online-Händler zeigt sich nach Angaben von Zeit.de bisher kooperationswillig: „Wir teilen das Ziel der Kommission, eine sichere und vertrauenswürdige Online-Umgebung zu gewährleisten, und werden uns weiterhin konstruktiv an diesem Verfahren beteiligen.“ Bei altersbeschränkten Produkten habe man bereits weitere Sicherheitsvorkehrungen ergriffen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Geschichten aus dem DSC-Beirat: Leicht lädiert am zweiten Geburtstag

Von: Svea Windwehr

Seit zwei Jahren gelten neue Regeln für Plattformen in der EU. Die haben schon kleine Fortschritte bewirkt und machen Hoffnung. Aber um sie wirksam durchzusetzen, ist noch viel zu tun.

Ein bunter Kuchen auf dem eine Kerze in Form der Ziffer "2" steht.
2 Jahre Digital Services Act, Grund zum Gratulieren? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Kelly Sikkema

Der DSC-Beirat ist ein Gremium aus Zivilgesellschaft, Forschung und Wirtschaft. Er soll in Deutschland die Durchsetzung des Digital Services Act begleiten und den zuständigen Digital Services Coordinator unterstützen. Svea Windwehr ist Mitglied des Beirats und berichtet in dieser Kolumne regelmäßig aus den Sitzungen.

Seit dem 17. Februar 2024, also seit genau zwei Jahren, gilt in der EU der Digital Services Act. Das Regelwerk soll Nutzende schützen und mehr Transparenz und Fairness gegenüber Online-Plattformen und -Diensten schaffen. Gibt es etwas zu feiern?

Die Bilanz ist gemischt: Ein erstes Verfahren gegen X wurde zum Abschluss gebracht, viele andere Ermittlungen laufen noch. Die Rahmenbedingungen für Forschungsdatenzugang stehen endlich, in der Praxis gibt es aber noch massive Probleme. Zivilgesellschaft und Forschende haben unzählige Verfahren angestoßen und liefern wichtige Evidenz zu DSA-Verstößen, sind jedoch Repression und Delegitimierung ausgesetzt.

Pünktlich zum Geburtstag hat sich der neu berufene DSC-Beirat in neuer, kleinerer Konstellation zu seiner ersten gemeinsamen Sitzung getroffen und sich mit dem Stand der DSA-Durchsetzung beschäftigt. Der Beirat ist im Vergleich zu seiner letzten Besetzung geschrumpft, da die vier Vorschläge der AfD im Plenum des Deutschen Bundestages keine Mehrheit fanden. Deshalb und wegen der christ-demokratischen Definition von Zivilgesellschaft ist insbesondere von deren gesetzlich angedachter Stärke im Beirat des DSC nicht viel übrig geblieben.

Fortschritt in kleinen Schritten

Bei der Durchsetzung des DSA geht es nach wie vor oft schleppend voran. Der Koordinator für Digitale Dienste in Deutschland prüft noch, ob weitere außergerichtliche Streitbeilegungsstellen und Trusted Flagger zugelassen werden sollen. Während die Streitbeilegungsstellen etwa bei strittigen Moderationsentscheidungen zwischen Nutzer:innen und Plattformen vermitteln sollen, agieren die Trusted Flagger als vertrauenswürdige Hinweisgeber, deren Meldungen die Plattformen priorisiert bearbeiten sollen. Aktuell gibt es in Deutschland vier Organisationen, die als Trusted Flagger anerkannt sind, sowie zwei Streitbeilegungsstellen.

Von inzwischen insgesamt 30 durch den DSC eingeleiteten Verwaltungsverfahren gegen in Deutschland ansässige Plattformen wegen DSA-Verstößen scheint noch keines zum Abschluss gekommen zu sein. Und auch auf europäischer Ebene wurde seit der Verhängung eines Bußgelds gegen X im Dezember 2025 kein weiteres Verfahren zu Ende gebracht.

Immerhin kleine Fortschritte gibt es beim Datenzugang für Forschende. Nachdem detaillierte Hinweise, wie genau der Datenzugang ausgestaltet werden soll, Ende Oktober 2025 endlich in Kraft getreten sind, können Forschende Anträge auf Datenzugang bei ihren nationalen Aufsichtsbehörden stellen. Über dieses durch den DSA neu geschaffene Recht können sie zum ersten Mal qualitative und quantitative Daten von Plattformen anfragen, um systemische Risiken zu erforschen. Damit schafft der DSA längst überfällige Rahmenbedingungen, die unabhängige Forschung und ein besseres Verständnis von Online-Plattformen ermöglichen sollen – und potenziell wichtige Grundlagen für Durchsetzungsverfahren schaffen können.

Beim deutschen DSC sind seitdem immerhin neun Anträge auf Datenzugang eingegangen. Das klingt vielversprechend, allerdings wurden die meisten der neun Anträge wieder zurückgezogen, da die benötigten Daten auch über den niedrigschwelligeren Datenzugang über Schnittstellen der Plattformen angefragt werden konnten. Diese Möglichkeit, Daten über APIs anzufragen, funktioniert in der Praxis je nach Plattform durchwachsen bis schlecht – mangelnder Zugang zu Forschungsdaten ist einer der DSA-Verstöße, die zum Bußgeld gegen X beigetragen haben. Die Gesellschaft für Freiheitsrechte und Democracy Reporting International haben X kürzlich zum zweiten Mal deswegen verklagt.

Es ist also noch zu früh, um sich über große Durchbrüche beim Datenzugang zu freuen, aber immerhin können Forschende jetzt das System ausprobieren, Anträge stellen und auf Durchsetzung pochen, wenn die Plattformen sich weigern.

Ebenfalls hoffnungsvoll stimmen die kürzlich veröffentlichten vorläufigen Ergebnisse zu einem Verfahren gegen TikTok. Dort kommt die Europäische Kommission zu dem Schluss, dass die Videoplattform nicht genug getan hat, um Risiken von suchtfördernden Mechanismen insbesondere für Minderjährige zu mindern, beispielsweise endlose Feeds und hoch-personalisierte Empfehlungen. Das ist spannend, weil die Kommission davon ausgeht, dass TikTok das „grundlegende Design“ der Plattform ändern muss, um diesen Risiken beizukommen.

Sollte die Kommission bei dieser Einschätzung bleiben und nach Abschluss des Verfahrens Bußgelder gegen TikTok verhängen, hätte der Fall Auswirkungen weit über TikTok hinaus: Endlose Feeds und hoch-personalisierte Empfehlungen sind Kernelemente aller großen sozialen Netzwerke und Videosharingplattformen. Hier zeigt der DSA sein Potenzial, einerseits strukturelle Änderungen zu erstreiten, die das Businessmodell der Plattformen direkt betreffen. Das könnte zu anderen und besseren digitalen Räumen führen .

Andererseits zeigt die Argumentation, dass der DSA sinnvolle Werkzeuge bietet, um den Features und Plattform-Praktiken zu begegnen, die in der Debatte um Verbote von sozialen Medien für Kinder und Jugendliche im Fokus stehen: süchtigmachendes Design, Personalisierung basierend auf Unmengen persönlicher Daten, Produktdesign, das die Rechte und Interessen von Kindern wahrt.

Ein solches Verbot wurde Anfang Februar von Spaniens Premierminister Pedro Sanchez angekündigt, wofür er prompt von Elon Musk als Tyrann und Verräter Spaniens betitelt wurde. Daraufhin solidarisierte sich die Europäische Kommission mit Sanchez, während sie gleichzeitig festhielt, dass nur die Europäische Kommission durch den DSA weitere Verpflichtungen gegenüber sehr großen Online-Plattformen aussprechen darf. Angesichts des Eifers von Mitgliedstaaten wie Spanien, Italien, Griechenland, Frankreich und den Niederlanden bleibt abzuwarten, ob sich EU-Regierungen diesem Machtwort aus Brüssel beugen werden. Ob es also europäische Verboten von sozialen Medien geben wird, ist nach wie vor unklar.

Keine Durchsetzung ohne Repression

Solidarisch hatte sich die Europäische Kommission Ende Dezember auch gegenüber Mitgliedern eines angeblichen „globalen Zensur-industriellen Komplexes“ gezeigt, nachdem sie vom US-Außenministerium mit Visa-Sanktionen belegt worden waren, unter ihnen die beiden Geschäftsführerinnen von HateAid. HateAid ist eine der Organisationen, die als Trusted Flagger in Deutschland zugelassen sind.

Mit diesen Sanktionen markiert die Trump-Regierung Menschen als politische Feinde, die Online-Plattformen für Verstöße gegen geltendes Recht zur Verantwortung ziehen, bestraft sie und versucht, sie an ihrer Arbeit zu hindern.

Seit den Sanktionen gegen Zivilgesellschaft und Forschende vom Dezember hat ein neuer Bericht des Rechtsausschusses des US-Abgeordnetenhauses die Situation weiter verschärft. Die Beschäftigung des Ausschusses mit dem DSA ist getrieben von Jim Jordan, einem republikanischen Abgeordneten, der seit Jahren damit beschäftigt ist, die angebliche Zensur von US-Amerikaner:innen durch den DSA zu beweisen.

Auf 160 Seiten breitet der Bericht Jordans wirre Fantasie aus, dass die Europäische Kommission, unterstützt von der europäischen Zivilgesellschaft, nur ein Ziel mit dem DSA verfolge: die Unterdrückung konservativer, US-amerikanischer Stimmen. Dabei stützt sich der Bericht auf massenweise E-Mails, Screenshots und Dokumente, die Jordan durch Herausgabeverlangen von US-Plattformen bekam – wogegen sich Plattformen offensichtlich nicht oder kaum gewehrt haben.

Der Jordan-Bericht stellt jedoch nicht nur eine Reihe von Falschbehauptungen auf, sondern identifiziert und markiert auch eine ganze Reihe von Kommissionsmitarbeitenden und Vertreter:innen der Zivilgesellschaft, die an Workshops der Kommission zur DSA-Durchsetzung teilnahmen oder anderweitig an der Durchsetzung des DSA beteiligt sind. Ein gefundenes Fressen für jene Kräfte, die genau diese Arbeit verhindern wollen.

Die Repressionen gegen HateAid und Co. werden also wahrscheinlich nicht die letzten gegen Menschen und Organisationen gewesen sein, die sich um die Durchsetzung des DSA bemühen. Auf Seite der Behörden scheint man auch nach dem Shitstorm um Trusted Flagger und der Demontage des Stanford Internet Institute auf Druck rechtskonservativer Politiker kaum auf solche Szenarien vorbereitet sein – um nur zwei Beispiele zu nennen, in denen rhetorische Delegitimierungen durch rechte Akteure zu Einschüchterung, Gefahren für Einzelpersonen und dem Verlust von institutionellen Strukturen geführt haben.

Aufsichtsbehörden, Politik und die Kommission sind jetzt gefragt, nicht nur ihre Solidarität auszudrücken, sondern konkrete Maßnahmen zum Schutz von Zivilgesellschaft und Forschung zu ergreifen. Dabei darf aber nicht nur in die USA geschaut werden: Auch in Deutschland und anderen Mitgliedstaaten setzen konservative und rechte Kräfte die Zivilgesellschaft immer stärker unter Druck. Vom Anti-NGO-Kurs der Union über die Gemeinnützigkeitsdebatte und Kontoschließungen linker Organisationen bis zu physischen Angriffen gegen Aktivist:innen – wenn es der Politik ernst damit ist, zivilgesellschaftliche Arbeit zu schützen, darf sie nicht zwischen politisch genehmen und unbequemen Organisationen unterscheiden.

Ein ganzheitlicher Ansatz muss her: nachhaltige und großzügige Finanzierung, rechtliche Absicherung und vor allem eine Regierungspartei, die versteht, dass die Delegitimierung von NGOs letztlich nur einer Seite hilft – den Feinden demokratischer und offener Gesellschaften.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Digitalisierungsstrategie: Wie „Künstliche Intelligenz“ unser Gesundheitswesen verändern soll – und welche Fragen das aufwirft

Von: Gastbeitrag · Manuel Hofmann

Das Bundesgesundheitsministerium hat in der vergangenen Woche ein Update zur Digitalisierungsstrategie des Gesundheitswesens vorgelegt. Die sogenannte Künstliche Intelligenz spielt darin eine zentrale Rolle. Umso wichtiger ist es, dass wir jetzt die richtigen Fragen stellen.

Eine Ärztin weist auf eine Röntgenaufnahme, die einen Schädel zeigt. Ein älterer Mensch hört ihr zu,
Hört ihr bereits eine „KI“ zu? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Vitaly Gariev

Die Versprechungen, die mit „Künstlicher Intelligenz“ („KI“) und mit Digitalisierung einhergehen, sind gewaltig. Das ist auch im „Update der Digitalisierungsstrategie für das Gesundheitswesen und die Pflege“ nicht anders, die Bundesgesundheitsministerin Nina Warken (CDU) am 11. Februar vorstellte. Ein „gesünderes und längeres Leben für alle“ soll die Digitalisierung ermöglichen, sie soll die medizinische Versorgung und Pflege „besser und effizienter“ machen, heißt es darin zum Beispiel.

Die Strategie hatte der damalige Minister Karl Lauterbach ursprünglich im Jahr 2023 vorgelegt. Der Aufbau des Europäischen Gesundheitsdatenraums (EHDS), neue Erwartungen im Bereich der „Künstlichen Intelligenz“ sowie der Plan eines neuen Systems für die Erstversorgung machten das nun vorgelegte Update notwendig.

Die wichtigsten Elemente: Die ePA soll zur zentralen Anwendung für Gesundheitsthemen ausgebaut werden, Digitalisierung der Schlüssel zu einem erfolgreichen Primärärzt*innensystem sein und „KI“ soll „sicher, flächendeckend und wirksam“ eingesetzt werden.

Digitalisierung und „KI“ werden das Gesundheitswesen fraglos verändern. Doch es ist wichtig, jetzt die richtigen Fragen zu stellen.

Wie weit hilft „KI“ dem Gesundheitswesen?

Während Digitalisierung und „KI“ durchaus das Potenzial haben, Prozesse im Gesundheitswesen zu vereinfachen und die Versorgung zu verbessern, kommt es auf eine gewissenhafte Abwägung bei der Umsetzung an.

Dabei dürfen wir vor allem nicht vernachlässigen, wie weitreichend die Auswirkungen auf Menschen in Gesundheitsberufen, auf Patient*innen und auf das Verhältnis zwischen ihnen sein können. Dazu braucht es mehr strategische Auseinandersetzung und Debatten.

Den großen Hoffnungen, mit denen der Einsatz von „KI“ derzeit verbunden ist, müssen wir realistisch begegnen. Weder wird „KI“ alle strukturellen Probleme im Gesundheitswesen wie Personalmangel oder Kostenexplosion lösen können. Noch sind die großen Versprechungen medizinischer Spitzenleistungen und Effizienzgewinne bisher eingetreten – oder auch nur auf absehbare Zeit erwartbar.

Die technische Architektur der KI-Systeme gründet auf massenhaften Daten plus Stochastik, also der mathematischen „Kunst des Vermutens“. Das begrenzt diese Systeme dauerhaft. Es gibt keine Garantie dafür, dass Aussagen der „KI“ wahr und richtig sind.

Anders als bei einem Algorithmus, der nach festen Regeln funktioniert und bei gleichen Bedingungen wiederholbare Ergebnisse liefert, ist diese Wiederholbarkeit bei „KI“ gerade nicht gewährleistet. Auch ist es nicht nachvollziehbar, was genau den jeweiligen Antworten zugrunde liegt.

Welche Zwecke soll und kann Dokumentation erfüllen?

„KI“-gestützte Dokumentation soll in wenigen Jahren bei mehr als 70 Prozent der Einrichtungen der Standard sein, heißt es in der Strategie.

Sicherlich: Dokumentation ist oft lästig, aber sie kann auch dabei helfen, ein gemeinsames Verständnis zwischen Patient*in und Ärzt*in herzustellen, Angaben zu überprüfen oder eine wichtige abschließende Reflexion über einen Fall darstellen.

Was bewirkt Automatisierung mit „KI“?

Doch selbst wenn eine Entlastung durch Automatisierung in diesem Fall naheliegt: Schafft sie am Ende tatsächlich mehr qualitativ hochwertige Zeit für die Behandlung von Patient*innen? Oder wird sie am Ende die Arbeit von Menschen in Gesundheitsberufen noch weiter verdichten?

Das ist gerade angesichts des demografischen Wandels erwartbar. Er wird in den nächsten Jahren dazu führen, dass viele ältere Patient*innen größere Behandlungsbedarfe in die Praxen und Krankenhäuser bringen, während zugleich viele Menschen in Gesundheitsberufen in Rente gehen. Weniger Ärzt*innen müssen also künftig mehr Patient*innen behandeln – wenn nicht gegengesteuert wird.

Dabei entscheidet eine gute Beziehung zwischen Ärzt*innen und Patient*innen über den Heilungsverlauf mit, auch bei körperlichen Erkrankungen. Doch dafür braucht es vor allem eines: Zeit.

So umfassend will Warken die Gesundheitsdaten aller Versicherten verknüpfen

Wie wichtig ist uns digitale Souveränität?

Bei der Automatisierung der Dokumentation strebt die Ministerin ein hohes Tempo an. Mit Blick auf die bisher auf dem Markt dominierenden Anbieter könnte das dazu führen, dass schon bald OpenAI, Google Gemini und Co. regelmäßig ebenfalls im Sprechzimmer anwesend sind. Die Abhängigkeit von den US-amerikanischen Tech-Konzernen wächst bei verstärktem Einsatz dieser Dienste also weiter an.

Große Anbieter von Praxisverwaltungssystemen werben bereits mit „KI“-Tools zur Dokumentation und Automatisierung. Schaut man genauer in deren Datenschutzbestimmungen, bestätigt sich diese Vermutung.

Doctolib setzt Anthropic und Google Gemini als „KI“ ein und hostet bei Amazon Web Services. Konkurrent Jameda begrüßt die neue Strategie als „wichtiges Signal für die Branche“ und verweist auf das eigene Dokumentationstool Noa Notes, das ebenfalls auf Amazon Web Services sowie Microsoft Azure setzt und auch OpenAI in seiner Datenschutzerklärung stehen hat.

VIA Health verspricht als „erster virtueller Assistent speziell für die Psychotherapie“ besten Datenschutz. Gleichzeitig weist das Unternehmen in seiner Datenschutzerklärung darauf hin, zur „Transkribierung der Audiospur sowie […] Erstellung der Sitzungsprotokolle“ verschiedene Drittanbieter von „Large Language Models (LLMs)“ einzusetzen.

Das alles spiegelt die gegenwärtige Realität weiter Teile unserer digitalen Infrastruktur wider. Zugleich passt es nicht zusammen mit politischen Forderungen nach mehr digitaler Souveränität, die auch von der Bundesregierung selbst regelmäßig vorgetragen werden.

Wie verändern Sprachmodelle die Beziehung zwischen Ärzt*innen und Patient*innen?

Auch zu „KI“-gestützten Systemen der medizinischen Ersteinschätzung müssen wir uns Gedanken machen. Künftig sollen Symptome in ein Computersystem eingegeben werden, danach erfolgt eine technische Einschätzung.

Dieses Verfahren soll Teil des Erstversorgungssystems werden und so den Zugang ins Gesundheitswesen (mit)regeln. Noch ist nicht klar, ob regelbasierte Algorithmen oder „KI“ die technische Grundlage dafür bilden werden.

Es kann grundsätzlich sinnvoll sein, vor dem Besuch einer Praxis die Symptome in ein technisches System einzugeben und sich gegebenenfalls aufgrund einer besseren Steuerung Wartezeit zu ersparen.

Eines genaueren Blicks bedürfen allerdings Themen, die sensibler und oft schambesetzt sind. Einfühlsam und ohne Vorurteile über Sexualität zu reden, fällt Menschen oft schwer. Viele Patient*innen sprechen das Symptom einer Geschlechtskrankheit daher erst am Ende einer Sprechstunde an. Oder eine psychische Belastungssituation wird erst im Laufe eines Gesprächs deutlich.

Öffnen wir mit digitalen Angeboten also tatsächlich neue Wege für Patient*innen? Oder verlieren wir etwas, wenn wir auf standardisierte digitale Ersteinschätzungen setzen? Und wie können geschützte Räume entstehen für sensible Themen wie Sexualität, Geschlechtskrankheiten, Substanzkonsum oder psychische Störungen, wenn das vertrauliche Gespräch mit einer behandelnden Person von einem „KI“-Tool mitgeschnitten wird?

Wie gut sind Sprachmodelle als Gesundheitsassistenzen wirklich?

„KI“ soll zur ständigen Begleiterin für Patient*innen werden und perspektivisch „individualisierte Gesundheitsempfehlungen“ geben, heißt es in der Strategie. Das Bundesgesundheitsministerium möchte so die Eigenverantwortung der Versicherten stärken.

Dabei hat gerade erst eine in der wissenschaftlichen Zeitschrift „Nature“ veröffentlichte Studie gezeigt, dass „KI“-Systeme faktisch daran scheitern, richtige Ergebnisse hervorzubringen, sobald man sich von theoretischem Lehrbuchwissen verabschiedet und reale Patient*innen auf sie loslässt.

Hinzu kommt: Bei Sprachmodellen, der Grundlage von KI-Systemen, werden die Eingaben nicht über Standardfragen geleitet. Sondern das Verfahren hängt stark von den Eingaben der User*innen ab – und damit die Ausgaben der Systeme.

Weil aber die Anzahl möglicher Nutzer*inneneingaben unbegrenzt ist, lässt sich damit auch nicht verlässlich für alle Anwendungsfälle überprüfen, wie gut ChatGPT und Co. im Einzelfall reagieren. Die Erwartung an Verlässlichkeit von Software-Programmen, die sich aus Zeiten regelbasierter Programmierung speist, ist bei auf Stochastik gründenden Ansätzen nicht haltbar – denn da sind immer Wahrscheinlichkeiten oder sogar der Zufall im Spiel.

Zwar gibt es mittlerweile Beispiele, in denen Menschen sagen: „KI“ hat mir dabei geholfen, dass es mir gesundheitlich wieder besser geht. Gerade bei seltenen Erkrankungen, denen Ärzt*innen in ihrem Berufsalltag nur überaus selten begegnen, wird den Sprachmodellen ein solches Potenzial zugesprochen.

Gleichzeitig gibt es jedoch groteske Beispiele, in denen ChatGPT bei der Bewertung von Daten eines Gesundheitstrackers die Note „ungenügend“ – also kurz vor Herzinfarkt – „erraten“ hat, während zwei Ärzte keine Anhaltspunkte für eine Erkrankung finden konnten.

Menschen handeln als Menschen und sind damit – auch in der Interaktion mit Maschinen und bei der Interpretation „maschineller“ Antworten – oft unberechenbar.

Das wiederum kann weitreichende Auswirkungen für Interaktionen zwischen Mensch und Mensch im Behandlungszimmer haben. Fragen Ärzt*innen in der Sprechstunde künftig mit ab, ob Patient*innen bereits vorab mit „KI“ recherchiert haben? Wie gehen Versicherte damit um, wenn sich Empfehlungen von „KI“-Systemen von denen realer Mediziner*innen unterscheiden? Oder wenn die von der „KI“ vorgeschlagenen Behandlungen nicht von den Kassen gedeckt werden?

Wie bleibt das Gesundheitswesen menschlich?

Wenn sie gut gemacht sind, bieten Technologien die Chance, Medizin besser zu machen. Dafür müssen wir uns allerdings die richtigen Fragen stellen – jenseits von Heilsversprechen und Technikgläubigkeit sowie im Wissen um den hochkomplexen Faktor Mensch.

Der Mensch ist dabei kein „nerviges Beiwerk“. Am Ende sollen es ja wir alle sein, die von den neuen Technologien profitieren – und nicht nur die Tech-Milliardäre, die sie mit den größten Versprechungen bewerben.

Manuel Hofmann ist Referent für Digitalisierung der Deutschen Aidshilfe. Offenlegung: Der Autor hat im vergangenen Jahr auf Einladung der Gematik am Fachforum Technologien und Anwendungen“ für die Weiterentwicklung der Digitalisierungsstrategie „Gemeinsam Digital“ teilgenommen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Bundesgesundheitsministerium: So umfassend will Warken die Gesundheitsdaten aller Versicherten verknüpfen

Von: Daniel Leisegang

Bundesgesundheitsministerin Nina Warken hat ihre Digitalisierungsstrategie vorgelegt. Darin betont die CDU-Ministerin, die Patient:innensouveränität stärken zu wollen. Tatsächlich aber will sie eine der umfassendsten Gesundheitsdateninfrastrukturen weltweit aufbauen. Nutznießer sind Forschung und Pharma-Unternehmen. Die Rechte der Patient:innen bleiben auf der Strecke.

Bundesministerin für Gesundheit Nina Warken schaut konzentriert
Ganz auf die Vernetzung von Gesundheitsdaten fokussiert: Gesundheitsministerin Nina Warken (CDU). – Alle Rechte vorbehalten IMAGO / dts Nachrichtenagentur

Rund 75 Millionen gesetzlich Versicherte, ihre Gesundheitsdaten täglich übermittelt an ein nationales Forschungsdatenzentrum, verknüpfbar mit hunderten Medizinregistern und europaweit vernetzt – das ist die Vision von Bundesgesundheitsministerin Nina Warken (CDU).

Die Ministerin präsentierte in der vergangenen Woche ihre „Digitalisierungsstrategie für das Gesundheitswesen und die Pflege“. Darin verspricht Warken eine bessere medizinische Versorgung und mehr Patientensouveränität. Tatsächlich aber zielt ihre Strategie vor allem darauf ab, eine der umfassendsten Gesundheitsdateninfrastrukturen weltweit aufzubauen.

Das knapp 30-seitige Papier legt zugleich die Grundlage für ein umfangreiches „Digitalgesetz“. Den Entwurf will das Bundesgesundheitsministerium (BMG) noch im laufenden Quartal vorlegen. Die Rechte der Patient:innen drohen darin weitgehend auf der Strecke zu bleiben.

Die geplante Dateninfrastruktur ruht auf drei Säulen: die elektronische Patientenakte, das Forschungsdatenzentrum Gesundheit und das geplante Medizinregistergesetz. Das Zusammenspiel aller drei Vorhaben ebnet auch der EU-weiten Vernetzung der Gesundheitsdaten den Weg.

Die ePA soll zur „Gesundheits(daten)plattform“ werden

Alle Versicherten, die nicht widersprochen haben, besitzen seit Januar 2025 eine elektronische Patientenakte (ePA); seit Oktober 2025 sind Behandelnde dazu verpflichtet, sie zu verwenden. Gesundheitsministerin Warken will die ePA nicht nur zum „zentralen Dreh- und Angelpunkt“ der ärztlichen Versorgung machen, sondern auch zur „Gesundheits(daten)plattform“ ausbauen.

Dafür sollen erstens mehr strukturierte Daten in die ePA fließen, die dann „möglichst in Echtzeit für entsprechende Anwendungsfälle nachnutzbar“ sind. Derzeit sind dort vor allem noch PDF-Dateien hinterlegt, die nicht einmal durchsuchbar sind, was den Umgang mit der ePA aus Sicht von Behandelnden deutlich erschwert.

Zweitens soll die ePA weitere Funktionen wie eine digitale Terminvermittlung und elektronische Überweisungen erhalten. Die Patientenakte soll so „auch interessanter werden für diejenigen, die nicht krank sind“, kündigte Warken an. Derzeit nutzen gerade einmal rund 4 Millionen Menschen ihre ePA aktiv. Bis zum Jahr 2030 soll sich ihre Zahl, so das Ziel des BMG, auf 20 Millionen erhöhen.

„Künstliche Intelligenz“ soll Symptome auswerten

Wer sich krank fühlt, soll künftig auch über die ePA-App eine digitale Ersteinschätzung einholen können. Mit Hilfe eines Fragenkatalogs sollen Versicherte dann erfahren, ob ihre Symptome den Gang zur Hausärztin oder gar zur Notfallambulanz rechtfertigen.

Diese Auswertung soll offenbar auch mit Hilfe sogenannter Künstliche Intelligenz erfolgen. Ohnehin soll KI laut Warken „in Zukunft da eingesetzt werden können, wo sie die Qualität der Behandlung erhöht, beim Dokumentationsaufwand entlastet oder bei der Kommunikation unterstützt“. Bis 2028 sollen beispielsweise mehr als 70 Prozent der Einrichtungen in der Gesundheits- und Pflegeversorgung KI-gestützte Dokumentation nutzen – ungeachtet der hohen Risiken etwa für die Patientensicherheit oder die Autonomie der Leistungserbringer.

Dafür will das BMG „unnötigen bürokratischen Aufwand“ für KI-Anbieter reduzieren. Das Ministerium strebt dafür mit Blick auf den Digitalen Omnibus der EU-Kommission „eine gezielte Anpassung der KI-Verordnung“ an. Das umstrittene Gesetzesvorhaben der Kommission zielt darauf ab, Regeln für risikoreiche KI-Systeme hinauszuzögern und den Datenschutz deutlich einzuschränken. Zivilgesellschaftliche Organisationen warnen eindringlich, dass mit dem Omnibus der „größte Rückschritt für digitale Grundrechte in der Geschichte der EU“ drohe.

Forschungsdatenzentrum soll als „Innovationsmotor“ wirken

Die in der ePA hinterlegten Daten sollen aber nicht nur der ärztlichen Versorgung dienen, sondern vor allem auch der Forschung zugutekommen. Sie sollen künftig – sofern Versicherte dem nicht aktiv widersprechen – täglich automatisch an das Forschungsdatenzentrum Gesundheit (FDZ) gehen. Während Warken die ePA als „Dreh- und Angelpunkt“ der Versorgung sieht, beschreibt sie das FDZ als „Innovationsmotor“ der Gesundheitsforschung.

Das FDZ wurde nach jahrelangen Verzögerungen im vergangenen Herbst erst handlungsfähig. Es ist beim Bundesamt für Arzneimittel und Medizinprodukte (BfArM) in Bonn angesiedelt. Forschende können sich bei dem Zentrum registrieren, um mit den dort hinterlegten Daten zu arbeiten. Auch Pharma-Unternehmen können sich bewerben. Eine Voraussetzung für eine Zusage ist, dass die Forschung einem nicht näher definierten „Gemeinwohl“ dient.

Die pseudonymisierten Gesundheitsdaten sollen das FDZ nicht verlassen. Stattdessen erhalten Forschende Zugriff auf einen Datenzuschnitt, der auf ihre Forschungsfrage abgestimmt ist. Die Analysen erfolgen in einer „sicheren Verarbeitungsumgebung“ auf einem virtuellen Desktop, das Forschende übers Internet aufrufen können.

Ob dabei tatsächlich angemessene Schutzstandards bestehen, muss indes bezweifelt werden. Denn das Forschungszentrum verfügte in den vergangenen Jahren nicht einmal über ein IT-Sicherheitskonzept, weshalb auch ein Gerichtsverfahren der Gesellschaft für Freiheitsrechte ruht.

Gemeinsam mit der netzpolitik.org-Redakteurin Constanze Kurz hatte die GFF gegen die zentrale Sammlung sensibler Gesundheitsdaten beim FDZ geklagt. Aus ihrer Sicht sind die gesetzlich vorgesehenen Schutzstandards unzureichend, um die sensiblen Gesundheitsdaten vor Missbrauch zu schützen. Sie verlangt daher für alle Versicherten ein voraussetzungsloses Widerspruchsrecht gegen die Sekundärnutzung der eigenen Gesundheitsdaten. Nachdem das FDZ seit Oktober den aktiven Betrieb aufgenommen hat, dürfte das ruhende Verfahren in Kürze fortgesetzt werden.

„Real-World-Überwachung“ ermöglichen

Dessen ungeachtet haben sich laut BfArM-Präsident Karl Broich bereits 80 Einrichtungen beim FDZ registriert. Die Antragsteller kommen zu gleichen Teilen aus Wirtschaft, Verwaltung und Forschung. Mehr als zwei Drittel von ihnen hätten bereits konkrete Forschungsanträge gestellt, bis zum Ende des Jahres will Warken diese Zahl über die Schwelle von 300 hieven. Alle positiv beschiedenen Anträge sollen künftig in einem öffentlichen Antragsregister einsehbar sein.

Zum Jahreswechsel wird das FDZ wohl auch über weit mehr Daten verfügen als derzeit. Bislang übermitteln die gesetzlichen Krankenkassen die Abrechnungsdaten all ihrer Versicherten an das Forschungszentrum. Diese geben bereits Auskunft darüber, welche Leistungen und Diagnosen die Versicherungen in Rechnung gestellt bekommen haben.

Ab dem vierten Quartal dieses Jahres sollen dann nach und nach die Behandlungsdaten aus der ePA hinzukommen. Den Anfang machen Daten aus der elektronischen Medikationsliste, anschließend folgen die Laborfunde, dann weitere Inhalte.

Der baldige Datenreichtum gibt dem FDZ aus Sicht von BfArM-Chef Broich gänzlich neue Möglichkeiten. Er geht davon aus, dass seine Behörde in zehn Jahren bundesweit „einer der großen Daten-Hubs“ ist. Mit den vorliegenden Daten könnten Forschende dann umfassende „Lifecycle-Beobachtungen“ durchführen – „eine Real-World-Überwachung also, die klassische klinische Prüfungen so nicht abdecken können“.

Auch im FDZ soll „Künstliche Intelligenz“ mitwirken. Zum einen in der Forschung selbst: „Dafür arbeiten wir an Konzepten, die Datenschutz, Sicherheit und wissenschaftliche Nutzbarkeit von Beginn an zusammendenken“, sagt Broich. Zum anderen soll das FDZ Datensätze etwa für das Training von Sprachmodellen bereitstellen, wie die Digitalisierungsstrategie des BMG ausführt und auch bereits gesetzlich festgeschrieben ist. Sowohl Training als auch Validierung und Testen von KI-Systemen sind eine zulässige Nutzungsmöglichkeiten. Das bedeutet konkret: Die sensiblen Gesundheitsdaten von Millionen Versicherten können zum Training von Sprachmodellen verwendet werden.

Wie „Künstliche Intelligenz“ unser Gesundheitswesen verändern soll – und welche Fragen das aufwirft

Warken will Medizinregister miteinander verknüpfen

Ab 2028 könnten Trainingsdaten dann auch detaillierte Daten zu Krebserkrankungen enthalten. Denn in knapp zwei Jahren sollen die FDZ-Datenbestände mit Krebsregistern sowie dem Projekt genomDE verknüpft werden, das Erbgutinformationen von Patient:innen sammelt.

Die Datenfülle beim FDZ dürfte damit noch einmal ordentlich zunehmen. Allein die Krebsregister der Länder Bayern, Nordrhein-Westfalen und Rheinland-Pfalz halten Daten von insgesamt mehr als drei Millionen Patient:innen vor. Wer nicht möchte, dass etwa die eigenen Krebsdaten mit den Genomdaten verknüpft werden, muss mindestens einem der Register komplett widersprechen.

Im Gegensatz etwa zu den Krebsregistern der Länder, die auf Basis spezieller rechtlicher Grundlagen arbeiten, bewegen sich die meisten anderen Medizinregister dem BMG zufolge derzeit „in einem heterogenen Normengeflecht von EU-, Bundes- und Landesrecht“, was „die Schaffung einer validen Datenbasis“ behindere.

Das Ministerium hat daher bereits im Oktober das „Gesetz zur Stärkung von Medizinregistern und zur Verbesserung der Medizinregisterdatennutzung“ auf den Weg gebracht. Der Referentenentwurf sieht vor, einheitliche rechtliche Vorgaben und Qualitätsstandards für Medizinregister zu schaffen.

Ein Zentrum für Medizinregister (ZMR), das ebenfalls am BfArM angesiedelt wäre, soll demnach bestehende Medizinregister nach festgelegten Vorgaben etwa hinsichtlich Datenschutz und Datenqualität bewerten. Qualifizierte Register werden dann in einem Verzeichnis aufgeführt, dürfen zu einem festgelegten Zweck kooperieren und auch anlassbezogen Daten zusammenführen. Die personenbezogenen Daten, die dort gespeichert sind, können für die Dauer von bis zu 100 Jahren in den Registern gespeichert werden.

Derzeit gibt es bundesweit rund 350 Medizinregister. Zu den größten zählen das „Deutsche Herzschrittmacher Register“, das die Daten von mehr als einer Million Patient:innen enthält, und das „TraumaRegister DGU“ mit Daten von mehr als 100.000 Patient:innen. Das Gesundheitsministerium geht davon aus, dass etwa drei Viertel der bestehenden Medizinregister Interesse daran haben könnten, in das Verzeichnis des ZMR aufgenommen zu werden.

Verbraucher- und Datenschützer:innen mahnen Schutzvorkehrungen an

Gesundheitsdaten, die dem ZMR vorliegen, sollen ebenfalls pseudonymisiert oder anonymisiert der Forschung bereitstehen. Das geplante Medizinregistergesetz sieht außerdem vor, dass die Daten qualifizierter Register ebenfalls miteinander verknüpft werden können.

Zu diesem Zweck sollen Betreiber von Medizinregistern und die meldenden Gesundheitseinrichtungen registerübergreifende Pseudonyme erstellen dürfen. Als Grundlage dafür soll der unveränderbare Teil der Krankenversichertennummer von Versicherten (KVNR) dienen.

Fachleute weisen darauf hin, dass eine Pseudonymisierung insbesondere bei Gesundheitsdaten keinen ausreichenden Schutz vor Re-Identifikation bietet. Das Risiko wächst zudem, wenn ein Datensatz mit weiteren Datensätzen zusammengeführt wird, wenn diese weitere personenbezogene Daten der gleichen Person enthält.

Das Netzwerk Datenschutzexpertise warnt zudem davor, die Krankenversichertennummer in einer Vielzahl von Registern vorzuhalten. Weil im Gesetzentwurf notwendige Schutzvorkehrungen fehlen würden, sei „das Risiko der Reidentifizierung bei derart pseudonymisierten Datensätzen massiv erhöht“.

Der Verbraucherzentrale Bundesverband kritisiert die Menge an personenbezogenen Daten, die laut Gesetzentwurf an qualifizierte Medizinregister übermittelt werden dürfen. Dazu zählen neben sozialdemographischen Informationen auch Angaben zu Lebensumständen und Gewohnheiten sowie „zu einem Migrationshintergrund oder einer ethnischen Zugehörigkeit, der Familienstand oder die Haushaltsgröße“.

Um die Patient:innendaten besser zu schützen, forderte der Verband bereits im November vergangenen Jahres, eindeutig identifizierende Daten vom Kerndatensatz eines Medizinregisters getrennt aufzubewahren.

Gesundheitsministerium schafft Schnittstellen in die EU

Das Gesundheitsministerium lässt sich davon jedoch nicht beirren und strebt weitere Datenverknüpfungen an. Laut seiner Digitalisierungsstrategie will das BMG das Forschungspseudonym auch dazu nutzen, um die Gesundheits- und Pflegedaten „mit Sozialdaten und Todesdaten zu Forschungszwecken“ sowie „mit Abrechnungs- und ePA-Daten“ zu verbinden. Ob Versicherte dieser umfangreichen Datenverknüpfung überhaupt noch effektiv und transparent widersprechen können, ist derzeit zweifelhaft. Sicher aber ist: Der Aufwand dürfte immens sein.

Die Digitalisierungsstrategie macht ebenfalls deutlich, dass das Ministerium die geplanten Maßnahmen auch in Vorbereitung auf den Europäischen Gesundheitsdatenraum (EHDS) ergreift. Der EHDS ist der erste sektorenspezifische Datenraum in der EU und soll als Blaupause für weitere sogenannte Datenräume dienen. Schon in wenigen Jahren sollen hier die Gesundheitsdaten von rund 450 Millionen EU-Bürger:innen zusammenlaufen und grenzüberschreitend ausgetauscht werden.

Konkret bedeutet das: In gut drei Jahren, ab Ende März 2029, können auch Forschende aus der EU beim FDZ Gesundheitsdaten beantragen. Und das Zentrum für Medizinregister soll dem BMG zufolge ebenfalls Teil der europäischen Gesundheitsdateninfrastruktur werden.

Der größte Brückenschlag in der Gesundheitsdateninfrastruktur steht also erst noch bevor. Und auch hier bleibt die Ministerin eine überzeugende Antwort schuldig, was die Versicherten davon haben.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Social-Media-Debatte: Ursachenbekämpfung statt Verbote

Von: Laura Jaruszewski

In Los Angeles stehen Meta und Google vor Gericht, in der EU muss TikTok nachschärfen. In beiden Fällen geht es um ihr süchtig machendes Design. Das verweist auf einen besseren Weg im Kinder- und Jugendschutz: Ursachenbekämpfung statt Verbote. Ein Kommentar.

Auf einer Wand sind Like-Symbole, ein Herz und ein Smiley, wie sie bei Social Media aussehen, gesprüht.
Es braucht etwas anderes, um Kinder zu schützen. Und Erwachsene auch. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Foto von George Pagan III auf Unsplash

„Ich male mir die Welt, so wie sie mir gefällt.“ – Das gelingt den Plattformbetreibern hinter Instagram, Youtube, Snapchat oder TikTok bisher ganz gut. Das in Los Angeles eröffnete Verfahren könnte an diesem Prinzip jedoch rütteln und zeigen, dass es etwas anderes als ein Verbot für Jugendliche braucht, um die negativen Effekte sozialer Medien zu reduzieren.

Die 20-jährige Hauptklägerin will Meta und Google für ihr süchtig machendes Design zur Verantwortung ziehen. Vor Gericht gibt sie an, seit über zehn Jahren von sozialen Medien abhängig zu sein – einem Effekt, dem sich die Unternehmen laut interner Dokumente bewusst waren. Und wenn man ehrlich ist: Es ist ein Effekt, den die kommerziellen Plattformen wollen, damit sich die Aufenthaltszeit auf Plattformen verlängert, sie mehr Werbung an die Nutzer*innen abspielen und so mehr Gewinne einfahren können.

Wenn in den USA eine Person vor Gericht geht, deren Generation bisher am frühesten in der digitalen Welt aufgewachsen ist, führt das unweigerlich zu der Frage, wie für diese und nachfolgende Generationen eine bessere und andere Version von sozialen Medien aussehen könnte. Denn ob mit dem Verfahren letztlich ein Präzedenzfall geschaffen werden kann oder nicht – der Prozess stärkt eine andere Stoßrichtung als das derzeit heiß diskutierte Social-Media-Verbot.

Ein Verbot ist die falsche Antwort

Von einem Verbot sozialer Medien für junge Menschen werden viele negative Effekte erwartet: Für Minderheiten oder vulnerable Gruppen fällt ein Kanal zur Vernetzung und Gemeinschaftsbildung weg, ebenso ein Kanal zur Information, Menschen ohne Papiere könnten ganz ausgeschlossen sein und auf Kinder und Jugendliche entfallen die Folgen je nach Familiensituation und Wohnort ungleich.

Diese Nebeneffekte müssten weniger ins Gewicht fallen, wenn unterm Strich auf den Plattformen und ohne Verbot das ursprüngliche Ziel erreicht werden würde: Schutz von Kindern und Jugendlichen vor digitalem Missbrauch, vor Mobbing sowie übermäßigem Konsum und Sucht.

Ein Blick nach Australien zeigt, dass Verbote einerseits löchrig bleiben und andererseits große Risiken für Privatsphäre und Datenschutz bergen. Wie die australische Regierung erwartet hatte, finden Jugendliche einfach Schlupflöcher, das Verbot zu umgehen. Sie ändern ihren Standort über VPN-Verbindungen, legen sich neue Accounts an, wechseln auf nicht betroffene Apps oder nutzen Accounts von älteren Personen. Mit KI-generierten Bildern, Ausweisen von Älteren oder durch einfaches Stirnrunzeln bestehen sie Altersabfragen, die jetzt zur Architektur von Plattformen dazugehören.

Sollte die australische Regierung an diesen Stellen nachschärfen, bleiben Alterskontrollen aus datenschutzrechtlicher Perspektive trotzdem bedenklich. Ein vorab durchgeführtes Gutachten verzeichnet massive Bedenken, wie erhobene Daten gesammelt und an Behörden weitergegeben werden könnten. Das ist der eine Fall. Der andere Fall ist auch datenschutzrechtlich problematisch, wenn personenbezogene Daten aus Alterskontrollen an Drittanbieter weitergegeben werden, wie der Fall von Discord deutlicht.

Plattformen in die Pflicht nehmen statt Probleme in die Zukunft verlagern

Der Medienrechtler Stephan Dreyer erwartet, dass ein EU-Verbot den Jugendschutz auf sozialen Plattformen verschlechtern würde, wie er gegenüber netzpolitik.org darlegte.

Dazu kommt: Soziale Medien sind allgegenwärtiger Teil des Lebens auf der ganzen Welt. Haben Jugendliche die magische Grenze von 16 Jahren überschritten, sind sie zusammen mit den Älteren weiterhin endlosen Feeds, manipulativem Design, personalisierten Empfehlungssystemen und Dopamin-Kicks ausgesetzt. Statt „Cybergrooming“ heißt die Gefahr dann „digitale Gewalt“, wie der Grok-Skandal gerade deutlich vor Augen geführt hat.

Und warum eigentlich nur Jugendliche? Sind nicht auch gestandene Mittvierziger dem suchtmachenden Design der Plattformen verfallen und geraten nicht auch Boomerinnen in den Strudel, der sie in den verschwörungsideologischen Kaninchenbau zieht? Werden nicht uns allen polarisierende Inhalte von intransparenten Algorithmen gezeigt, damit wir möglichst lange mit den Plattformen interagieren und sie uns mit personalisierter Werbung zuballern können.

Bessere Plattformen für alle

Ein Verbot für Jugendliche macht die Plattformen nicht besser. Anstatt Plattformen zur Umsetzung von Alterskontrollen zu zwingen und junge Menschen auszuschließen, müssen die Plattformen zu einer anderen Architektur verpflichtet werden. Fairness by Design und by Default nennt sich der Ansatz, der digitale Plattformen dazu verpflichtet, ihre Webseiten und Apps nutzerfreundlich und manipulationsfrei zu gestalten. Die EU ist gegenüber TikTok einen Schritt gegangen, aber die Liste an manipulativen Techniken ist lang.

Ein Verbot ist letztlich eine platte und hilflose Maßnahme. Es erinnert an überforderte Eltern, die den Kindern das Handy wegnehmen, weil sie nicht weiterwissen. Dabei könnten auch die Verbotsbefürworter*innen beim Ansatz Fairness by Design auf ihre Kosten kommen. Er wäre einer von mehreren Ansätzen, die Plattformen nachhaltig zu verändern. Und es gibt Gesetzgebungen wie das Digitale-Dienste-Gesetz oder wie das geplante Gesetz für digitale Fairness, mit denen man Plattformen verändern kann.

Die Politik muss sich nur trauen – und nicht weiter vor der Lobby der Tech-Riesen einknicken.

 


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Stalking mit digitalen Tools: Versprechen reichen nicht

Von: Martin Schwarzbeck · Chris Köver

Mit Spionage-Apps können Menschen tief in das digitale und analoge Leben anderer eindringen. Aber es gibt Möglichkeiten, den Überwachungstools beizukommen. Dafür muss die Bundesregierung endlich handeln. Ein Kommentar.

Person im hellen Rollkragen und blauem Blazer steht am Rednerpult im Bundestag
Bundesjustizministerin Stefanie Hubig: Ihr Haus will bald den Entwurf für ein digitales Gewaltschutzgesetz vorlegen – Alle Rechte vorbehalten IMAGO / dts Nachrichtenagentur

Stell dir vor, du wirst von deinem Ex-Partner verfolgt. Er lauert dir immer wieder auf, fängt dich vor dem Kino ab oder setzt sich im Zug neben dich, um dir Gespräche aufzuzwingen. Über ein Browser-Interface sieht er, wo du bist, und erfährt intimste Details aus deinem Leben.

Für viele Frauen ist das Realität. Jede 100. Frau in Deutschland ist in den vergangenen fünf Jahren mit digitalen Tools gestalkt worden, das zeigt eine aktuelle Studie des Bundeskriminalamtes.

Spionage-Apps, AirTags, GPS-Tracker und andere technische Hilfsmittel gehören heute zum Standardrepertoire von Stalkern. Dabei sind die Spionage-Apps besonders heimtückisch. Mit ihnen braucht man keine Ortungsgeräte und keine Wanzen, um eine Person zu überwachen. Sie machen das Mobiltelefon zu einem multimedialen Kontrollinstrument. Zu einem, das die Betroffenen ganz freiwillig mit sich tragen.

Betroffene, die zur Polizei gehen, bekommen dort oft nur Unverständnis entgegengebracht. Das Wissen darum, dass derartige Spionage-Programme leicht zugänglich sind, ist noch viel zu wenig verbreitet. Expert*innen fordern Schulungen für Ermittler*innen, sowie Protokolle, die sie darauf verpflichten, bei der Erfassung häuslicher Gewalt immer auch eine mögliche digitale Ebene mitzudenken. Eigentlich müsste jede Stelle, die mit gewaltbetroffenen Personen in Kontakt kommt, eine Vorstellung davon haben, was digitale Gewalt bedeutet und was zum Schutz der Betroffenen zu tun ist.

Und wieso sind Programme, die es ermöglichen, andere heimlich über ihr eigenes Telefon auszuspionieren, in Deutschland überhaupt legal erhältlich? Die Nutzung von Spionage-Apps ist mit sechs Monaten bis fünf Jahren Haft hinreichend strafbewehrt. Aber um sie wirklich eindämmen zu können, muss die Bundesregierung auch die Hersteller*innen der Tools ins Visier nehmen. Spielzeug beispielsweise, das heimlich Audio- oder Videoaufnahmen machen kann, ist illegal. Das gleiche sollte für Apps gelten, die ein Smartphone zu einer solchen Abhöranlage machen.

Gesetzeslücken schließen, Unterstützung ausbauen

Die schwarz-rote Regierungskoalition hat in ihrem Koalitionsvertrag versprochen, diese Gesetzeslücke zu schließen. Die Überwachungs-Tools sollen demnach regelmäßig das Einverständnis der Besitzer*innen der betroffenen Telefone abfragen müssen. So könnten Eltern, wenn es denn unbedingt sein muss, ihre Kinder weiter überwachen. Es wäre aber sehr viel schwerer, eine Partnerin oder Ex-Partnerin heimlich und illegal auszuspionieren. Bisher sind es nur Versprechen und Pläne, passiert ist noch nichts.

Mindestens ebenso wichtig wie die Regulierung und Strafverfolgung wäre aber noch eine dritte Ebene im Kampf gegen digitale Gewalt, eine, die noch früher ansetzt: die Unterstützung der Betroffenen. Derzeit gilt: Wer fürchtet, digital ausgespäht und gestalkt zu werden, braucht IT-affine Freunde und Glück. Es gibt nach wie vor zu wenige Beratungsstellen für digitale Gewalt. Solche Anlaufstellen zu schaffen und diese mit genug Geld und kompetentem Personal auszustatten, das sollte jetzt höchste Priorität bekommen.

Das kostet viel Geld. Aber es ist nicht verhandelbar. Deutschland hat die Istanbul-Konvention unterzeichnet und sich damit dazu verpflichtet, alles dafür zu tun, um geschlechtsspezifische Gewalt zu bekämpfen, Betroffenen Schutz und Unterstützung zu bieten und Gewalt zu verhindern. Jetzt muss es diese Verpflichtung auch umsetzen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Digitales Stalking: „Er wusste immer genau, wo ich war“

Von: Chris Köver · Martin Schwarzbeck

Aikos Ex-Partner verwanzt ihr Handy. Er kann sehen, was sie liest, was sie tippt, wo sie ist. Er lauert ihr immer wieder auf und verfolgt sie bis nach China. Dieser Fall zeigt, wie invasiv und bedrohlich frei verfügbare Spionage-Apps sind.

Wo sie hingeht, was sie tippt: Über eine Spionage-App auf dem Mobiltelefon bekommt der Stalker alles mit. – Alle Rechte vorbehalten Foto: Timon Studler / Unsplash, Ortsmarker: Imago / Zoonar

Seit ihrer Trennung ist Aiko eine vorsichtige Frau geworden. Bevor sie ihren Wohnblock verlässt, wartet sie still im Eingangsbereich. Dort gibt es mehrere Türen mit Glaseinsätzen. Sie versucht zu erkennen, ob draußen jemand ist. Es könnte ja sein, dass Tom ihr wieder auflauert. Er hat schon oft auf sie gewartet oder sie auf der Straße abgefangen. Er hat sich ihr von hinten genähert und sie festgehalten. Sie sagt, Tom wollte immer wieder reden, reden, reden, über ihre Beziehung, obwohl Aiko diese schon vor Jahren beendet hat.

Um Tom zu entkommen, hat Aiko ihn wiederholt angezeigt, ein Annäherungsverbot erwirkt, eine Auskunftssperre bei den Meldebehörden hinterlegen lassen, sie ist in eine neue Stadt gezogen. Doch Tom taucht immer wieder auf. Auch an diesem Tag im Sommer 2025 steht er vor der Tür. Aiko kann das Haus nicht verlassen, ohne sich mit ihm auseinanderzusetzen. Sie ruft die Polizei – wie schon so oft.

Diese Geschichte ist eine von Gewalt. Es geht um Macht und Kontrolle und um eine Spionage-App, die jede*r mit wenigen Klicks im Netz ordern kann und mit der Menschen illegal ihre (Ex-)Partner*innen ausspähen. Jede 100. Frau wurde in den vergangenen fünf Jahren mit digitalen Mitteln gestalkt, so das Bundeskriminalamt. Aiko ist eine der Betroffenen. Mit ihrer Geschichte wird in Deutschland erstmals ein Fall öffentlich, in dem nachgewiesenermaßen eine Spionage-App als Mittel der Partnerschaftsgewalt eingesetzt wurde. Nach der Trennung installierte Tom diese auf Aikos Telefon.

Über ein Browser-Interface konnte Tom sehen, wo Aiko gerade unterwegs war, und lesen, was sie tippte. Er konnte ihre Passwörter abgreifen, ihre Chatnachrichten und E-Mails, die Anrufliste, die Kontakte, den Kalender, die Bilder und Videos, den Browser-Verlauf. Er drang tief in ihr digitales und analoges Leben ein.

Ein paar Minuten allein mit Aikos Handy

Um sie zu schützen, haben sie und Tom hier andere Namen. netzpolitik.org hat mit Aiko gesprochen und Menschen aus ihrem Umfeld befragt. Zahlreiche Dokumente und geleakte Daten aus dem Kundendienst der Spionage-App mSpy bestätigen ihre Schilderungen. Eine forensische Analyse von Aikos Telefon, die ein IT-Sicherheitsexperte für netzpolitik.org durchgeführt hat, belegt zudem, dass das Gerät mit mSpy infiziert ist.

Um mSpy zu installieren, muss man das Zieltelefon für ein paar Minuten in der Hand halten. Tom hatte, so Aiko, viele Gelegenheiten, bei denen er allein mit ihrem Telefon war.

netzpolitik.org hat Tom mit den in diesem Text geschilderten Geschehnissen und Aikos Vorwürfen konfrontiert. Einen großen Teil davon hat er bereits in Gerichtsverfahren eingeräumt. Gegenüber netzpolitik.org erklärt er nur, dass ihm zu vielen der geschilderten Punkte Belege vorlägen, die eine „deutlich andere Sicht auf die Geschehnisse zulassen“. Im Einzelnen will er sich nicht äußern und verweist auf zwei noch laufende Berufungsverfahren.

„Ich dachte, er ist ein aufrichtig guter Mensch“

Die Geschichte von Tom und Aiko beginnt Anfang 2021. Sie treffen sich auf der Dating-Plattform Bumble. Tom ist Nachwuchsregisseur, in Interviews wirkt er eloquent, zu öffentlichen Anlässen trägt er einen schmal geschnittenen Anzug. Seine Agentur schreibt über ihn, dass er mit seiner Arbeit Menschen sichtbar machen wolle, die sonst nicht gesehen würden. Auch Aiko arbeitet in einem kreativen Beruf. In ihrer Freizeit geht sie gerne ins Kino oder reist mit Freundinnen zu Kunstausstellungen.

Laut Aiko verband sie und Tom das Interesse für Kunst, Filme und Design. „Ich dachte, dass er die gleichen humanistischen Werte hat wie ich, dass er ein Idealist ist, ein aufrichtig guter Mensch“, sagt Aiko heute. Sie spricht leise, sucht nach den richtigen Worten. Immer wieder hebt sie fragend den Blick, als müsse sie die Erlaubnis zum Sprechen erst einholen.

Von August 2021 bis Mai 2022 sind Tom und Aiko ein Paar. Dann habe sie entdeckt, dass Tom mit vielen anderen Frauen Kontakt hat, sagt Aiko. Sie habe Sexvideos auf einem Datenträger gefunden. Eines, das sie mit ihm gemacht habe, sieben weitere von ihm und anderen Frauen. Sie sagt, sie habe Schluss gemacht, Tom auf mehreren Messengern blockiert. Doch er habe immer wieder im Treppenhaus gestanden. Mehrere Male habe sie zugelassen, dass er in ihre Wohnung kommt. „Ich wollte extrem von ihm weg. Aber ich bin nicht weggekommen“, sagt Aiko.

Wegen dem, was dann folgt, zeigt Aiko Tom an. Die Staatsanwaltschaft fasst Aikos Schilderungen so zusammen: „Der Beschuldigte soll seine Lebensgefährtin mehrfach auf ein Bett gedrückt, ihr mit der erhobenen Faust gedroht und mit der Faust ein Loch in eine Tür geschlagen haben.“ Zu einer anderen Gelegenheit habe er Aiko, „die zwischenzeitlich ins Badezimmer gegangen war, um von dort die Polizei zu verständigen, ihr Mobiltelefon abgenommen. Als sie in der Folge anfing zu schreien und aus dem Fenster um Hilfe zu rufen, soll der Beschuldigte ihr die Hand auf den Mund gedrückt und sie vom Fenster weggezogen haben.“

Die Staatsanwaltschaft hat keine Anklage erhoben. Sie sah kein öffentliches Interesse an der Strafverfolgung.

Nachrichten an den mSpy-Kundendienst

Am 10. Januar 2023 schickt jemand von dem E-Mail-Account, den Toms Filmhochschule für ihn damals bereitstellt, eine Nachricht an den Kundendienst der Spionage-App mSpy. Dieser Mensch schreibt, er habe ein Problem: Er sehe zwar wie gewünscht den Standort des Zieltelefons, aber es übermittele nicht mehr, was darauf getippt wird.

Auf der Suche nach einer Lösung bombardiert er den Kundendienst mit dutzenden Nachrichten. Dieser rät dazu, eine Nachricht mit dem Inhalt „1000000“ an das Zieltelefon zu senden, um die App neu zu starten. Der Kunde präsentiert einen Entwurf.

aiko rede bitte mit mir anstatt mich zu blocken zum 1000000 mal. bitte aiko. das zerstört mich so sehr.

Später nennt er das Modell des Telefons, das er überwachen will. Es ist das Modell, das Aiko nutzt. MSpy hat auf Nachfragen zum Fall nicht reagiert.

Die Nachrichten sind öffentlich, nachzulesen in einem Datensatz, mit dem Millionen von Chats im Netz landeten, die Nutzer*innen mit dem Kundendienst der Spionage-App geführt haben. Die Plattform Distributed Denial of Secrets hat den Datensatz im Juni 2024 veröffentlicht. Die Hackerin maia arson crimew gibt an, dass ihr das Paket von einer anonymen Quelle zugespielt wurde.

Von Anfang 2023 bis zum Juni 2024 kontaktiert demnach jemand von Toms E-Mail-Account aus den Support mit einer gut dreistelligen Zahl von Nachrichten. Dieser Mensch hat anscheinend mehrfach physischen Zugriff auf das Zieltelefon und installiert mSpy nach Ausfällen wiederholt neu. Er will mSpy mehrere Male kündigen, weil Funktionen ausfallen, und bucht den Service dann doch wieder.

Jahre später wird Tom wegen Nachstellung mit Hilfe einer Software vor Gericht stehen. Dabei gibt er zu, dass er die App am 28. April 2024 installiert hat und damit bis zum 24. November Zugriff auf Aikos Handydaten hatte. Laut den Nachrichten könnte er Aiko aber wesentlich länger mit der App überwacht haben, bereits ab Anfang 2023.

Für Stalking mit Spionage-Apps gibt es bis zu fünf Jahre Haft

Als mSpy vor mehr als 15 Jahren auf den Markt kam, wurde die App noch offen als Instrument für Partnerschaftsgewalt vermarktet. Später stellte das Unternehmen seine Marketing-Botschaften um.

mSpy ist laut eigenen Angaben inzwischen eine App für Eltern, die damit die Geräte ihrer Kinder überwachen – das kann in Deutschland unter Umständen legal sein, auch ohne Zustimmung. Wer hingegen andere Erwachsene heimlich überwacht, handelt eindeutig strafbar: Ausspähen von Daten, womöglich Nachstellung, Verletzung der Vertraulichkeit des Wortes oder des höchstpersönlichen Lebensbereichs durch Bildaufnahmen. Dafür können mehrere Jahre Haft drohen.

Wer ein Spionage-Tool einsetzt, begeht zudem einen besonders schweren Fall von Nachstellung, strafbewehrt mit mindestens drei Monaten und bis zu fünf Jahre Haft. Verschärfend wirkt ebenfalls, wenn die Nachstellung über einen Zeitraum von mehr als sechs Monaten abläuft oder das Opfer gesundheitlich beeinträchtigt wird. Beides trifft im Fall von Aiko zu.

Der Mensch, der von Toms Account dem mSpy-Kundendienst schreibt, gibt an, mit der App seinen Sohn überwachen zu wollen. Tom hat keine Kinder. Frühere Recherchen zeigten: Andere Anwender*innen von mSpy gaben offen zu, dass sie Partner- oder Ex-Partner*innen ausspionieren wollten. Der Kundendienst half ihnen trotzdem weiter.

Kundenservice gibt Tipps für Straftaten

Keine Kraft mehr, sich zu wehren

Auch 2023, da sind Aiko und Tom bald ein Jahr getrennt, taucht Tom laut Aiko immer wieder vor ihrer Wohnung auf und begegnet ihr auch anderswo. „Wenn ich raus bin, hat er mich abgefangen“, sagt Aiko. Sie fährt zu einer Hochzeit, er sitzt im gleichen Zug. Sie will ins Kino, er steht davor. Das geht aus einer eidesstattlichen Versicherung von Aiko hervor, auf deren Basis ein Gericht später ein Kontaktverbot für Tom verhängt.

Aiko zieht sich in dieser Zeit von Familie und Freund*innen zurück. Sie reagiert monatelang nicht auf Nachrichten und Anrufe, berichten ihre Freund*innen. „Ich hatte Angst vor dem Handy“, sagt Aiko. Eine enge Freundin fährt aus Sorge zu Aikos Wohnung.

Die Freundin ist Ärztin in einer psychiatrischen Fachklinik. In einer Stellungnahme schreibt sie, Aiko habe ihr geöffnet und gesagt, Tom sei da und würde gegen ihren Willen bei ihr wohnen, sie habe keine Kraft mehr, sich zu wehren. Aiko bestätigt die Darstellung gegenüber netzpolitik.org.

Aiko und die Freundin sollen Tom gebeten haben, zu gehen. Dieser soll erwidert haben, Aiko wolle doch gar nicht, dass er gehe, er liebe sie, außerdem müsse er noch Wäsche waschen. Die Freundin soll ihn schließlich dazu gebracht haben, die Waschmaschine auszuräumen und die Wohnung zu verlassen.

Insgesamt elf Mal sucht Aiko eine Opfer- und Traumaambulanz auf, während Tom sie stalkt. Diagnose: posttraumatische Belastungsstörung, depressive Episode, panikartige Angstzustände, emotionale Labilität, Einschlafstörungen und wiederkehrende Albträume, Schamgefühle, reduziertes Selbstwertgefühl, sozialer Rückzug, Auflösungswünsche.

„Ein spontaner Rückgang ihrer hohen Symptombelastung ist unter der gegenwärtigen Hochstresssituation nicht zu erwarten“, so die Hilfseinrichtung. Aiko meldet sich immer wieder auf der Arbeit krank.

Er verfolgt sie bis nach China

Ende 2023: Aiko bucht einen Flug nach Shanghai, in die größte Stadt Chinas. Sie sagt, sie habe möglichst weit weg gewollt. Als sie ins Flugzeug steigen will, steht Tom mit ihr in der Boarding-Schlange.

„Ich dachte, das kann doch nicht sein“, sagt Aiko. Sie zweifelt an ihrer Wahrnehmung, kann sich nicht erklären, wie Tom sie gefunden hat. „Dass es so etwas wie mSpy gibt, wusste ich nicht“, sagt Aiko. Sie fügt sich. „Ich dachte, am besten lasse ich es über mich ergehen. Alles ist besser als wieder Polizei und eskalieren und ich verpasse meinen Flug.“

Aiko fasst die Reise so zusammen: Nach der Landung soll Tom mit ihr ins Hotel-Shuttle gestiegen sein, sich ein Zimmer in ihrer Unterkunft genommen haben. Um ihm zu entkommen, sei sie mit dem Taxi zurück zum Flughafen gefahren. Auch dort sei er aufgetaucht. Sie sei noch zwei Mal in neue Hotels geflüchtet, er habe sie jedes Mal gefunden. Er soll geweint haben und gesagt, er habe alle Hotels nach ihr abgesucht.

Irgendwann platzt Aiko der Kragen. „Ich habe gesagt, dass er sich verpissen soll. Ihn gefragt, ob er nicht checkt, dass ich hier bin, weil ich vor ihm fliehen will.“ Tom habe China nach rund 14 Tagen verlassen, Aiko bleibt eine weitere Woche.

Aiko sagt, dass Tom kurz nach Weihnachten bei ihren Eltern vor der Tür stand. „Ich habe hier auf dich gewartet“, soll er gesagt haben. Als sie zurück zu ihrem Wohnort fährt, soll er wieder im gleichen Zug mit ihr gesessen haben.

Die Überwachungs-Industrie

Fachleute aus Beratungsstellen, Forschung und Politik bezeichnen die Überwachung mit Spionage-Apps als digitale Gewalt, weil sie mit elektronischen Mitteln tief in die Selbstbestimmung eingreift. Programme wie mSpy nennen sie Stalkerware: Software für Stalking.

mSpy ist dabei nur eines der Produkte auf diesem Markt. IT-Sicherheitsforscher*innen sprechen von einer ganzen Industrie. Neben Spionage-Apps zählen auch GPS-Tracker oder Ortungs-Tags zu den Werkzeugen, auf die Täter*innen zugreifen.

Besonders häufig kommen Spionage-Apps in Partnerschaften und Familien zum Einsatz. Denn um sie zu installieren, brauchen die Täter*innen in der Regel einige Minuten ungestörten physischen Zugang zum Zieltelefon und den Entsperrcode des Geräts. Je näher sie einer Person stehen, desto eher haben sie beides.

Hinter mSpy steckt ein schwer zugängliches Firmengeflecht, beworben wird die Spionage-App über ein Netz von Unternehmen, die daran mitverdienen. Der Abo-Preis hängt von Buchungsdauer, Rabatten und gewünschtem Funktionsumfang ab und kann schnell 100 Euro pro Jahr übersteigen.

„Ich dachte, ich komme da nie wieder raus“

Immer wieder ruft Aiko in den Jahren, in denen Tom sie verfolgt, die Polizei zu Hilfe, zeigt Tom an. Anfang 2024 wird ein Verfahren wegen Nachstellung eingestellt. Es sei nicht „mit hinreichender Wahrscheinlichkeit nachzuweisen“, dass Aiko den Kontakt nicht gewollt habe, schreibt die Staatsanwaltschaft. Tom soll der Polizei gesagt haben, sie seien noch zusammen und Bilder gezeigt haben, auf denen er mit Aiko zu sehen war. Aiko sagt: „Ich dachte, ich komme da nie wieder raus.“

Im März 2024 schreibt jemand von Toms E-Mail-Adresse aus mehrfach an den mSpy-Kundendienst, weil bestimmte Funktionen der App ausfallen. Als der Kontakt zu Aikos Telefon für eine Weile scheinbar ganz verloren geht, fragt die Person: „can someone please help“, zig Nachrichten später: „I have to know what’s going on“.

Am 28. April um 11:08 Uhr wird die Spionage-App auf Aikos Telefon neu installiert. Wenige Minuten zuvor fragt jemand von Toms E-Mail-Adresse aus den Kundendienst, wie man mSpy installiert und bekommt eine Anleitung zugesendet. Die Nachrichten an den Kundendienst werden laut Chatprotokoll aus der Stadt verschickt, in der Aiko wohnt.

Am Tag davor klingelt Tom bei Aiko. Sie sagt, er habe geweint und gesagt, er habe keinen Schlafplatz und kein Geld und wolle nur eine Nacht bleiben. Aiko lässt ihn entgegen ihrer Vorsätze wieder in die Wohnung. Heute vermutet sie, dass er ihr Entsperrmuster kannte und mSpy installierte, während sie gerade nicht im Raum war.

Was an diesem Tag mit Aikos Telefon geschah, hinterließ Spuren auf dem Gerät. Aus einer forensischen Analyse, die netzpolitik.org bei einem unabhängigen IT-Sicherheits-Experten in Auftrag gab, geht hervor, wie sich das Geschehen vermutlich zugetragen hat: Tom installiert die App und deaktiviert dafür Sicherheitsfunktionen auf dem Handy, tippt einen Registrierungscode ein und schickt dann mit Aikos Handy eine WhatsApp-Nachricht an seine eigene Nummer:

Test Oh Keykoffer funktioniert bitte funktionieren.

K und L, sowie F und G liegen auf der Tastatur nebeneinander, vermutlich wollte Tom in Eile „Keylogger“ tippen. Ein Keylogger erfasst alle Anschläge auf der Tastatur und damit auch Passwörter, Nachrichten und Suchbegriffe, mSpy bietet diese Funktion.

Ein deutlicher Anstieg der Fälle

Wie viele Menschen andere mit Spionage-Apps ausspionieren, weiß niemand. Das Bundeskriminalamt erfasst entsprechende Anzeigen nicht gesondert. Sie fallen in die Rubrik digitale Gewalt, zusammen mit Videoaufnahmen in Umkleiden und sexualisierten Deepfakes beispielsweise. 2023 wurden laut Bundeskriminalamt 17.193 Fälle von digitaler Gewalt gegen Mädchen und Frauen von der Polizei bearbeitet.

Vor wenigen Tagen veröffentlichte das BKA eine Dunkelfeldstudie, für die Menschen zu ihren Gewalterfahrungen befragt wurden. Etwa jede 45. der befragten Frauen gab an, innerhalb der vergangenen fünf Jahre von einem Partner oder Ex-Partner gestalkt worden zu sein. Eine von hundert sagte, dass dies auch mit digitalen Mitteln geschah. Weniger als jede zehnte Frau zeigte die Taten an.

Von einem deutlichen Anstieg der Fälle von digitalem Stalking berichten Fachberatungsstellen für digitale Gewalt und der Bundesverband Frauenberatungsstellen und Frauennotrufe. Cordelia Moore, die lange in einer Frauenberatungsstelle zu digitaler Gewalt gearbeitet hat und heute Organisationen zum Thema berät, sagt: „In Stalkingfällen ist Cyberstalking inzwischen keine Ausnahme, sondern der Standard.“

Die Bundesregierung will den Anbietern von Spionage-Apps vorschreiben, regelmäßig das Einverständnis der Geräte-Besitzer*innen einzuholen, so steht es im Koalitionsvertrag. Eine heimliche Überwachung wie im Fall von Aikos Telefon wäre damit nicht mehr möglich – zumindest wenn sich die App-Anbieter daran halten.

Das Justizministerium des Bundes schreibt auf Anfrage, die Umsetzung werde gerade geprüft, man stehe dazu mit dem Innen- und dem Digitalministerium in Kontakt. Allerdings sitzen die Anbieter der App nicht in Deutschland, womöglich nicht einmal in der EU. Es ist unklar, welche Auswirkungen ein deutscher Alleingang hätte.

„Viel zu wenige wissen, dass es solche Tools gibt“

„Von Panikattacken gequält“

33 Fälle von verbotener Nachstellung gibt Aiko von Mai bis Dezember 2024 bei der Polizei zu Protokoll. Tom steht immer wieder vor ihrem Haus, fängt sie vor dem Kino und am Bahnhof ab, sitzt im gleichen Zug mit ihr, hält sie fest und will mit ihr sprechen. Er ruft mit unterdrückter Nummer immer wieder an, schickt ihr WhatsApp-Nachrichten.

Wieder bricht Aiko den Kontakt zu Freund*innen ab. Die Freundin, die im vergangenen Jahr Tom aus Aikos Wohnung verjagte, gibt sie nicht auf und fährt wieder zu ihr. In ihrer Stellungnahme heißt es:

Ich fand sie in ihrer Wohnung auf dem Sofa liegend vor, die Wohnung war vollständig abgedunkelt, (Aiko) war in einem verwahrlosten Zustand, von Panikattacken gequält und konnte zunächst kaum berichten, was sich in der letzten Zeit zugetragen hatte. Sie hatte mehrere Tage nichts gegessen, aus Angst, die Wohnung zu verlassen.

Mehr als ein Jahr später wird Tom für diese Taten von der Staatsanwaltschaft wegen Nachstellung angeklagt. Er wird ein umfassendes Geständnis ablegen, eine Richterin wird ihn zu mehr als einem Jahr Gefängnis ohne Bewährung verurteilen. Dieses Urteil ist noch nicht rechtskräftig.

„Stalking ist eine Machtdemonstration“

Michaela Burkard vom Bundesverband Frauenberatungsstellen und Frauennotrufe sagt: „Stalking ist eine Machtdemonstration, die der betroffenen Person signalisiert, dass sie sich nicht entziehen kann.“ Mit Hilfe von digitalen Werkzeugen, die den Standort übermitteln, sei eine derartige Machtdemonstration noch einfacher geworden.

„Kontrolle und Stalking treten vor allem dann auf, wenn der gewaltausübende, meist männliche Part einen Machtverlust verhindern will“, sagt Burkard. Eingebettet sei das Stalking in eine patriarchale Gesellschaft, in der Macht in heterosexuellen Beziehungen oft ungleich verteilt ist.

Typisch an dem Fall von Aiko, sagt Burkard, sei das Ineinandergreifen von analogem und digitalem Stalking. „Digitale geschlechtsspezifische Gewalt ist eine Fortsetzung bereits bestehender Gewaltverhältnisse, sie taucht selten isoliert auf“, sagt sie.

Am 10. Juni 2024 erlässt das Amtsgericht ihres Wohnortes auf Aikos Betreiben eine einstweilige Anordnung gegen Tom. Sechs Monate lang muss er mindestens 50 Meter Abstand von ihrer Wohnung halten, darf auch ihren Arbeitsplatz und die Wohnung der Eltern nicht aufsuchen oder anderweitig, beispielsweise per Anruf, Sprach- oder Textnachricht, Kontakt mit ihr aufnehmen. Bei Zufallstreffen hat er sich sofort zu entfernen. Die Anordnung wird später immer weiter verlängert werden. Die Dokumente dazu liegen netzpolitik.org vor.

Obwohl es Tom nun verboten ist, sich Aiko zu nähern, fängt er sie über den darauf folgenden Sommer vier Mal in Seitenstraßen ihrer Wohnung ab. Er rennt auf sie zu und hält sie fest. Er schreibt unzählige Nachrichten und versucht dutzende Male, sie anzurufen.

Das Amtsgericht ihres Wohnortes verurteilt Tom Ende September zu 800 Euro Ordnungsgeld. Er hört dennoch nicht auf. Im Oktober fordert das Gericht weitere 400 Euro. Wieder lässt er sich nicht davon beeindrucken. Tom wird vorläufig festgenommen. Als er wieder frei ist, schreibt er Aiko: „gib mir nur ein Zeichen, sonst muss ich wiederkommen“.

Alles netzpolitisch Relevante

Drei Mal pro Woche als Newsletter in deiner Inbox.

Jetzt abonnieren

Die Spionage-App wird enttarnt

Dass die Spionage-App auf Aikos Smartphone entdeckt wird, ist nicht den Ermittlungen der Polizei zu verdanken. Von den Beamt*innen, mit denen Aiko sprach, sei keine*r auf die Idee gekommen, dass Tom Aikos Smartphone verwanzt haben könnte, dass Toms ständige Präsenz dort ihren Ursprung hat, sagt Aiko.

Am Ende ist es nicht die Polizei, sondern ein Freund, der ihr Klarheit bringt. „Als Aiko mir von dem Stalking erzählte, hatte ich schon eine Ahnung, wie das kommen könnte, dass Tom immer weiß, wo sie ist“, sagt Benjamin. Er ist Dozent für Informatik und weiß, dass es frei erhältliche Spionage-Software gibt.

Im November 2024 besucht er Aiko und untersucht ihr Telefon. Da ist mSpy noch aktiv. Nach wenigen Minuten findet er in der App-Übersicht ein Programm mit weitreichenden Berechtigungen. Es taucht auf dem Home-Bildschirm nicht auf und verbirgt sich hinter dem unscheinbaren Namen „Update service“. Aiko sagt, ihr sei diese App nicht bekannt gewesen. Die forensische Analyse, die der unabhängige IT-Sicherheitsexperte für netzpolitik.org durchführte, bestätigt, dass es sich dabei um mSpy handelt.

Vom Partner verwanzt

So hat die App sie ausspioniert

Im Download-Ordner von Aikos Handy liegt eine Installationsdatei für die Spionage-App. Sie wurde eine Minute vor der Installation der App „Update service“ heruntergeladen. Außerdem findet sich auf dem Telefon eine Datenbank, in die mSpy Informationen kopierte: Standortdaten, Browserverlauf, Kalender, Anruflisten, Fotos und Videos, SMS und E-Mails, Chats auf verschiedenen Plattformen sowie Mitschnitte der Tastatureingaben. Auch die Testnachricht, die während der Installation an Toms Nummer verschickt wurde, findet sich in den Daten. mSpy sendet derartige Informationen in eine Cloud, wo Kund*innen sie einsehen können – übersichtlich aufbereitet über ein Browser-Tool.

Die App habe fast alle Berechtigungen gehabt, sagt Benjamin, also nicht nur auf alle Telefoninhalte zugreifen können, sondern auch Dateien und Apps aus der Ferne löschen und installieren dürfen. Er kann dies mit Screenshots belegen. Sie zeigen auch, dass die App in den 24 Stunden vor dem Novemberabend, an dem Benjamin die App entdeckt, auf verschiedene Daten zugegriffen hatte, etwa auf den Standort, Anrufliste, Fotos und Videos, Kalender, Kontakte oder SMS.

Um den Datenabfluss zu unterbrechen, habe er die Berechtigungen noch in derselben Nacht aufgehoben, sagt Benjamin. Über viele Monate hatte Tom Zugang zu den Informationen, die mSpy über dieses Gerät erfasste, konnte sehen, wo Aiko sich befand. Jetzt ist es vorbei. Einen Monat später kauft Aiko sich ein neues Telefon.

Der Moment der Erkenntnis

Zu erfahren, dass Tom sie ausgespäht hatte, war „super erschütternd“, sagt Aiko. „Er wusste meine intimsten Gedanken, er wusste immer genau, wo ich war. Und er hat die ganze Zeit meine Realität manipuliert. Ich habe ja geglaubt, dass er überall auf mich wartet.“

Noch aus einem anderen Grund war die Erkenntnis für sie ein Schock. Kurz zuvor hatte Aiko beschlossen, die Stadt zu verlassen und nach Berlin zu ziehen, um Tom zu entkommen. Sie sagt, sie wollte ohne Angst auf die Straße gehen, normal leben. „Als ich verstanden habe, dass er all meine Kommunikation abgegriffen hat, ist mir auch klar geworden, dass er vermutlich weiß, wo ich hinziehe“, sagt sie.

In den Daten, die mSpy mitschnitt, findet sich eine E-Mail mit der Einladung zur Wohnungsbesichtigung. Dort liegen auch die Koordinaten ihrer neuen Wohnung, abgegriffen, als Aiko die Wohnung besichtigte.

Nachdem Benjamin die App gefunden hat, gehen er und Aiko noch in der gleichen Nacht zur Polizei. Die beiden sagen, auf der Wache habe Benjamin versucht, den Beamten die Spionage-App zu erklären, zunächst ohne Erfolg. Erst als Aiko ein Foto herumgezeigt habe, das ihr Vermieter von Tom gemacht hatte, habe ein Polizist gesagt: „Das sieht nach nem Hacker aus.“ Auf dem Foto steht Tom mit aufgeklapptem Laptop unter Aikos Fenster.

Michaela Burkard vom Bundesverband Frauenberatungsstellen und Frauennotrufe sagt: „Wichtig ist, dass alle Instanzen, die mit einer gewaltbetroffenen Person zu tun haben, Fachwissen und die nötige Sensibilität für digitale Gewalt haben.“ So sollte etwa die Polizei im Rahmen einer Risikoeinschätzung bei Partnerschaftsgewalt immer auch digitale Gewalt abfragen.

Das fehlt beim Schutz vor digitaler Gewalt

Die Polizei findet ihn in einem Gebüsch

Februar 2025. Vier Jahre ist es her, dass sich Aiko und Tom auf Bumble getroffen haben. Das Amtsgericht verhängt weitere 3.000 Euro Ordnungsgeld gegen Tom. Die vorhergehenden 1.200 Euro hat er noch nicht gezahlt. Vor Gericht gibt er später an, weitgehend mittellos zu sein.

Ende Februar zieht Aiko nach Berlin. Ungefähr zur gleichen Zeit zieht auch Tom dorthin. Er hat nun keinen Fernzugriff mehr auf ihr Telefon, trotzdem lauert er ihr immer wieder vor ihrem Wohnblock auf, in dessen Umgebung, an der S-Bahn. Einmal finden Polizist*innen, die zu ihrer Sicherheit vor Aikos Haus patrouillieren, Tom in einem Gebüsch. Die Szene beschreibt das Amtsgericht Tiergarten in einem Urteil, das später gegen Tom fällt.

Das Amtsgericht in Berlin-Tiergarten erwirkt einen Haftbefehl gegen Tom. Von Mai bis Juni sitzt er 27 Nächte in Untersuchungshaft. Er wird nur unter der Auflage entlassen, Berlin zu verlassen und sich Aiko nicht mehr zu nähern. Und doch steht er kurz darauf wieder vor ihrer Haustür. Es ist die eingangs geschilderte Szene. Aiko ruft die Polizei und Tom landet noch einmal für fast zwei Monate in Untersuchungshaft.

Am 24. September 2025 verurteilt das Amtsgericht Tiergarten Tom wegen Nachstellung zu sechs Monaten Haft auf Bewährung. Er gesteht die Vorwürfe, will das Urteil aber nicht akzeptieren und geht in Berufung. Das Verfahren läuft.

Das Ende?

Ende Januar 2026 steht Tom noch einmal vor Gericht, diesmal in der Stadt, in der er und Aiko zuvor gewohnt haben. Es geht um die Geschehnisse, die vor ihrem Umzug stattfanden. Und anders als in Berlin geht es diesmal auch um mSpy: In ihrer Anklageschrift wegen Nachstellung erwähnt die Staatsanwaltschaft auch eine Software, die Tom auf Aikos Handy installiert habe, um ihren Standort zu verfolgen und „gezielte Zusammenkünfte herbeizuführen“.

Während ihrer Aussage kommen Aiko immer wieder die Tränen. Sie spricht dennoch weiter.

Tom gesteht alle Vorwürfe. Er bekommt ein Jahr und vier Monate Haft, keine Bewährung. In ihrem Urteil spricht die Richterin von einer „sehr hohen kriminellen Energie“. Sie erwähnt die Spionage-Software, die Nachrichten an den Kundendienst. „Die Skrupellosigkeit, die Sie da an den Tag gelegt haben, das ist besonders und zeigt eine besondere Rücksichtslosigkeit.“

Das Urteil ist noch nicht rechtskräftig. Tom sagte bei einem Telefonat mit netzpolitik.org, dass er Berufung einlegen will. Aiko sagt, für sie sei es wichtig gewesen, dass ihre Realität anerkannt wurde. Befreit fühle sie sich aber nicht, sondern vor allem: erschöpft.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

David gegen Goliath: Überwachungskonzern Palantir verklagt die „Republik“

Von: Markus Reuter

Der Großkonzern Palantir geht presserechtlich gegen das Schweizer Magazin „Republik“ vor. Das hatte in Recherchen nachgezeichnet, warum die Systeme des Unternehmens problematisch für Staaten und deren Souveränität sind. Das Magazin will sich von der Klage nicht einschüchtern lassen.

Ein Mann in einem Anzug sitzt vor einem Publikum mit dem Logo des Weltwirtschaftsforums im Hintergrund. Der Mann hat eine Hand in der Jackentasche und zieht eine Grimasse.
Palantir Geschäftsführer Alex Karp beim World Economic Forum in Davos. – Alle Rechte vorbehalten IMAGO / Avalon.red

Der Überwachungskonzern Palantir verklagt das Republik Magazin wegen dessen Berichterstattung und verlangt eine Gegendarstellung. Das gab heute die Journalistin Adrienne Fichter in sozialen Medien bekannt, ein Sprecher von Palantir bestätigte den Vorgang gegenüber netzpolitik.org.

Im Dezember hatte das Magazin berichtet, wie Palantir versuchte, in der Schweiz Fuß zu fassen – und wie das Schweizer Militär eine Zusammenarbeit ablehnte, weil es unter anderem zum Schluss kam, dass ein Abfluss von Daten aus den Palantir-Systemen technisch nicht verhindert werden könne.

Wenige andere Medien haben in letzter Zeit so viel und so detailliert über Palantir berichtet wie das kleine leser:innenfinanzierte Schweizer Magazin mit seinen 30.000 Abonnent:innen. Palantir hingegen ist ein milliardenschwerer Überwachungs- und Datenkonzern, dessen Software zahlreiche Polizeibehörden, Militärs und Geheimdienste weltweit verwenden. Auch in Deutschland arbeiten Polizeien mit dem Unternehmen zusammen. Obwohl der Einsatz der Software von Palantir höchst umstritten ist, schaffen hierzulande neue Polizeigesetze gerade die rechtliche Grundlage für den ausgeweiteten Einsatz derartiger Software.

Das Unternehmen Palantir gehört unter anderem dem rechtsgerichteten Oligarchen Peter Thiel, der aus seiner Verachtung für die Demokratie kein Geheimnis macht. Die Systeme des Konzerns helfen Trumps Polizeitruppe ICE bei ihren Abschiebe-Einsätzen und dem israelischen Militär bei dessen Kriegen. Palantir wird dem „Authoritarian Stack“ zugerechnet, also privatwirtschaftliche Unternehmen, die zunehmend in staatliche Kontroll- und Überwachungssysteme eingreifen und diese übernehmen.

Schweizer Militär warnte vor Sicherheitsrisiken

Offenbar macht investigativer Journalismus den Überwachungsriesen nervös: Im Dezember hatte Republik eine zweiteilige Recherche veröffentlicht, in der das Medium nachzeichnete, wie der Überwachungskonzern um unterschiedliche Schweizer Behörden geworben hatte. Grundlage der Recherche waren Dokumente, die das Rechercheteam durch Informationsfreiheitsanfragen erhalten hatte. Trotz sieben Jahren Klinkenputzen gelang es Palantir demnach nicht, einen Vertrag mit Schweizer Institutionen und Behörden abzuschließen.

Die Republik fand dabei etwa heraus, dass der Generalstab der Schweizer Armee die Software evaluiert hatte und zu dem Schluss gekommen war, dass die Armee auf den Einsatz von Palantir-Produkten verzichten sollte. Die Militärexperten fürchteten, dass ein Abfluss von Daten aus den Palantir-Systemen hin zu US-amerikanischen Geheimdiensten wie CIA und NSA technisch nicht verhindert werden könne.

Die Recherche fand international Widerhall, auch der Guardian berichtete. Britische Abgeordnete verwiesen auf die Schweizer Einschätzung. „Ich denke, die Schweizer Armee hat das Recht, misstrauisch zu sein“, sagte etwa der Labour-Abgeordnete Clive Lewis.

Weltpolitik vor dem Handelsgericht

Gegen diese Berichterstattung hatte Palantir laut der verantwortlichen Tech-Reporterin Adrienne Fichter in der Weihnachtszeit einen Blogbeitrag bei LinkedIn in Stellung gebracht, in dem der Palantir-Manager Courtney Bowman der Republik unter anderem Verzerrungen, Andeutungen und grenzwertige Verschwörungstheorien vorwarf. Am 29. Dezember verlangte Palantir Fichter zufolge dann per Anwaltsschreiben eine Gegendarstellung in der Republik. Das lehnte das Magazin nach eigener Aussage ab. Im Januar wiederholte der Konzern demnach seine Forderung. Die Republik lehnte wieder ab. Nun zieht Palantir also vor das Handelsgericht in Zürich um eine Gegendarstellung durchzusetzen.

Adrienne Fichter schreibt, dass der Krieg, den die autoritäre Tech-Oligarchie gegen die Medien führe, mit der Klage eine neue Stufe erreicht habe. Palantir wolle nicht, dass die Republik die Wahrheit schreibe. Die Berichterstattung mache das Unternehmen nervös. „Selbstverständlich haben wir uns stets an die hohen Standards journalistischer Arbeit gehalten. Vor der Veröffentlichung haben wir eine gründliche Faktenprüfung durchgeführt“, so Fichter weiter. Die Recherchen in Bezug auf die Schweiz und Zürich basierten neben den eigenen Erkenntnissen zudem auf der Berichterstattung renommierter Medien.

Laut Fichter hat die Republik eine „umfassende Verteidigungsschrift“ eingereicht. „Alle unsere Feststellungen können wir mit verschiedenen Dokumenten und öffentlich zugänglichen Medienberichten belegen.“ In Zürich werde nun vor dem Gericht bald Weltpolitik verhandelt, so Fichter weiter. Für sie ist klar: „Wir lassen uns nicht einschüchtern.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Datenaustausch über psychisch erkrankte Menschen: Die Rückkehr zur Registrierung

Von: Anna Biselli

Schon vor mehr als 50 Jahren gab es Streit darüber, ob Behörden Daten über Menschen sammeln sollen, die als psychisch krank gelten. Doch während sich damals ein Konsens für mehr Teilhabe und gegen Stigmatisierung bildete, hat sich heute etwas verändert.

Menschenmenge von hinten fotografiert, drei Personen sind mit einem roten Kreis markiert.
Stigmatisierung führt zu Ausgrenzung und Diskriminierung – Gemeinfrei-ähnlich freigegeben durch unsplash.com davide ragusa, Bearbeitung: netzpolitik.org

In einem Scheidungsverfahren streiten sich zwei Ehepartner um das Sorgerecht für die gemeinsamen Kinder. Die Frau sagt, ihr Mann sei psychisch krank und meldet das ans Gesundheitsamt. Das spricht mit dem Mann und attestiert ihm „psychotisches Verhalten mit paranoider Symptomatik“. Als später gemeinsame Bekannte des bisherigen Ehepaars anonyme Briefe erhalten, verdächtigen sie den Mann und zeigen ihn bei der Polizei an. Im Hintergrund erkundigt sich die Staatsanwaltschaft beim Gesundheitsamt über ihn und kommt zum Ergebnis, dass der Angezeigte wohl schuldunfähig sei. Die Staatsanwaltschaft stellt das Verfahren ein. Das meldet sie an das Bundeszentralregister – eine Datei, die vor allem Informationen über strafrechtliche Verurteilungen, aber auch zu Verfahrenseinstellungen wegen Schuldunfähigkeit enthält. Von all dem bekommt der Mann nichts mit.

Als er, der ausländischer Staatsbürger ist, später in Deutschland eine berufliche Zulassung als Arzt beantragt, wird diese abgelehnt. Weil er psychisch krank sei.

Das ist kein theoretisches Szenario, sondern die Geschichte eines Menschen, der im Jahr 1987 Probleme bekam, weil Daten zu einer angeblichen psychischen Erkrankung in einer staatlichen Datensammlung gespeichert waren. Der Fall zeigt eindrücklich, welche Probleme derartige Eintragungen in Register schon vor fast 40 Jahren verursacht haben. Und er lehrt uns, dass es bereits seit vielen Jahren politische und gesellschaftliche Auseinandersetzungen über die behördliche Erfassung von Menschen gibt, die als psychisch erkrankt gelten. Die Diskussion reicht weit zurück bis in die 1970er-Jahre. Doch der Blick in die Vergangenheit zeigt uns, was damals anders war, und wirft die Frage auf, warum wir heute die Lehren aus dieser Geschichte vergessen zu haben scheinen.

An Fahrt gewann die gegenwärtige Diskussion mit der Forderung von CDU-Generalsekretär Carsten Linnemann vor etwa einem Jahr, im Dezember 2024. „Ich meine, wir haben große Raster angelegt für Rechtsextremisten, für Islamisten, aber offenkundig nicht für psychisch kranke Gewalttäter“, sagte Linnemann im Interview mit dem Deutschlandfunk. „Es reicht nicht aus, Register anzulegen für Rechtsextremisten und Islamisten, sondern in Zukunft sollte das auch für psychisch Kranke gelten.“

Auf der Suche nach einer Erklärung

Linnemanns Forderung nach einer staatlichen Datensammlung vorausgegangen war ein Anschlag auf den Magdeburger Weihnachtsmarkt, bei dem sechs Menschen starben und mehr als 300 weitere verletzt wurden. Der Täter in Magdeburg war nicht die einzige Person, die in jüngster Vergangenheit Gewalttaten verübt hat und bei der schnell über eine psychische Erkrankung spekuliert und berichtet wurde. Die Taten sind uns unter den Namen der Orte bekannt, an denen sie passierten: Magdeburg, Mannheim, Aschaffenburg, Hamburg sind vier davon.

Im Anschluss suchten viele nach Erklärungen und nach Wegen, solche schrecklichen Ereignisse zu verhindern. Linnemann und andere aber richteten erheblichen Schaden an, indem sie psychische Erkrankungen und Gewalt in einen bis zur Unkenntlichkeit entstellten Zusammenhang setzten. Denn klar ist: Erfasst hätte den Täter Taleb A. ein Register für Gewalttäter mit psychischen Erkrankungen nicht. Denn obwohl sich schnell nach der Tat wegen seiner Äußerungen auf Social-Media-Plattformen und zahlreichen Kontaktversuchen zu verschiedenen Behörden Mutmaßungen zu seiner psychischen Verfassung verbreiteten: Eine psychiatrische Diagnose lag bei A., der selbst als Psychiater gearbeitet hatte, offenbar nicht vor. Bei verschiedenen Behörden war er dennoch aufgefallen, es hatte Gefährderansprachen gegeben, A. war wegen der Androhung von Straftaten verurteilt worden. Im „Raster“, wie Linnemann es nannte, war A. also offenbar längst gewesen. Verhindern konnte das seine Tat damals nicht.

Die ursprünglich von Linnemann verbreitete Registeridee schien nach einem Aufschrei von Psychiatrieerfahrenen und medizinischen Fachleuten aber zunächst vom Tisch. Fast wie bei der vorangegangenen Registerdiskussion aus dem Jahr 2018 in Bayern, als die CSU-Landesregierung das dortige Psychisch-Kranken-Hilfe-Gesetz reformierte. Ursprünglich sollte in diesem Zug eine sogenannte Unterbringungsdatei eingeführt werden.

Porträtfoto von Brigitte Richter
Brigitte Richter engagiert sich seit vielen Jahren für Menschen mit psychischen Belastungen. - Alle Rechte vorbehalten privat

„Wir sind da komplett an die Decke gegangen“, erzählt Brigitte Richter heute im Rückblick. „Die wollten ein Register einführen, in dem Zwangseinweisungen eingetragen sind, auf die Behörden wie die Polizei dann fünf Jahre lang hätten zugreifen können.“ Als Ziel dieser Zwangseinweisungen schrieb die Landesregierung ins Gesetz: „Ziel der Unterbringung ist die Gefahrenabwehr.“ Erst danach, als „weiteres Ziel“, stand die Besserung des Zustandes der Eingewiesenen.

„Die Grundidee ist noch nicht überwunden“

Richter, die heute 76 Jahre alt ist, hat selbst seit mehr als einem halben Jahrhundert Psychiatrieerfahrungen gemacht. Seit vielen Jahren engagiert sie sich unter anderem im Verein Pandora für die Selbsthilfe von Menschen mit psychischen Problemen und seelischen Belastungen. Sie stellt sich hartnäckig Missständen entgegen. „Druck erzeugt Gegendruck“, nennt Richter das. Bei der Reform des bayerischen Psychisch-Kranken-Hilfe-Gesetzes vor acht Jahren hat das nach vielfältigen Protesten offenbar geklappt. Die Paragrafen zur „Unterbringungsdatei“ wurden aus dem Entwurf gestrichen. „Man muss deutlich sein und protestieren, aber konstruktiv bleiben“, rät Richter und fügt lachend hinzu: „Das nennt man dann, glaube ich, Diplomatie.“

Auch heute scheint die Forderung nach einem Register wieder vom Tisch – zumindest das Wort taucht in der öffentlichen Debatte nur noch selten auf. Doch etwas ist anders als damals in Bayern. „Es ist gut, dass niemand mehr von Registern spricht“, sagt Dr. Kirsten Kappert-Gonther. Die Fachärztin für Psychiatrie und Psychotherapie ist seit 2017 Bundestagsabgeordnete für die Grünen und deren Obfrau im Gesundheitsausschuss. Man habe eine Sensibilität dafür entwickelt, dass Register etwas Schädliches wären. „Aber die Grundidee hinter den Registern“, schränkt Kappert-Gonther den Optimismus ein, „die ist leider noch nicht überwunden“.

Während Politiker:innen also mittlerweile den Register-Begriff meiden, suchen sie nach anderen Wegen, um Daten über psychisch erkrankte Menschen für Behörden zugänglich zu machen. Die Konferenz der Gesundheitsminister:innen hat im vergangenen Sommer beschlossen, dass rechtliche Rahmenbedingungen sowie erforderliche Anpassungen und Verantwortlichkeiten geprüft werden sollen, etwa um Gesundheitsdaten und Erkenntnisse der Gefahrenabwehrbehörden auszutauschen. Auch die Innenministerkonferenz berät zu dem Thema, das Schlagwort dafür heißt „integriertes Risikomanagement“. Dabei gehe es darum, „dass den Sicherheitsbehörden die für sie relevanten Informationen der Gesundheitsbehörden“ zugänglich gemacht werden, heißt es in einem Beschluss aus dem Juni 2025. Es müsse bei relevanten Hinweisen eine „gemeinsame Risikobewertung“ erfolgen.

Länder, die Tatsachen schaffen

Während eine Bund-Länder-Arbeitsgruppe „Früherkennung und Bedrohungsmanagement“ weiter an dem Thema arbeitet, schaffen einige Länder beim Datenaustausch bereits Tatsachen. Es lassen sich dabei zwei Grundrichtungen beobachten.

Hessen beispielsweise verabschiedete im vergangenen Dezember ein neues Psychisch-Kranken-Hilfe-Gesetz. Das verpflichtet Ärzt:innen, entlassene Patient:innen an die Polizei zu melden, wenn diese zuvor wegen befürchteter Fremdgefährdung zwangseingewiesen worden waren und sie „in absehbarer Zeit ohne ärztliche Weiterbehandlung“ wieder zu einer Gefahr werden könnten. Niedersachsen schlägt einen ähnlichen Weg ein, das entsprechende Gesetz wird bald im Landtag debattiert.

Hamburg hingegen setzt statt verpflichtender Meldung und Datenaustausch vor allem auf anlassbezogenes Handeln. Grundgedanke im Modell der Hansestadt ist, dass die Innen-, Sozial- und Justizbehörden jeweils eine Fallkonferenz einleiten können, um über mögliche Hilfen und Konsequenzen für eine Person zu beraten. Und zwar immer dann, wenn sie einen Handlungsbedarf sehen, der ihre eigenen Kompetenzen und Kapazitäten überschreitet. Eine Mitarbeitende der Hamburgischen Sozialbehörde berichtete auf einem Kongress für Psychiatrie und Psychotherapie im November 2025 davon, dass so seit Start des Systems im August 2025 über insgesamt drei Personen gesprochen worden sei.

All diese Regelungen gelten jedoch allein im einzelnen Bundesland. Daher hat Niedersachsen eine Initiative in den Bundesrat eingebracht, der die Länderkammer am 30. Januar zustimmte. „Menschen mit psychischen Erkrankungen schützen, Gefahrenpotenziale erkennen durch bundesweiten Austausch“ lautet der Titel der Entschließung. Der Bundesrat fordert darin von der Bundesregierung, „insbesondere den Austausch von Gesundheitsdaten und den Erkenntnissen der Gefahrenabwehrbehörden unter datenschutzrechtlichen Vorgaben zu prüfen“ und Gesetze anzupassen. „Erkenntnisse zwischen Sicherheits-, Gesundheits-, Waffen- und gegebenenfalls anderen relevanten Behörden“ sollen bundesweit besser vernetzt werden, „um Risikopotenziale bei Personen mit psychischen Auffälligkeiten möglichst frühzeitig zu erkennen“.

Die Entschließung ähnelt dem Tenor der Innenministerkonferenz, auch wenn für den niedersächsischen Vorstoß insbesondere das Gesundheits- und Sozialministerium des Landes zuständig war.

Neben dem Datenaustausch fordert der Bundesrat eine bessere „medizinische und rehabilitative Versorgung von Menschen mit schweren psychischen Erkrankungen“. Auch der niedersächsische Gesetzentwurf spart das Thema Hilfe nicht aus und will erreichen, dass etwa sozialpsychiatrische Dienste rund um die Uhr erreichbar sein sollen. Selbst den Namen des Gesetzes passte die Landesregierung nach einer Verbändeanhörung an: „Die Terminologie wurde – in Einklang mit vergleichbaren Gesetzen der anderen Bundesländer – zu NPsychKHG geändert. H steht für Hilfen“, heißt es in einer Pressemitteilung.

Ein Gesundheitsthema wird zum Sicherheitsproblem gemacht

Doch das kann nicht verbergen, dass es im Mittelpunkt der Entwürfe um etwas anderes geht: um „Gefahrenabwehr“. Und so wird die Frage nach psychischer Verfassung sowohl in Gesetzen als auch in der öffentlichen Wahrnehmung immer mehr von einem Gesundheits- zu einem Sicherheitsthema gemacht.

Porträt von Georg Schomerus
Georg Schomerus forscht zu Stigmata. - Alle Rechte vorbehalten Stefan Straube, Universitätsklinikum Leipzig

„Das ist mittlerweile eine ganz andere Diskussion als damals 2018 zu dem Gesetz in Bayern“, sagt Prof. Dr. Georg Schomerus zu den Register- und Datenspeicherungsdiskussionen der letzten Monate. Der Direktor der Klinik und Poliklinik für Psychiatrie und Psychotherapie am Universitätsklinikum Leipzig erforscht seit vielen Jahren die Einstellung in der Bevölkerung zu psychischen Erkrankungen. Eine der Ursachen für die Diskussionsverschiebung sieht er darin, dass sich „die politische Landschaft“ verändert habe. Der rechte Rand erstarke, autoritäre Werte seien wieder in Mode, Gesetzgebung und Gesellschaft formten sich gegenseitig. „Die gesellschaftliche Stimmung treibt die Gesetzgebung“, so Schomerus. „Gleichzeitig schafft die Gesetzgebung Realitäten, die dann Normalität werden und die Stimmung beeinflussen.“

Diese Entwicklung betrachtet auch die Bundestagsabgeordnete Kirsten Kappert-Gonther von den Grünen mit Sorge. Als Ärztin sei sie in Zeiten der Psychiatriereform-Bewegung sozialisiert worden, erzählt die Parlamentarierin, die sich auch als Vorsitzende des Vereins „Aktion Psychische Kranke“ engagiert. „Viele Jahre lang hat sich der Diskurs um psychische Erkrankungen langsam, aber stetig geöffnet und vermenschlicht“, sagt sie. Es sei gesellschaftlicher Konsens gewesen, so Kappert-Gonther, dass man Menschen mit schweren psychischen Erkrankungen nicht wegsperren sollte.

50 Jahre nach einem Meilenstein der Psychiatriereform

Dass sich diese Überzeugung durchsetzte, daran hatte die Psychiatrie-Enquete aus den 1970er-Jahren einen wichtigen Anteil. Sie gilt bis heute als Meilenstein der Psychiatrie-Entwicklung in der Nachkriegsgeschichte. Während die Nationalsozialisten an der Macht waren, haben sie systematisch Menschen vernichtet, die als psychisch krank galten. Sie ermordeten sie, viele kamen durch Medikamente und Hunger zu Tode. Hunderttausende wurden zwangssterilisiert. Doch nach den Verbrechen der Nazi-Zeit brauchte es noch lange, bis die Psychiatrie sich grundlegend reformierte.

„In den Chefetagen saßen dieselben Männer wie zuvor – Männer, die Teil eines menschenverachtenden Systems gewesen waren“, sagte Kappert-Gonther in einer Rede, 80 Jahre nach dem Ende des Zweiten Weltkriegs und 50 Jahre nach dem Abschlussbericht der Psychiatrie-Enquete. „Der Geist des Sozialdarwinismus lebte fort.“ Psychiater, die im Nationalsozialismus Täter waren, wurden noch im Nachkriegsdeutschland der 60er als Sachverständige in den Bundestagsausschuss für Wiedergutmachung berufen und rechtfertigen dort ihre Taten, sodass etwa Zwangssterilisierte keine Entschädigungszahlungen bekamen.

1971 setzte die Bundesregierung dann im Auftrag des Bundestages eine Sachverständigen-Kommission ein, die Psychiatrie-Enquete. Sie sollte Vorschläge für eine Reform der psychiatrischen Versorgung in Deutschland erarbeiten. Die Zustände in den Kliniken waren bis dahin vielerorts menschenunwürdig. Im Mittelpunkt standen nicht Therapieangebote, sondern Verwahrung. Patient:innen verbrachten oftmals viele Jahre von jeglicher sozialer Teilhabe ausgeschlossen in überfüllten Groß-Anstalten, einer Bettenburg gleich. Fast die Hälfte aller Patient:innen in psychiatrischen Kliniken war dort 1973 mehr als fünf Jahre in Behandlung, fast ein Drittel länger als zehn. Es fehlte an Pflege, Sozialarbeiter:innen und psychologischen Fachkräften. So sollte es nicht weitergehen.

Die Enquete-Kommission legte 1975 ihren Abschlussbericht vor. Im Mittelpunkt stand ein Wandel – von der ewigen Hospitalisierung und Aufbewahrung fernab der Mehrheitsgesellschaft hin zu einer ambulanten und gemeindenahen Versorgung. Von den geschlossenen Unterbringungen in Großanstalten zu kleinen und offenen Stationen. Körperlich und psychisch Kranke sollten gleichgestellt sein.

Datenschutz für die Psyche

Weniger bekannt, aber ebenso deutlich waren die Äußerungen derselben Enquete-Kommission zum Umgang mit Daten über psychisch erkrankte Personen. In ihrem Abschlussbericht fordern die Sachverständigen „ausreichende Sicherungen gegen eine unbefugte Verwertung personenbezogener Daten“ und schreiben: „Das Datenschutzbedürfnis des psychisch Kranken und Behinderten ist gegenüber dem somatisch Kranken differenzierter und weiterreichend.“ Das begründen sie etwa mit dem großen Personenkreis, der in die oft „langfristige Behandlung und Rehabilitation“ involviert ist. Dadurch würden viele zu „Geheimnisträgern“, aber: „Die Möglichkeit des unbegrenzten Zugriffs aller dieser ‚Geheimnisträger‘ zu allen Daten des Kranken dürfte wohl kaum zu verantworten sein.“

Die Kritik der Psychiatrie-Enquete richtet sich auch gegen Vorschriften zum Bundeszentralregister. Also gegen jene Datensammlung, die für den Mann vom Anfang dieses Textes in den 80er-Jahren zum Problem wurde.

Ursprünglich standen in diesem Bundeszentralregister noch mehr Daten als heute, die einen Hinweis auf die psychische Verfassung einer Person geben. Laut der ersten Fassung, die 1971 Gesetz wurde, waren auch Zwangsunterbringungen Teil des Registers. Ebenso sollte dort vermerkt werden, wenn „jemand auf Grund landesrechtlicher Vorschriften wegen Geisteskrankheit, Geistesschwäche, Rauschgift- oder Alkoholsucht in eine geschlossene Anstalt endgültig eingewiesen wird“. Das Bundeszentralregister wurde damals neu errichtet. Es sollte die vielen einzelnen Strafregister der Bundesrepublik zusammenführen, die zuvor über verschiedene Staatsanwaltschaften verstreut waren. Im Kapitel „Registrierung psychisch Kranker“ des Enquete-Abschlussberichts schreiben die Sachverständigen:

Um so überraschender ist es, daß das BZRG [Bundeszentralregistergesetz], bei aller Liberalität im übrigen, jedenfalls in einem wesentlichen Punkt ein zentrales Problem des Gesamtkomplexes, nämlich die Gleichstellung von psychisch Kranken mit anderen Kranken, die heute weitgehend anerkannt und in zahlreichen Gesetzen oder Gesetzentwürfen ausdrücklich verankert ist, gründlich verkannte oder doch mißachtete.

Kein Grund für einen Registereintrag

Eine solche Registrierpflicht für psychisch Kranke, die nach Landesrecht zwangsuntergebracht sind, könne nicht hingenommen werden. Sie nehmen an, dass „ein gesetzgeberischer Irrtum hinsichtlich der tatsächlichen Voraussetzungen vorliegt, die das Bedürfnis für die Registrierung begründen sollen“. Eine pauschale Registrierung brauche es nicht, denn, so schreibt die Enquete:

Die meisten Zwangseingewiesenen sind keineswegs gefährlicher als die 80 oder 90 Prozent anderer Krankenhauspatienten oder als zahllose Bürger, die in Freiheit leben.

Schon Anfang der 70er-Jahre schrieb der Psychiater und Psychiatriehistoriker Klaus Dörner, der als einer der Wegbereiter der Psychiatriebewegung gilt, zu den Protesten gegen das Bundeszentralregistergesetz von 1971, dass man „feststellen wird, daß solange keine fortschrittlich veränderten Gesetze zustandegebracht werden, so lange die zugrundeliegenden gesellschaftlichen Verhältnisse nicht fortschrittlich verändert sind.“ Und er schließt mit einem Satz, der heute, rund fünfzig Jahre später, an Gültigkeit nicht verloren hat: „Und was Fortschritt ist, ist wenigstens in diesem Fall klar.“

Wir sehen hier, dass es bereits damals eine Auseinandersetzung mit der vermeintlichen Gefährlichkeit von Personen gab, die als psychisch krank eingestuft wurden. Dass man schon damals davon ausging, dass ein einfacher Zusammenhang weder existiert noch hilfreich ist.

Mit dem Abschlussbericht der Sachverständigen der Psychiatrie-Enquete bekam diese Haltung noch mehr Gewicht. Und 1976, ein Jahr nach der Kritik im Abschlussbericht der Psychiatrie-Enquete, strich die Bundesregierung dann den Paragrafen, der Einweisungen nach Landesrecht in die Datensammlung holte – ersatzlos. Dem Arzt vom Anfang indes half das ein Jahrzehnt später nicht, denn die Schuldunfähigkeitsvermerke blieben und sind weiter ein Teil des Bundeszentralregisters.

Wie der Fall des Arztes letztlich ausgegangen ist und ob er am Ende doch noch eine Approbation bekam, lässt sich heute nicht mehr ohne weiteres rekonstruieren. Was sich aber nachvollziehen lässt, ist die Entrüstung, die auf die Veröffentlichung der Vorfälle folgte. Zahlreiche Medien, von der taz bis zur Offenbach-Post, berichteten kritisch über die Datenspeicherung, die ohne das Wissen des Betroffenen erfolgt war. Die Reaktionen zeigen, dass es zwölf Jahre nach dem Enquete-Abschlussbericht eine hohe Sensibilität gegenüber der Erfassung vermeintlich psychisch Erkrankter gab.

Nur wenige dieser Zeitzeugnisse sind digital verfügbar. Doch sie sind im Rahmen einer Präsenzbibliothek im „Berliner Archiv für Sozialpsychiatrie“ zugänglich, wo engagierte Menschen ehrenamtlich Literatur, Dokumente und Medien über die Entwicklung der Sozial- und Gemeindepsychiatrie in Deutschland sammeln und archivieren.

Der Justizminister hört zu

In dem Archiv lässt sich nachvollziehen, wie die Deutsche Gesellschaft für Soziale Psychiatrie (DGSP) sich des Themas annahm. Seit den 1970er-Jahren bis heute setzt sich die DGSP für eine personen- und bedürfniszentrierte soziale psychiatrische Versorgung ein. Sie versuchte damals herauszufinden, wie viele Personen von einer ähnlichen Speicherung betroffen sind, und wandte sich dafür an den Generalbundesanwalt, der für das Bundeszentralregister zuständig war.

Der Generalbundesanwalt teilte mit, dass im Bundeszentralregister 72.110 Personen eingetragen seien, bei denen die Staatsanwaltschaft ein Ermittlungsverfahren wegen Schuldunfähigkeit eingestellt hatte. Bei 1.901 Personen sei ein Eintrag nach einer Einstellung vor Gericht erfolgt.

Die DGSP kritisierte das und vermutete, dass für viele der Eintragungen lediglich die Einschätzung eines Gesundheitsamtes maßgeblich gewesen sei, ohne dass ein entsprechendes psychiatrisches Gutachten vorliege.

„Es ist einfach unerträglich, dass im Bundeszentralregister ein Leben lang das Etikett ’schuldunfähig‘ gespeichert wird – und der Betroffene weiß nicht einmal etwas davon“, sagte damals DGSP-Sprecher Josef Schädle. Das sei ein „unverantwortlicher Schlag“ gegen Rehabilitationsbemühungen für psychisch erkrankte Menschen.

Auch an den damaligen Justizminister Hans Engelhard von der FDP wandte sich die DGSP. Der verteidigte zwar die Speicherung und verwies in einem Antwortschreiben an die DGSP darauf, dass der Bundesdatenschutzbeauftragte laufend Kontrollen zum Register durchführe. Dabei habe er „ein erfreulich hohes Niveau des Datenschutzes“ beim Generalbundesanwalt festgestellt. Gleichzeitig verspricht der Justizminister aber, das Problem der Benachrichtigungen in eine angestrebte Novellierung des Bundeszentralregistergesetzes aufzunehmen.

Heute sind diese Benachrichtigungen im Bundeszentralregistergesetz fest vorgeschrieben. Auch die Hürden für einen Eintrag zur Schuldunfähigkeit sind gestiegen und setzen mittlerweile ein medizinisches Sachverständigengutachten voraus.

Entmündigung im Melderegister

Rund zehn Jahre vor der Diskussion über Schuldunfähigkeitseinträge wurde bereits über ein anderes Register diskutiert, in dem ursprünglich jede Menge sensible Daten landen sollten. In einem Gesetzentwurf aus dem Jahr 1977 war geplant, bestimmte Zwangsunterbringungen in psychiatrischen Krankenhäusern im Melderegister zu speichern, genau wie Informationen über „Pflegschaft“, „vorläufige Vormundschaft“ und „Entmündigung“. Das führte zu Protesten, die Schwäbische Zeitung titelte: „Das neue Bundesmeldegesetz diskriminiert psychisch Kranke auf unerträgliche Weise“.

Neben Daten über Einweisungen und Vormundschaften sollten laut dem damaligen Entwurf des FDP-Innenministers Werner Maihofer Dutzende weitere private Informationen im Melderegister gespeichert werden, darunter Scheidungsgründe und Lohnsteuerinformationen. „Gläserner Mensch“ titelte der Spiegel dazu im Februar 1978 und vergleicht es mit den „Orwellschen Schreckensvisionen von 1984“, die Angst vor einem Personenkennzeichen ging um.

Das Maihofersche Meldegesetz war eine Reaktion auf die Versuche, mit Anschlägen und Entführungen durch die Rote Armee Fraktion umzugehen. Die Eintragungen über Unterbringungen und Entmündigungen dienten jedoch einem anderen Zweck: Die betroffenen Personen waren vom Wahlrecht ausgeschlossen und sollten dementsprechend etwa beim Versand von Wahlbenachrichtigungen erkannt werden. Der Ausschluss von Wahlen ist diskriminierend, weil er von politischer Teilhabe ausschließt, und endete für betreute und wegen Schuldunfähigkeit untergebrachte Menschen erst nach einer Entscheidung des Bundesverfassungsgerichts im Jahr 2019.

Die geplante Aufnahme von Unterbringungen und anderem in das Melderegister alarmierte in den 70ern die Saarländische Gesellschaft für Soziale Psychiatrie. „Durch die Nähe der stationären Behandlung zu amtlichen Bereich, zur staatlichen Kontrolle, entstehen Angst und wieder mehr Vorurteile gegen die psychiatrische Behandlung“, schreibt sie April 1978 in einer öffentlichen Stellungnahme. Das habe zur Folge, dass „die Patienten sich von Nicht-Fachleuten behandeln lassen oder zu spät in Behandlung kommen“.

Die Kritik von vor 50 Jahren bleibt aktuell

Der saarländische Verband weist auch darauf hin, dass dies die Gleichstellung psychisch Kranker mit körperlich Kranken, die noch von der Enquete als zentrale Forderung formuliert worden war, „gesetzlich verhindert“: „Vorurteile gegenüber dieser Gruppe, die sowohl krankmachend als auch krankheitserhaltend wirken, werden deshalb leichter aufgebaut und verstärkt.“ Die DGSP veröffentlichte ebenfalls eine Stellungnahme und warnte davor, dass durch die Registrierung das Vertrauensverhältnis zwischen Patient:innen und Ärzt:innen „erschüttert“ werde: „Die Chancen der Rehabilitation verschlechtern sich, denn außerhalb des Krankenhauses bleibt die Tatsache behördlich feststellbarer psychischer Auffälligkeit.“

Die Bundesregierung zog Maihofers Vorschlag zurück, kurz darauf legte der sein Amt als Innenminister nieder – jedoch vor allem wegen des polizeilichen Fahndungsversagens bei der Entführung von Hanns Martin Schleyer durch die RAF, der letztlich ermordet wurde. Maihofers Parteikollege und Nachfolger, der Bürgerrechtler Gerhart Baum, ging einen anderen Weg, nachdem er seine Meinung aus seiner Zeit als parlamentarischer Staatssekretär geändert hatte. In Baums Amtszeit trat 1980 erstmals ein Melderechtsrahmengesetz in Kraft, ohne jegliche Speicherung von Betreuungen oder Einweisungen.

Die Kritik der Fachleute von damals ähnelt derjenigen an den heutigen Plänen zu Registern, Datenspeicherung und -austausch. Doch damals, so wirkt es rückwirkend betrachtet, haben die verantwortlichen Politiker:innen auf Mahnungen von Fachleuten gehört. Neue Gesetze, um Daten über Menschen mit einer psychiatrischen Diagnose in Behörden zu sammeln und zusammenzuführen, waren in den darauffolgenden Jahrzehnten keine ernstgenommene Forderung mehr.

Ein gesellschaftlicher Konsens bröckelt

Die Gleichstellung von körperlich und psychisch Erkrankten und der Abbau von Stigmatisierung waren nach der Enquete in den 70ern ein gemeinsames Ziel, wenngleich es bis heute nicht vollständig erreicht worden ist. Menschenrechtliche Kritik an der Psychiatrie bleibt zahlreich: zu viel Zwang, zu wenig Autonomie sind häufige Vorwürfe.

Porträt von Kirsten Kappert-Gonther
Kirsten Kappert-Gonther ist Bundestagsabgeordnete und Ärztin für Psychiatrie und Psychotherapie. - CC-BY-SA 4.0 Rafael P. D. Suppmann

Dennoch: „Es hat viele Jahrzehnte diesen gesellschaftlichen Konsens gegeben, dass man mehr Teilhabe und weniger Stigmatisierung wollte“, sagt Kappert-Gonther, die selbst an Reformen in Kliniken mitgearbeitet hatte.

Doch heute, so Kappert-Gonther, erlebe man einen Backlash. Das gesellschaftliche Klima bewege sich in Richtung „Us and them, wir und die“, Menschen distanzieren sich von denen, die sie als „anders“ wahrnehmen. Es fällt ihr nicht schwer, jede Menge Ereignisse aufzuzählen, die das befeuern: „Es kam die Corona-Pandemie, dazu die Klimakrise, Kriege und eine zunehmende Faschisierung“, deren vorläufigen Höhepunkt sie im Agieren von Donald Trump sieht. All das bringe auch eine zunehmende Aggressivität mit sich, die sich etwa in einer steigenden Anzahl registrierter Gewalttaten widerzuspiegeln scheint.

„Psychische Erkrankungen werden heute schneller mit Kriminalität in Verbindung gebracht“, sagt die Abgeordnete. Das sei aber nicht alles: „Gewalt und Kriminalität werden psychopathologisiert.“ Damit meint Kappert-Gonther, dass gesellschaftliche Problemlagen wie zunehmende Aggressivität vorrangig mit psychischen Problemen begründet und andere Ursachen dabei ausgeblendet würden. „Dabei gibt es keine Erkrankung, die direkt zur Kriminalität führt.“

Gegen Aggressivität hilft keine Psychiatrie allein

Tatsächlich geht von psychisch Erkrankten in der Regel kein höheres Gewaltrisiko aus als von Menschen ohne eine entsprechende Diagnose. Und wenn eine psychisch erkrankte Person eine Gewalttat begeht, besteht längst nicht in jedem Fall ein Zusammenhang. Menschen mit psychischen Erkrankungen begehen Straftaten in den meisten Fällen nicht ursächlich, weil sie erkrankt sind.

Untersuchungen zeigen allerdings auch: Bestimmte Faktoren können zu einer höheren Gewaltneigung führen, etwa wenn eine Person unter dem Einfluss von Alkohol oder anderen Substanzen steht. Oder wenn Menschen Psychosen erleben, insbesondere wenn sie keinen Zugang zu angemessener Behandlung haben. Zu diesen Faktoren kommen jedoch viele weitere Risikoindikatoren hinzu, die zunächst nichts mit einer psychiatrischen Diagnose zu tun haben, etwa soziale Isolation, männliches Geschlecht oder Wohnungslosigkeit. Für Kappert-Gonther bedeutet das: „Wir können das Gewaltproblem in der Gesellschaft nicht innerhalb des psychiatrischen Versorgungssystems lösen.“ Sie fordert eine „seelenfreundliche Politik“, die das angeht, was Menschen belastet – von der Klimakrise bis zur Wohnungsnot.

Der Psychiater Schomerus kritisiert ebenfalls, wie sich die Diskussion um psychische Erkrankungen verschiebt. Er sagt aber gleichzeitig: „Es sollte kein Tabu geben, über Gewalt im Zusammenhang mit psychischer Krankheit zu sprechen. Man muss das sogar tun, es dann aber auch einordnen.“ Dies schließe ein, auch auf alle andere Umstände hinzuweisen, die Gewalt begünstigen können, und keine schnelle monokausale Zuweisung vorzunehmen.

„Wenn man wohnungslos ist, hat man weniger Zugang zu medizinischer Unterstützung und hält sich fast rund um die Uhr im öffentlichen Raum auf“, führt Schomerus ein Beispiel an. „Wenn man dann zusätzlich eine schwere psychische Krankheit hat, steigt natürlich die Gefahr für Zwischenfälle, wie dass man mit jemandem aneinandergerät oder dass es zu Konflikten kommt. In einem anderen Kontext wäre das aber gar nicht passiert.“

Das Stigma wächst wieder

Um eine zielführende Diskussion über Gewalt und ihre Ursachen zu führen, müsse man also herausfinden, wo die Probleme lagen, die zu einer Eskalation geführt haben, sei es bei einer Behandlung oder sozialen Rahmenbedingungen. „Es ist nicht hilfreich, sich nur auf einen dieser Faktoren wie psychische Erkrankungen zu fokussieren und so zu tun, als würde der allein ein Gewaltrisiko erklären“, sagt Schomerus. „Es ist aber genauso wenig sinnvoll, bestimmte Faktoren auszublenden.“

Neben seiner Tätigkeit als Direktor der Klinik und Poliklinik für Psychiatrie und Psychotherapie hat sich Schomerus der Stigmaforschung gewidmet. In Langzeitstudien untersucht er gemeinsam mit Kolleg:innen die Haltung der Bevölkerung zu psychischen Erkrankungen seit den 1990er-Jahren. „Wir sehen, dass es Krankheitsbilder gibt, die uns näherrücken und über die auch gesprochen werden kann“, sagt der Forscher. Beispiele dafür seien Depressivität, Ängstlichkeit oder Aufmerksamkeitsstörungen. „Diese Dinge haben in unserer Zeit mittlerweile einen Platz, man kann darüber besser reden als noch vor zwanzig Jahren. Das Stigma ist zwar nicht verschwunden, aber es hat nachgelassen.“

Größer wird die Ausgrenzung jedoch insbesondere bei Menschen mit schweren psychischen Erkrankungen wie einer Schizophrenie. „Das beobachten wir besonders bei Krankheiten, die das Umfeld herausfordern, weil sie unerklärlich sind oder bedrohlich erscheinen“, sagt Schomerus. „Wir können feststellen, dass das Bedürfnis nach Distanz zu Menschen mit diesen Krankheiten zunimmt.“ Das heißt: Menschen lehnen es in den vergangenen dreißig Jahren stärker ab, etwa mit einer an Schizophrenie erkrankten Person zusammenzuarbeiten oder sie Freund:innen vorzustellen.

„Die Angst wird man nicht abschaffen können“

Diese Distanzierung zeige sich auch darin, wie und wie häufig über entsprechende Krankheiten geschrieben wird. Über Schizophrenie werde generell deutlich weniger berichtet als über etwa Depressionen. Gleichzeitig habe aber die Berichterstattung über negative Stereotype zugenommen. So werde immer häufiger über Zusammenhänge von Schizophrenie und Gewalttätigkeit geschrieben statt über die Teilhabe von Menschen mit dieser Diagnose. Um der zunehmenden Ausgrenzung entgegenzutreten, helfe es, betroffene Personen sichtbar zu machen, glaubt Schomerus. „Wir dürfen nicht über die Leute sprechen, sondern müssen mit ihnen reden.“ Ihm ist es wichtig, dass psychische Krankheiten nicht nur in akuten Extremsituationen dargestellt werden, sondern auch in Zusammenhang mit Teilhabe oder überwundenen Krisen.

„Die Angst der Menschen wird man nicht abschaffen können“, sagt Brigitte Richter. „Menschen mit Psychosen machen eben Dinge, die andere nicht begreifen. Sie verhalten sich für Außenstehende ziemlich komisch.“ Dass das Menschen teilweise erschreckt, verwundert sie nicht. „Es ist nun mal schwer zu erklären, dass da jemand in einer vollen Bahn die Notbremse zieht, weil er wähnt, dass der Waggon voller Vampire ist.“ Dass ein solches Verhalten Menschen irritieren kann, erlebt sie ebenso bei sich, wenn sie mit Personen in akuten Phasen zu tun hat. Auch wenn sie, wie sie erzählt, selbst „mindestens acht Mal psychotisch“ war.

Krisen seien aber in der Regel nicht der Dauerzustand, betont Richter. Und man merkt ihr an, dass sie von der immer wiederkehrenden Diskussion über Gewalt und vermeintliche Gefährlichkeit in der langen Zeit ihres Engagements eigentlich genug hat. „Wenn wir immer nur über psychische Erkrankungen und Gewalt reden, bleibt das hängen“, sagt sie. „Selbst wenn wir sagen, dass psychische Erkrankungen und Gewalt erst mal nichts miteinander zu tun haben. Was dann im Kopf bleibt, ist der Zusammenhang: Gewalt, psychisch krank, Gewalt, psychisch krank.“ Da bleibe immer was hängen, egal wie sehr man sich um Differenzierung bemüht.

Nicht einfach, aber engagiert bleiben

„Wir sind auch Menschen mit Selbstverantwortung, sogar öfter als dass wir akute Krankheitsphasen haben“, sagt sie. Und trotzdem würden Berichte über Menschen mit Diagnosen oft auf genau diese Zeiten verkürzt. Richter wünscht sich, dass man auch „diese positive Seite betonen würde, dann wäre uns als Betroffenen mehr geholfen“. Sie meint damit, dass Menschen mit psychischen Belastungen ernst genommen und nicht auf ihre Krisen reduziert werden. „Ich wünsche mir, dass wir als Menschen gesehen werden, die eben auch ihre Macken haben. Und gegen manche dieser Macken kann man ja sogar was tun“, sagt Richter.

In einer Klinik war Richter zum ersten Mal im Jahr 1975. Sie bezeichnet sich deshalb auch als „Zeitzeugin“ der Psychiatrie-Enquete. Über viele Jahre hat sie die Entwicklung der psychiatrischen Versorgung selbst miterlebt und letztlich selbst daran teilgehabt. Sie machte eine Ausbildung zur Ergotherapeutin und arbeitete jahrelang selbst auf psychiatrischen Stationen. Schon lange ging sie im beruflichen Kontext offen mit ihrer eigenen Psychiatrieerfahrung um, obwohl sie das zu Beginn fast den Ausbildungsplatz gekostet hätte. „Ich stehe dazu. Basta. Da bin ich radikal“, sagt Richter heute. „Ich nehme das Stigma an und habe damit auch gute Erfahrungen gemacht.“

Für ihr Engagement bekam Richter im Jahr 2023 sogar das Bundesverdienstkreuz. Ein solches Engagement für Menschen, die in unserer Gesellschaft eine psychische Belastung erleben, wird es weiterhin brauchen – ob als medizinische Fachperson, Psychiatrieerfahrene oder Nachbarin. Gerade weil der Kampf für eine menschenrechtsorientierte Versorgung in den zurückliegenden Jahrzehnten vorangekommen ist, liegt es an allen zu verhindern, dass diese Entwicklung wieder rückwärts läuft.

Bald soll Richter einen Ehrenbrief des Bezirks bekommen, in dem sie lebt. „Sie sind zwar nicht einfach, aber engagiert“, habe der Bezirkstagspräsident zu ihr gesagt, als er ihr die Botschaft überbrachte. Schon in ihren Arbeitszeugnissen habe gestanden, dass sie beharrlich sei, erinnert sich Richter. Für sie ist das ein großes Kompliment und sie verspricht in einem Text für das Infoblatt Psychiatrie: „Ich werde auf jeden Fall nicht einfach, aber engagiert bleiben – so lange ich das noch kann.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Freiwillige Chatkontrolle: Ausnahmeregel wird zum zweiten Mal verlängert

Von: Andre Meister

Internet-Dienste dürfen die Kommunikation ihrer Nutzer scannen, obwohl das eigentlich verboten ist. Die EU-Gesetzgeber wollen eine vorübergehende Ausnahme der Datenschutzrichtlinie zum zweiten Mal verlängern. Grundrechts-Eingriffe müssen verhältnismäßig sein, aber niemand kann die Verhältnismäßigkeit belegen.

Frau spricht in Parlament
Stimmt Chatkontrolle zähneknirschend zu: SPD-Abgeordnete Birgit Sippel. – Alle Rechte vorbehalten Europäisches Parlament

Die EU-Institutionen wollen Internet-Diensten weiterhin erlauben, die Kommunikation ihrer Nutzer freiwillig zu scannen, um sexuellen Missbrauch von Kindern zu suchen.

Das ist eigentlich verboten. Die Datenschutzrichtlinie für elektronische Kommunikation von 2002 schützt die Vertraulichkeit der Kommunikation. Ein Artikel verbietet das Überwachen von Nachrichten ohne Einwilligung der betroffenen Nutzer.

Seit 2021 gibt es eine „vorübergehende Ausnahme“ der Vertraulichkeit der Kommunikation. Eine Verordnung erlaubt Internet-Diensten, die Kommunikation ihrer Nutzer zu scannen, um sexuellen Missbrauch von Kindern zu bekämpfen. Diese Übergangsverordnung war eigentlich auf drei Jahre befristet. Im April 2024 wurde die Ausnahme um zwei Jahre verlängert.

Jetzt soll die Ausnahmeregelung zum zweiten Mal verlängert werden. Im Dezember hat die Kommission einen entsprechenden Vorschlag gemacht. Die EU-Staaten haben den Vorschlag letzte Woche unverändert angenommen. Im EU-Parlament hat die zuständige Berichterstatterin gestern einen überarbeiteten Vorschlag vorgelegt.

Ausnahme eigentlich außergewöhnlich

Die deutsche Sozialdemokratin Birgit Sippel hat dem Entwurf ein persönliches Statement beigefügt. Sie kritisiert, dass die Ausnahmeregelung eigentlich „streng befristet und außergewöhnlich“ sein sollte. Die CSA-Verordnung soll die Chatkontrolle dauerhaft regeln. Doch das seit 2022 verhandelte Gesetz ist bis heute nicht fertig. Die EU-Staaten haben erst im November ihre Position beschlossen, jetzt läuft der Trilog.

Die Berichterstatterin will die erneute Verlängerung daher auf ein Jahr begrenzen. Kommission und Rat fordern zwei Jahre. Internet-Dienste sollen ausschließlich nach Hash-Werten von bekanntem „Material über sexuellen Missbrauch von Kindern“ suchen. Kommission und Rat wollen auch unbekanntes Material und Grooming suchen. Ein Erwägungsgrund stellt klar, dass die Chatkontrolle Ende-zu-Ende-Verschlüsselung nicht „verbietet, schwächt oder untergräbt“.

Das Parlament kritisiert die Datenbasis, welche die Chatkontrolle begründen soll. Die EU-Kommission hat zwei Berichte zur freiwilligen Chatkontrolle erstellt. Doch die Daten reichen nicht aus, die Frage zu beantworten, ob die Chatkontrolle überhaupt verhältnismäßig ist. Sippel hält fest: „Die Faktenlage reicht nach wie vor nicht aus, um einen breiten Anwendungsbereich zu rechtfertigen.“

Trilog zur dauerhaften Chatkontrolle

Vertrauliche Kommunikation ist ein Grundrecht. Internet-Dienste dürfen in dieses Grundrecht nur eingreifen, wenn ein Gesetz das vorschreibt. Dieses Gesetz gibt es nicht. Der Eingriff muss notwendig und verhältnismäßig sein. Die Kommission kann die Verhältnismäßigkeit nicht belegen. Das hat auch der Europäische Datenschutzbeauftragte immer wieder kritisiert.

Trotzdem soll die „vorübergehende Ausnahme“ jetzt zum zweiten Mal verlängert werden. Als nächstes verhandelt das EU-Parlament den Entwurf. Im März soll das Parlament die Position beschließen.

Parallel dazu verhandeln die Gesetzgeber die CSA-Verordnung mit der dauerhaften Chatkontrolle. Der Trilog behandelt unter anderem die Frage, ob Anbieter auch gegen ihren Willen zur Chatkontrolle verpflichtet werden können.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Digital Services Act: EU-Kommission will TikTok-Nutzung begrenzen

Von: Anna Ströbele Romero

Endloses Scrollen, mehrstündige Screentime und ständiges Öffnen der App: Die EU-Kommission nimmt an, dass TikTok nicht genug macht, um die negativen Effekte seiner Plattform zu beschränken, und verlangt drastische Änderungen.

Das Logo von TikTok vor dunklem Hintergrund.
Zu viel TikTok ist nicht gut, findet die EU-Kommission. – Gemeinfrei-ähnlich freigegeben durch unsplash.com BoliviaInteligente

Das Gesetz für digitale Dienste (Digital Services Act, DSA) verpflichtet sehr große Plattformen wie die chinesische Video-App TikTok dazu, ihre Risiken zu bewerten und sie zu mindern. Vor zwei Jahren hat die Europäische Kommission ein Verfahren gegen TikTok gestartet, um spezifisch das süchtig machende Design zu analysieren.

Heute hat die Behörde das vorläufige Ergebnis der Untersuchung geteilt: TikTok geht nicht effektiv genug gegen die Risiken vor. Diese Feststellung ist ein Schritt vor einer möglichen Strafe.

Besonders dramatisch bewertet die Kommission die Risiken für die mentale Gesundheit von Kindern und Jugendlichen, die ihre TikTok-Nutzung noch nicht so gut selbst steuern könnten. Viele Studien aus verschiedenen europäischen Ländern zeigten die stundenlange TikTok-Nutzung von Minderjährigen, die Öffnung der App etwa 20 Mal am Tag und die Nutzung nach Mitternacht, sagte ein Kommissionsbeamter heute gegenüber Journalist:innen. Allerdings seien auch andere Altersgruppen von der problematischen Nutzung betroffen.

Natürlich hätten Erziehungsberechtigte eine Verantwortung, auf die Social-Media-Nutzung von Kindern zu achten, sagte eine zweite Kommissionsbeamte. Doch auch Plattformen hätten eine Sorgfaltspflicht.

Tools zur Kontrolle der Bildschirmzeit sind nicht effektiv genug

Mittlerweile habe TikTok schon Optionen zur Kontrolle der eigenen Nutzungszeit eingeführt, doch diese sind laut der Kommission nicht effektiv genug. Pausen könnten sehr einfach durch die Eingabe des Codes „1234“ weggeklickt werden. Und auch das Tool für Eltern lasse zu wünschen übrig.

Die Kommission verlangt daher Änderungen in drei Bereichen: Erstens sollen Nutzer:innen dazu in der Lage sein, Push-Benachrichtigungen einfacher abzustellen. Ebenso soll das Design der Plattform bezüglich des Scrollings geändert werden. Zweitens soll das Empfehlungssystem von TikTok auch explizite Wünsche der Nutzer:innen anerkennen, anstatt nur implizit durch das Engagement gesteuert zu werden.

Der dritte Aspekt ist vielleicht der gravierendste. Die Kommission wünscht sich strengere Schutzmaßnahmen, darunter verpflichtende Begrenzungen der Bildschirmzeit, verpflichtende Pausen und eine nächtliche Sperre. Das würde bedeuten, dass die App nach einer bestimmten Zeit und zu gewissen Uhrzeiten nicht mehr genutzt werden kann. Diese Maßnahmen würden nicht nur Minderjährige treffen, sondern alle Nutzer:innen.

TikTok war bisher „kooperativ“

Diese Änderungen gehen an den Kern des App-Designs, das gibt auch die Kommission zu. Gleichzeitig betonen die Beamten, wie kooperativ TikTok in den letzten zwei Jahren gewesen sei. Sie erinnern daran, dass die neue App „TikTok Lite“ damals in der EU zurückgezogen wurde, nachdem die Kommission vor dem Belohnungssystem warnte. „In unserer Erfahrung können wir durch Diskussionen Fortschritte erzielen“, sagte die Kommissionsbeamte.

TikTok hat nun die Gelegenheit, auf die Vorwürfe zu antworten und das System entsprechend anzupassen. Eine genaue Frist dafür gibt es nicht. Sollte die Kommission nicht mit TikToks Reaktion zufrieden sein, könnte sie im letzten Schritt einen Verstoß feststellen und eine Strafe verhängen. Das geschah im Dezember mit X zum ersten Mal in der Laufbahn des Gesetzes für digitale Dienste.

Wegen ähnlichen Vorwürfen laufen auch Verfahren gegen Facebook und Instagram. Die TikTok-Untersuchung sei lediglich zuerst gekommen und kein Zeichen, dass Plattformen unterschiedlich behandelt würden, sagte ein Kommissionsbeamter auf Nachfrage von Journalist:innen.

Als Teil der Untersuchung zum süchtig machenden Design von TikTok schaut die Kommission auch darauf, wie sicher Minderjährige auf der Plattform sind. Außerdem läuft noch ein paralleles Verfahren gegen TikTok zur Desinformation und Einmischung in Wahlen, welches im Anschluss an die Wahlen in Rumänien eröffnet wurde.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

❌