Trotz scharfer Kritik hält die sächsische Regierung am ihrem Vorhaben fest, die Polizei mit erheblich erweiterten Überwachungsbefugnissen auszustatten. Den bisherigen Gesetzesentwurf hat sie nach internen Verhandlungen nur kosmetisch angepasst. Kritiker:innen bezweifeln die Vereinbarkeit mit geltendem EU-Recht und warnen vor dystopischen Verhältnissen.
Diese zwei dürften sich freuen, wenn das neue Polizeigesetz in Sachsen in Kraft tritt: Armin Schuster, Innenminister von Sachsen, und Jörg Kubiessa, Polizeipräsident von Sachsen. – Alle Rechte vorbehalten IMAGO / EHL Media
Die sächsische Polizei soll Bilder im Internet biometrisch auswerten dürfen – zumindest wenn es nach dem Willen der sächsischen Regierung geht. Und das ist lange nicht die einzige massive Befugniserweiterung der Polizei, die die Regierung plant. Auch Verhaltensscanner, verdeckte Kennzeichenerkennung und eine automatisierte Datenanalyse sollen kommen. Lediglich bei zwei problematischen Plänen machte das Innenministerium einen Rückzieher. Unter Zeitdruck muss nun der sächsische Landtag entscheiden.
Geringfügige Änderungen für eine „rechtsstaatlich sehr hohe Qualität“
Am Dienstag beschloss das Kabinett den Gesetzentwurf für das Sächsische Polizeivollzugsdienstgesetz (SächsPVDG). Dieser fällt in Teilen weniger scharf aus als die ursprünglich geplante Novelle. Wenn man den sächsischen Innenminister Armin Schuster (CDU) fragt, sogar ein gutes Stück zurückhaltender. Sein Referentenentwurf aus dem Herbst war auf viel Kritik gestoßen, auch die mitregierende SPD kritisierte einige der geplanten Befugniserweiterungen.
Im Vergleich dazu enthielten die neuen Pläne „sehr viele grundrechtssichernde Bestimmungen“, so Schuster. Er verweist auf Richtervorbehalte, Lösch- und Berichtspflichten. „Für Polizisten ist dieses Gesetz eine Herausforderung“, sagte der Innenminister auf einer Pressekonferenz am Dienstag nach der Kabinettssitzung. Der Entwurf habe nun eine „rechtsstaatlich sehr hohe Qualität“, betonte er.
Tatsächlich gibt es bei den meisten Bestimmungen des Entwurfs, wenn überhaupt, geringfügige Änderungen und Konkretisierungen. So ist der präventive Staatstrojaner-Einsatz zur Quellen-Telekommunikationsüberwachung nach wie vor enthalten, ebenso Verhaltensscanner, die gesetzlichen Grundlagen für eine Datenanalyse-Plattform sowie der biometrische Abgleich von Gesichtern und Stimmen mit dem Internet.
Kein Palantir, keine Drohnen gegen Handy-Sünder:innen
Gestrichen wurde vor allem das Filmen in Autos, um Handy-Nutzer:innen am Steuer zu erwischen. Diese Vorschrift sollte laut dem ursprünglichen Entwurf sogar mit Drohnen umgesetzt werden.
Die sächsische Datenschutzbeauftragte Juliane Hundert hielt das für „offensichtlich verfassungswidrig“ und sprach von einer „auf der Hand liegenden Unverhältnismäßigkeit“. Ihrer Empfehlung nach einer ersatzlosen Streichung folgte die sächsische Regierung offenbar.
Außerdem setzte die SPD durch, dass Palantir keinen sächsischen Auftrag für eine polizeiliche Datenanalyse-Plattform bekommt. Der Verzicht wird vom sächsischen Innenminister bedauert: „Der Vorsprung der Firma Palantir ist mit Händen greifbar“, sagte Schuster. Man führe Gespräche mit anderen Anbietern. Laut Kostenplanung im Entwurf rechnet die Staatsregierung mit einer zentralen Bereitstellung durch den Bund, an der man sich dann finanziell beteiligt.
Das 3-Stufen-Modell der polizeilichen Datenanalyse
Weiterhin enthalten ist die Vorschrift, die ermöglichen soll, dass die Polizei eine Plattform zur automatisierten Datenanalyse nutzt. Inzwischen findet sich im Entwurf dafür ein 3-Stufen-Modell.
Auf der ersten Stufe steht ein einfacher Datenabgleich, bei dem jede:r Polizist:in personenbezogene Daten in den Beständen der Polizei Sachsen suchen kann. Ausgenommen sind Biometrie-Daten, personenbezogene Daten von Unbeteiligten aus der Vorgangsbearbeitung sowie Daten aus der Wohnraumüberwachung.
Auf der nächsten Stufe folgt die Befugnis, Daten zur Gewinnung neuer Erkenntnisse automatisiert zusammenzuführen und auszuwerten. Voraussetzung ist ein drohender erheblicher Angriff auf den Staat oder Leib, Leben oder Freiheit einer Person. Für drohende terroristische Straftaten liegt die Gefahrenschwelle niedriger. Anordnen dürfen diese Art der Datenanalyse nur hochrangige Polizist:innen, wie etwa die Präsidentin einer Polizeidirektion.
Polizeidaten fürs KI-Training – auch ohne Pseudonymisierung
Nur bei der dritten und letzten Stufe muss die Polizei eine richterliche Erlaubnis einholen. Diese Stufe umfasst den Einsatz von „selbstlernender KI“ sowie die Bildung von Verhaltensprofilen.
Nach wie vor plant die Staatsregierung, der Polizei auch das Training und Testen von eigenen KI-Anwendungen mit echten Polizeidaten zu erlauben. Erlaubt ist außerdem die Weitergabe personenbezogener Daten an Drittanbieter, die mit der Polizei zusammenarbeiten.
Voraussetzung dafür ist, dass die Anonymisierung und Pseudonymisierung sowie die Verarbeitung bei der Polizei „nur mit unverhältnismäßigen Aufwand möglich“ ist. Auch diese Vorschrift wurde, trotz Kritik von der SPD-Fraktion und der Opposition, im Vergleich zum letzten Entwurf aus dem Herbst kaum angepasst.
Gesichtersuche im Netz – im Einklang mit der KI-Verordnung?
Auch der „Klette-Paragraf“, wie ihn Armin Schuster nennt, hat im Gesetzesentwurf weiterhin Bestand. Die RAF-Terroristin Daniela Klette war bis zu ihrer Festnahme 2024 mehrere Jahrzehnte untergetaucht. Dennoch fanden zwei Journalisten im Dezember 2023 Hinweise auf Klettes Aufenthaltsort über die Gesichtersuchmaschine PimEyes. „Diese Blamage darf so nie wieder passieren“, betonte Schuster in der Pressekonferenz.
Dieser biometrische Abgleich von Gesichtern und Stimmen mit Internetdaten wurde trotz viel Kritik kaum angepasst. Die Polizei soll nun lediglich nach Opfern und potenziellen Täter:innen suchen dürfen.
Doch es gibt Zweifel, ob die von Innenminister Armin Schuster als „Klette-Paragraf“ bezeichnete Vorschrift grundsätzlich mit der KI-Verordung der EU in Einklang zu bringen ist.
Laut einem Gutachten von AlgorithmWatch ist es technisch nicht umsetzbar, frei verfügbare Bilder aus dem Internet für einen Abgleich praktikabel durchsuchbar zu machen, ohne eine Datenbank dieser Bilder zu erstellen. Das verbietet die KI-Verordnung.
Das sächsische Innenministerium rechtfertigt die Pläne auf Anfrage von netzpolitik.org damit, dass das Gutachten auf die Erstellung einer anlassunabhängigen Datenbank abziele, das vorgeschlagene Gesetz aber „auf den anlassbezogenen Auftragsbereich der Gefahrenabwehr“ fokussiere.
Das Innenministerium schreibt weiter:
Zu OSINT-Recherchen werden sowohl Sachbearbeiter als auch Tools eingesetzt, die sich der grundsätzlichen Datenbankstruktur des Internets bedienen und keine polizeieigene Datenbank für alle Informationen des Internets erstellen. Die Methodik hält sich an die von den Informationsanbietern gesetzten Grenzen. OSINT-Recherchen sind für einen anlassbezogenen Lichtbildvergleich mit Bildern aus dem Internet rechtmäßig unter Wahrung der DSGVO sowie europäischen Datenschutzrichtlinien.
Tatsächlich aber ist es laut KI-Verordnung unerheblich, ob die Polizei selbst eine anlassunabhängige Datenbank mit allen Bildern erstellt oder eine von Drittanbietern nutzt. Konkret verbietet die Verordnung in Artikel 5 (1e) „das Inverkehrbringen, die Inbetriebnahme […] oder die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern“.
Videoüberwachung mit Mustererkennung
Auch Verhaltensscanner und Gesichtserkennung in der Videoüberwachung sind weiterhin vorgesehen. Die Verhaltensscanner sollen Beamt:innen alarmieren, wenn die Software auf den Kamerabildern Bewegungsmuster erkennt, die auf Waffen, gefährliche Gegenstände oder die Begehung einer Straftat hindeuten. Die Beamt:innen sollen dann überprüfen, ob die Software zurecht angeschlagen hat. Sie können daraufhin auch eine automatisierte Nachverfolgung des vermeintlich gefährlichen Menschen durch die verschiedenen Kameras in die Wege leiten.
Diese Form der Überwachung soll prinzipiell nicht nur an allen Kriminalitätsschwerpunkten möglich sein, sondern etwa auch in Straßenbahnen und Bussen, wenn die Polizei annimmt, dass dort künftig Straftaten begangen werden.
Obwohl die SPD-Fraktion sich explizit gegen diese Vorschrift aussprach, ist auch die Möglichkeit eines Live-Gesichtsscans im Gesetzentwurf enthalten. Eingeschränkt wurde hier nur die Menge an Menschen, nach denen die Polizei suchen darf, nämlich nach Terrorverdächtigen sowie vermissten Menschen und Opfern von Entführungen und Menschenhandel.
Diese „Echtzeit-biometrische Fernidentifizierung“ muss von Richter:innen angeordnet werden, die auch Umfang und Dauer der Maßnahme absegnen müssen. Obwohl also prinzipiell alle gescannt werden, die durch das Kamerabild laufen, soll die Software nur nach einzelnen Menschen suchen.
Völlig unverändert: Staatstrojaner, Kennzeichenscan und Bodycams
Bei anderen Befugniserweiterungen hat sich nichts verändert.
Der Bodycam-Einsatz in Wohnungen soll weiterhin erlaubt werden. Auch der Einsatz von Staatstrojanern zur Gefahrenabwehr im Rahmen der Quellen-TKÜ soll möglich sein. Der Innenminister wollte zudem die verdeckte Online-Durchsuchung von Computern einführen, hat das aber nicht „durchgekriegt“, wie er bei der Pressekonferenz freimütig zugab. Auch die CDU-Fraktion macht Druck.
Nach wie vor ist das verdeckte automatisierte Scannen von Auto-Kennzeichen geplant. Diese Überwachungsmaßnahme soll in grenznahen Regionen erfolgen. Das Innenministerium begründet die Maßnahme explizit mit der Suche nach Autodieben und gestohlenen Fahrzeugen. Der verdeckte Scan ist bis zu 30 Kilometer vor der Grenze zu Tschechien oder Polen erlaubt. Das entspricht etwa der Hälfte der Fläche Sachsens.
Bei den Tasern gibt es einen Kompromiss. SPD- und BSW-Fraktion plädierten auf eine gestaffelte Einführung. Die Staatsregierung schafft nun zwar die Rechtsgrundlage, um alle Polizist:innen damit auszustatten. Über die nächsten drei Jahre sollen allerdings nur 120 Stück angeschafft werden. Außerdem ist eine verpflichtende Evaluation im Jahr 2029 vorgesehen.
Minority Report und chinesische Verhältnisse
Auch wenn die Minderheitskoalition den Entwurf im Vergleich zur vorherigen Version in Details verändert hat, bleibt es bei einer massiven Erweiterung der Polizeibefugnisse. Der Dresdener Chaos Computer Club (C3D2) kritisiert das: „Die Landesregierung will klassische Mittel der Strafverfolgung auf Landesebene einführen und verschiebt damit die rechtliche Grenze der behördlichen Befugnisse: Gefahrenabwehr ist Sache des Landes, Strafverfolgung des Bundes.“ Als Beispiel nennen sie die Staatstrojaner, deren Einsatz bundesweit durch die Strafprozessordnung geregelt ist.
Der Verein erinnert in seiner Mitteilung an dystopische Welten wie „Minority Report“, in denen Predictive-Policing die Unschuldsvermutung ersetzt. „Sicherheitsbehörden bauen derzeit solche Systeme aus, ungeachtet der juristischen Grenzen und gesellschaftlichen Folgen für die Demokratie und individuelle Freiheiten.“
Der C3D2 warnt insbesondere vor der Einführung einer Plattform zur automatischen Datenanalyse. Diese sei „moderne Rasterfahndung mit Vorhersagefunktion“, so die Sprecherin weiter. „Ob es Palantir wird oder eine andere vergleichbare Lösung, ist letztendlich egal. Solche Systeme funktionieren in der Regel nur, wenn sie an möglichst viele Sensoren und Datenbanken angeschlossen sind“, heißt es in der Mitteilung. Die Einführung einer solchen Software öffne die Büchse der Pandora.
„Der Chaos Computer Club sieht die Novelle des Sächsischen Polizeigesetzes als einen erneuten Angriff auf die informationelle Selbstbestimmung, die rechtsstaatlich gebotene Gewaltenteilung sowie als Gefahr für eine offene und demokratische Gesellschaft.“
Aus dem Landtag kommt die schärfste Reaktion von der Fraktion Bündnis 90/Die Grünen: „Der massive Einsatz von KI zu Überwachungszwecken, die intelligente Videoüberwachung und die Möglichkeit des Datenabgriffs aus dem Internet sind keine Lappalien, sondern schwerwiegende Eingriffe in die Bürgerrechte aller Menschen in Sachsen“, sagte der innenpolitische Sprecher der Grünen-Fraktion, Valentin Lippmann. Er wiederholte seine Kritik aus dem Herbst, wonach sich der Entwurf eher an chinesischen Überwachungsfantasien orientiere als an dem Grundgesetz.
Grüne und Linke scheiden als Mehrheitsbeschaffer aus
Die Linksfraktion äußerte sich in einer ersten Mitteilung zurückhaltender und verwies darauf, den aktuellen Entwurf noch nicht zu kennen. In der Vergangenheit hatte auch sie die geplanten Befugnisse für die automatisierte Datenanalyse, verdeckte Kennzeichenerkennung und biometrische Suche im Internet zurückgewiesen.
Aufgrund der Mehrheitsverhältnisse im Landtag und die klare Ablehnung der Grünen ist die Position der Linken für die Staatsregierung aber nicht entscheidend. Der schwarz-roten Minderheitskoalition fehlen zehn Stimmen. AfD (40) und Bündnis Sahra Wagenknecht (15) können den Entwurf durch ihre alleinige Zustimmung über die Ziellinie bringen, Grüne (7) und Linke (6) müssten hingegen gemeinsam mit der Minderheitskoalition votieren.
AfD nicht konstruktiv, BSW sieht noch Änderungsbedarf
Eine Zusammenarbeit mit der AfD haben CDU und SPD in ihrem Koalitionsvertrag ausgeschlossen. Die AfD hat keine Stellungnahme im Konsultationsprozess abgegeben. Als einzig verbleibende Option bleibt der Koalition damit das BSW.
Dessen innenpolitischer Sprecher Bernd Rudolph kündigte Anpassungen im parlamentarischen Verfahren an. Besonders bei den Themen automatisierte Datenanalyse, Training von KI-Systemen mit Polizeidaten und Tasern sieht die BSW-Fraktion noch Änderungsbedarf. „Der vorliegende Gesetz-Entwurf enthält sinnvolle Modernisierungen, aber auch gefährliche Überdehnungen.“ Man wolle ein Polizeigesetz, das wirksam schützt, aber nicht überwacht.
Die Uhr tickt
Viel Zeit für Änderungen im Parlament bleibt indes nicht mehr. Wegen eines Urteils des Verfassungsgerichtshofs laufen einige Polizeibefugnisse aus dem aktuellen sächsischen Polizeigesetz bald aus. Grüne und Linke hatten gegen das Gesetz geklagt, der sächsische Verfassungsgerichtshof gab ihnen in Teilen recht und setzte für manche Polizeibefugnisse eine Frist: Bis zum 30. Juni braucht es eine neue Regelung, sonst laufen sie aus.
Den Fraktionen verbleiben damit noch gut vier Monate für den gesamten parlamentarischen Prozess.
Grüne und Linke kritisieren die Regierung für den engen Zeitplan. Selbst Innenminister Schuster räumt ein, dass der Landtag „jetzt nicht komfortabel“, aber ausreichend Zeit habe. Man habe das durchgerechnet, versicherte Schuster.
Geplant ist, das Gesetz am 24. Juni im Plenum zu beschließen. Damit das alles zeitlich klappt, wurde eine Sondersitzung des Innenausschusses angesetzt. Bereits am 27. März steht die Sachverständigenanhörung im Landtag an.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Niedersachsen folgt dem bundesweiten Trend in Richtung Sci-Fi-Überwachung. Im neuen Polizeigesetz sind neben der Datenanalyse nach Palantir-Art auch Verhaltensscanner und Live-Gesichtserkennung vorgesehen. Heute findet eine Anhörung im Innenausschuss zu dem massiven Überwachungsausbau statt.
So sieht es aus, wenn ein Verhaltensscanner analysiert, was Menschen tun. – Alle Rechte vorbehalten Polizeipräsidium Mannheim, Fraunhofer IOSB
Niedersachsen will der Polizei Datenanalyse nach Palantir-Art erlauben. Sie soll künftig Informationen zu verschiedenen Fällen verknüpfen und mit sogenannter KI aufbereiten können. In die Analyse dürfte auch einfließen, wer mit wem wann von wo aus kommuniziert. Außerdem der Inhalt von beschlagnahmten oder mit Staatstrojanern infizierten Telefonen sowie Audio- und Video-Material, das heimlich in Wohnungen aufgenommen wurde.
Die entsprechende Novelle des niedersächsischen Polizeigesetzes beinhaltet noch weitere tief invasive Überwachungsbefugnisse. Sie würde die polizeiliche Kontrolle in dem Bundesland drastisch verschärfen. Heute findet dazu eine Anhörung im Innenausschuss des Landtages statt.
Die Regierungskoalition aus SPD und Grünen hat dabei so ziemlich alles auf dem Wunschzettel, was nach futuristischer Polizeiarbeit klingt. Neben den Datenanalysen beispielsweise auch Live-Gesichtserkennung wie sie derzeit in Frankfurt am Main erprobt wird, oder den Verhaltensscanner, den Mannheim und Hamburg gerade trainieren. Zudem im Gesetz enthalten: der Abgleich biometrischer Daten wie Gesichtsbilder oder Stimmproben mit öffentlich zugänglichen Informationen aus dem Internet.
Unausgereifte Überwachungsmaßnahmen
Bislang wird eine derartige Gesichtersuchmaschine noch von keiner deutschen Behörde eingesetzt, wohl auch, weil der EU-AI-Act die dafür nötige Datenbank eigentlich verbietet. Auch der Verhaltensscanner ist noch nicht ausgereift. Die Mannheimer Polizei kann keinen einzigen Fall nennen, in dem er zu einem Ermittlungserfolg führte. Und die Frankfurter Gesichtserkennung hat bislang scheinbar nur einen anekdotischen Erfolg abgeworfen.
Niedersachsen will die Tools dennoch erlauben. Die Stadt Delmenhorst hat bereits angekündigt, KI-gestützte Videoüberwachung einführen zu wollen.
Laut Gesetzentwurf ist es auch nicht ausgeschlossen, die drei unterschiedlichen Systeme zusammenzuführen: Demnach ist es möglich, dass in Niedersachsen bald eine sogenannte KI die Bilder von Überwachungskameras in Echtzeit daraufhin untersucht, ob gerade eine mutmaßliche Straftat zu sehen ist, beispielsweise Körperverletzung oder ein Drogendeal. Wird eine vermutete Straftat gesichtet, könnte eine Software daraufhin die tatverdächtige Person identifizieren. Und zwar nicht nur mit Hilfe von Polizeidatenbanken, sondern auch anhand von Bildern oder Videos, die Menschen ins Netz gestellt haben, beispielsweise auf eine Social-Media-Plattform oder eine Nachrichtenseite.
Das in der Polizeigesetznovelle beschriebene multiple KI-System ermöglicht eine Strafverfolgung, die Polizeibeamt*innen eigentlich nur noch für die Festnahme braucht. Es gewährt der Technologie extremen Einfluss auf die Schicksale von Menschen. Betroffen von dem massiven Grundrechtseingriff, der damit einhergeht, sind nicht nur mutmaßliche Täter*innen, sondern alle Passant*innen, weil die KI alle Bewegungen und alle Gesichter analysiert, um die von der Polizei gesuchten herauszufiltern.
Die Hürden sind niedrig
Die Hürden für eine Videoüberwachung und darauf aufbauende KI-Systeme sind in Niedersachsen bereits heute relativ niedrig. Dass Kameras dauerhaft öffentlich zugängliche Straßen und Plätze filmen, ist dann erlaubt, wenn in einem Areal wiederholt Straftaten oder „nicht geringfügige Ordnungswidrigkeiten“ begangen werden. Das heißt, es braucht nicht wie in anderen Bundesländern eine hohe Kriminalitätsbelastung, sondern es reicht theoretisch, wenn dort wenige Fälle erfasst werden, damit ein Areal dauerhaft videoüberwacht werden kann. Bei der Videoüberwachung von Veranstaltungen reicht schon die Prognose möglicher Straftaten zur Legitimation.
Mit der Live-Gesichtserkennung dürfte die Polizei dem Gesetzentwurf zufolge nicht nur nach Straftätern fahnden, sondern auch nach Menschen, bei denen die Polizei annimmt, dass sie die körperliche Unversehrtheit anderer gefährden könnten. Zudem darf das System auch auf vermisste Personen sowie Opfer von sexueller Ausbeutung, Entführung oder Menschenhandel angesetzt werden. Normalerweise muss die Polizei jedes Mal einen Richter fragen, ob sie eine bestimmte Person zur automatisierten Fahndung ausschreiben darf, bei „Gefahr im Verzug“ allerdings nicht.
Der Verhaltensscanner dürfte derweil nicht nur Straftaten erkennen, sondern auch Muster, die auf Unglücksfälle hindeuten. Der Gesetzentwurf erlaubt also automatisierte Warnhinweise, wenn im Bild jemand liegt. Damit werden obdachlose Menschen einem erhöhten, diskriminierenden Überwachungsdruck ausgesetzt.
Verhaltens-Erkennung von der Drohne aus
Die Drastik des Polizeigesetz-Entwurfs wird noch dadurch erhöht, dass die Polizei demnach nicht nur stationäre Überwachungskameras, sondern auch Drohnen zur Videoüberwachung einsetzen darf. Diese Drohnen könnten dann auch Bilder für den Verhaltensscanner und die Live-Gesichtserkennung liefern. So könnten bei Großveranstaltungen auch Überblicksaufnahmen nach verdächtigen Bewegungsabläufen und den Gesichtern von Gesuchten durchforstet werden.
Eigentlich muss auf die Überwachung – beispielsweise mit Schildern – hingewiesen werden. Bei Drohneneinsätzen dürfte das schwierig sein, wodurch wohl viele Menschen ohne ihr Wissen zu Betroffenen derartiger Überwachungsmaßnahmen würden. Drohnen soll die niedersächsische Polizei künftig auch zum Luftkampf gegen andere, „feindliche“ Drohnen einsetzen dürfen, zur Telekommunikationsüberwachung und Standortermittlung und auch, um heimlich in Wohnungen zu filmen oder diese abzuhören.
Außerdem will die Landesregierung mit dem Gesetzentwurf Systeme erlauben, die in Videobildern nach bestimmten Gegenständen wie zum Beispiel Waffen suchen. Dabei ist das Land bislang mit der Erlaubnis von Staatstrojanern, Kennzeichenscannern, IMSI-Catchern zur Lokalisierung und Zuordnung von Telefonen, Bodycams für Polizist*innen und elektronischen Fußfesseln für potentielle Terrorist*innen alles andere als schwach aufgestellt, was digitale Maßnahmen zur Einschränkung von Grund- und Freiheitsrechten angeht.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Beim Forschungsdatenzentrum Gesundheit sollen die Gesundheitsdaten aller gesetzlich Versicherten zusammenlaufen. Ein Gerichtsverfahren dagegen wird nun fortgesetzt. Dessen Ausgang könnte Pläne von Gesundheitsministerin Nina Warken durchkreuzen.
Karl Broich und Nina Warken auf der Pressekonferenz zur Eröffnung des Forschungsdatenzentrums Gesundheit im Oktober 2025. – Alle Rechte vorbehalten IMAGO / dts Nachrichtenagentur
Drei Jahre lang herrschte Stillstand. Nun geht ein Gerichtsverfahren weiter, das sich gegen die zentrale Speicherung von Gesundheitsdaten aller gesetzlich Versicherten im Forschungsdatenzentrum Gesundheit (FDZ) richtet.
Die Klage hatte die Gesellschaft für Freiheitsrechte (GFF) gemeinsam mit Constanze Kurz, netzpolitik.org-Redakteurin und Sprecherin des Chaos Computer Club (CCC), sowie einem weiteren anonymen Kläger im Mai 2022 eingereicht. Weil das FDZ aber jahrelang nicht arbeitsfähig war und kein IT-Sicherheitskonzept vorlegen konnte, ruhte das Verfahren seit Februar 2023. Im vergangenem Herbst wurde das FDZ offiziell eröffnet, weshalb die GFF das Verfahren nun nach eigenen Angaben fortsetzt und weitere Schriftsätze eingereicht hat.
Der Ausgang der Klage könnte weitreichende Folgen haben. Denn es geht um die Forschung mit Gesundheitsdaten, eine zentrale Säule der erst vor wenigen Wochen vorgestellten Digitalisierungsstrategie von Bundesgesundheitsministerin Nina Warken (CDU). Sollte das Gericht zugunsten der Klagenden entscheiden, könnten wichtige Vorhaben ihres Ministeriums ins Wanken geraten.
Kläger:innen fordern effektiven Widerspruch und besseren Schutz
Die Klagenden werden von dem Rechtswissenschaftler Matthias Bäcker vor dem Sozialgericht Berlin und dem Sozialgericht Frankfurt vertreten. Aus ihrer Sicht verstößt die zentrale Sammlung hochsensibler Gesundheitsinformationen beim FDZ zum einen gegen das Grundrecht der Versicherten, selbst über die eigenen Daten zu bestimmen, sowie gegen das Datenschutzrecht der Europäischen Union.
Zum anderen seien die gespeicherten Daten nicht ausreichend geschützt. Für deren Übermittlung werden nur Namen, Geburtstag und -monat der Versicherten entfernt. Ein von der GFF in Auftrag gegebenes Gutachten des Kryptographie-Professors Dominique Schröder kommt zu dem Schluss, dass eine solche Pseudonymisierung die Versicherten nicht ausreichend schützt. Durch den Abgleich mit anderen Datensätzen ließen sich Betroffene ohne großen Aufwand re-identifizieren.
Die GFF fordert daher für alle Versicherten ein „voraussetzungsloses Widerspruchsrecht“, dass ihre eigenen Gesundheitsdaten für Forschung und andere Zwecke weitergenutzt werden. „Gesundheitsdaten gehören zu den sensibelsten Informationen überhaupt und sind ein lukratives Ziel für Kriminelle“, sagt Jürgen Bering, Jurist bei der GFF. „Forschung darf daher nur unter ausreichenden Schutzmaßnahmen stattfinden.“
Auf dem Weg zu „einem der größten Daten-Hubs“
Gesundheitsministerin Warken sieht das Forschungsdatenzentrum als „Innovationsmotor“ der Gesundheitsforschung. Die Einrichtung ist beim Bundesamt für Arzneimittel und Medizinprodukte (BfArM) in Bonn angesiedelt. Seit 2022 werden dort Gesundheitsdaten zu allen gesetzlich Versicherten in einer zentralen Datenbank zusammengeführt und für die Dauer von bis zu 100 Jahren gespeichert. Forschende müssen sich bei diesem Zentrum registrieren, um mit den Daten arbeiten zu können.
Bislang übermitteln die gesetzlichen Krankenkassen nur die Abrechnungsdaten all ihrer Versicherten an das FDZ. Diese Daten geben Auskunft darüber, welche Leistungen die Versicherungen in Rechnung gestellt bekommen haben und mit welchen Diagnosen diese versehen sind.
Ab dem vierten Quartal dieses Jahres sollen dann nach und nach die Behandlungsdaten aus der elektronischen Patientenakte hinzukommen. BfArM-Chef Karl Broich geht davon aus, dass seine Behörde in zehn Jahren bundesweit „einer der großen Daten-Hubs“ ist.
Sollte die GFF mit ihrer Klage Erfolg haben, könnte dieses Ziel verfehlt werden. Denn bislang ist vorgesehen, dass die ePA-Daten automatisch an das FDZ gehen – sofern Versicherte dem nicht aktiv widersprechen. Dieser Automatismus müsste dann möglicherweise einer aktiven Einwilligung der Versicherten weichen.
Aus Sicht der Klagenden wäre dies zu begrüßen. „Es wird höchste Zeit, dass das Verfahren fortgeführt wird“, sagt Constanze Kurz. „Denn es braucht Klarheit zur Sicherheit und zum Widerspruchsrecht, schon weil inzwischen der Kreis der nutzungsberechtigten Stellen ganz erheblich erweitert wurde.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Ein geplantes Gesetz zum Umgang mit psychisch erkrankten Menschen in Niedersachsen hatte viel Gegenwind bekommen. Nun hat die niedersächsische Landesregierung ihren Erstentwurf überarbeitet und Regeln zum Datenaustausch konkretisiert. Doch Fachleute wünschen sich weitere Anpassungen.
Im November 2024 hatte die rot-grüne niedersächsische Landesregierung sich auf ein neues Psychisch-Kranken-Gesetz geeinigt. Solche Gesetze gibt es in allen Bundesländern, sie regeln neben Hilfen für erkrankte Menschen unter anderem, wann sie unfreiwillig in eine psychiatrische Klinik eingewiesen werden können und welche Voraussetzungen für Zwangsmaßnahmen gelten. Die Details unterscheiden sich in den Ländern, Niedersachsen will nun – wie Hessen zuvor – in seinem neuen Gesetz regeln, wie und wann Daten zu Menschen sowohl mit Behörden als auch mit der Polizei ausgetauscht werden können.
Am Erstentwurf der Landesregierung gab es zahlreiche Kritik. Kliniken sollten dazu verpflichtet werden, Zwangseingewiesene dem zuständigen sozialpsychiatrischen Dienst und der örtlichen Polizeibehörde zu melden, „sofern der betroffene Mensch festgelegte Merkmale aufweist, die einen Verdacht für die Gefährdung Dritter vermuten lassen“.
Niedersachsens Gesundheitsminister Andreas Philippi (SPD) hatte betont: „Keinesfalls wollen wir ein Register für psychisch Kranke.“ Doch auch wenn der Register-Begriff von Politiker:innen mittlerweile nach zahlreicher öffentlicher Kritik gemieden wird, bleibt das Problem einer Datenerfassung über psychisch erkrankte Menschen bestehen.
Drei Stufen zur Datenübermittlung
Zu den Datenübermittlungen zwischen Kliniken, sozialpsychiatrischen Diensten und Polizei schreibt die Regierung im neuen Gesetzesentwurf: „Um die kritischen Stellungnahmen aus der Verbandsanhörung aufzugreifen, wurden diese Regelungen in einen gesonderten Paragraphen aufgenommen.“ Die seien „klarer strukturiert, die übermittlungsfähigen Daten konkret definiert und insbesondere die Kriterien für eine psychiatrische Gefährdungseinschätzung ausdrücklich im Gesetz festgelegt“.
Dabei herausgekommen ist ein dreistufiges Modell, nach dem Kliniken und sozialpsychiatrische Dienste Daten an die örtliche Polizei übermitteln können, sollen oder in der letzten Stufe müssen.
Die Kann-Vorschrift wird wirksam, wenn von einem Menschen ohne Behandlung „eine erhebliche Gefahr für das Leben, die Gesundheit oder andere hochrangige Rechtsgüter Dritter ausgehen könnte“ und erwartet wird, dass die Person sich nicht in eine als notwendig erachtete Behandlung begibt. Die Soll-Vorschrift kommt zum Tragen, wenn der entsprechende Mensch in den zwölf Monaten zuvor bereits „wegen erheblicher Fremdgefährdung untergebracht“ war. Und die Pflicht zur Datenübermittlung tritt in Kraft, wenn es zusätzlich im zurückliegenden Jahr „zu einer Schädigung Dritter“ gekommen ist. Eine Datenübermittlung kann jedoch, so sieht es der Entwurf vor, nicht nur in Richtung der Polizei, sondern auch umgekehrt von dieser zu Kliniken und sozialpsychiatrischen Diensten geschehen, etwa wenn die Zwangseinweisung auf einem „polizeilich aufgenommenen Sachverhalt“ basiert.
Der Entwurf versucht hier, die Datenübermittlung an nachvollziehbare und überprüfbare Bedingungen zu knüpfen. An anderer Stelle im Entwurf fehlt das, etwa wenn es darum geht, wann eine Person zwangseingewiesen werden kann. Denn das soll künftig nicht mehr – wie in der aktuellen Gesetzesfassung – bei akuter Selbst- oder Fremdgefährdung der Fall sein. Sondern auch, wenn eine Gefahr für Leib oder Leben Dritter „zwar unvorhersehbar, aber wegen besonderer Umstände des Einzelfalls jederzeit zu erwarten ist“. Eine Schwelle, die noch schwammig formuliert ist, etwa als „drohende“ Gefahr – ein Begriff, der in den letzten Jahren zunehmend Einzug in die Polizeigesetze gehalten und zu einer Vorverlagerung von Befugnissen geführt hat.
Der überwiegende Teil psychisch erkrankter Menschen hat kein höheres Gewaltpotenzial als Menschen ohne entsprechende Diagnosen. Das Risiko erhöhen können zwar Faktoren wie der Einfluss von Alkohol und anderen Substanzen oder teilweilse nicht angemessen behandelte psychotische Zustände. Fachleute weisen immer wieder darauf hin, dass Gewalt multifaktoriell ist. Sie fordern, dass auch andere Faktoren betrachtet werden müssen, wenn es zu Gewalttaten kommt. So schreibt etwa die Psychotherapeutenkammer Niedersachsen: „Gesamtgesellschaftlich muss Gewalt begünstigenden Faktoren ebenso begegnet werden, unter anderem durch Maßnahmen zum Abbau von Wohnungslosigkeit und verhältnispräventiven Maßnahmen im Bereich Suchtmittelkonsum.“
Besser, aber noch nicht ausreichend
Prof. Dr. Euphrosyne Gouzoulis-Mayfrank, Präsidentin der Deutschen Gesellschaft für Psychiatrie und Psychotherapie, Psychosomatik und Nervenheilkunde (DGPPN), begrüßt die Änderungen im überarbeiteten Gesetzesvorschlag. „Insgesamt ist der Entwurf deutlich verbessert, optimal ist er aber noch nicht“, so die Psychiaterin und Neurologin. Der Entwurf begrenze nun klarer, welche Informationen überhaupt weitergegeben werden dürfen. Im neuen Entwurf ist festgelegt, dass nur Daten zur Identifizierung einer Person und zur „Beschreibung der von ihm ausgehenden Gefahr“ übermittelt werden dürfen. „Daten zum Gesundheitszustand und zum Krankheitsbild des betroffenen Menschen, zum Behandlungsverlauf sowie zu Behandlungsinhalten dürfen nur weitergegeben werden, soweit dies zur Gefahrenabwehr erforderlich ist“, heißt es dort weiter.
Gouzoulis-Mayfrank wünscht sich hier eine noch klarere Formulierung, „dass dies nur bei ‚unabdingbarer‘ Notwendigkeit zulässig ist“. Denn auch wenn es eine Verbesserung darstelle: „Die abgestufte Regelung zur Weitergabe von Daten an die Polizei ist erkennbar ein politischer Kompromiss“, so Gouzoulis-Mayfrank. „Die Voraussetzungen sind enger als im ersten Entwurf, bleiben aus fachlicher Sicht aber hinter dem zurück, was wir für angemessen halten.“ Die Ärztin sieht die Gefahr, dass dennoch bei einer Gefährdungseinschätzung „mehr Informationen über die Erkrankungen preisgegeben werden, als zur konkreten Gefahrenabwehr zwingend erforderlich wären“.
Neben den Regeln zur Datenübermittlung enthält das niedersächsische Psychisch-Kranken-Gesetz, das nach der Änderung Psychisch-Kranken-Hilfe-Gesetz heißen soll, weitere Neuerungen. So sollen etwa die sozialpsychiatrischen Dienste, die Menschen mit psychischen Erkrankungen wohnortnah beraten und begleiten, gestärkt werden. Sie sollen etwa Stellen zur Krisenkoordination einrichten, die auch außerhalb regulärer Öffnungszeiten erreichbar sind.
Die sozialpsychiatrischen Dienste sollen auch an Fallkonferenzen teilnehmen, wenn sie selbst, eine behandelnde Klinik, die Wohnsitzgemeinde des betroffenen Menschen oder die Polizei von einem „erheblichen Fremdgefährdungspotenzial“ ausgehen. Nach Ansicht von Gouzoulis-Mayfrank sollten derartige Fallkonferenzen „nicht generell, sondern anlassbezogen und hochschwellig einberufen werden“. Die DGPPN-Präsidentin weist außerdem darauf hin, dass eine Begleitung durch die sozialpsychiatrischen Dienste einen wirksamen Präventionsbeitrag leisten könne. Die Dienste müssten dann jedoch finanziell und personell entsprechend ausgestattet sein.
„Ärztliche Schweigepflicht steht auf dem Spiel“
Der Vorstand des Vereins „Bundesarbeitsgemeinschaft Psychiatrie-Erfahrener“ hat sich nun, da der Entwurf im Landtag diskutiert wird, in einem offenen Brief an die Abgeordneten des niedersächsischen Landesparlaments gewandt. Der Verein engagiert sich für die Abschaffung von Zwangsmaßnahmen, kritisiert aber auch die geplanten Datenübermittlungsbefugnisse. Die neuen Regelungen würden „Betroffene diskriminieren, indem Krisen als Sicherheitsrisiko statt als Probleme im Leben durch die Polizei und Psychiatrie behandelt werden“. So stehe unter anderem das Vertrauen in die Medizin mit der Schweigepflicht auf dem Spiel, „ein Grundpfeiler jeder Behandlung“.
Der Grünen-Abgeordnete Nicolas Mülbrecht Breer ist Sprecher für Psychiatrie seiner Landtagsfraktion und begrüßt es, dass „sich die Eingaben der Fachwelt im überarbeiteten Entwurf des NPsychKHG wiederfinden“ würden. In einem Positionspapier zur Psychiatrie der niedersächsischen Grünen aus dem November 2025 heißt es unter anderem: „Keine zentrale Erfassung von Erkrankten, Einbindung von Sicherheitsbehörden nur in Einzelfällen“.
Mülbrecht Breer setzt auch im weiteren parlamentarischen Verfahren „auf eine konstruktive Zusammenarbeit mit den jeweiligen Akteur*innen“. Nachdem sich am 5. Februar der Gesundheitsausschuss zum ersten Mal mit dem geplanten Gesetz beschäftigt hat, soll am 16. April dazu eine Sachverständigenanhörung stattfinden. Ziel der rot-grünen Regierungskoalition ist erklärtermaßen, dass das Gesetz bis Juli dieses Jahres in Kraft treten soll.
Der Entwurf für eine Änderung des Landesgesetzes ist nicht die einzige Initiative Niedersachsens für mehr Datenaustausch zu psychisch erkrankten Menschen. Im Januar beschloss der Bundesrat einen Antrag auf Initiative des Landes, der die Bundesregierung auffordert, „insbesondere den Austausch von Gesundheitsdaten und den Erkenntnissen der Gefahrenabwehrbehörden unter datenschutzrechtlichen Vorgaben zu prüfen“ und Gesetze anzupassen. Es soll demnach eine bessere Vernetzung der „Erkenntnisse zwischen Sicherheits-, Gesundheits-, Waffen- und gegebenenfalls anderen relevanten Behörden“ geben.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Der Bremer ÖPNV plant KI-gestützte Videoüberwachung in allen Trams und Bussen. Auch die Polizei hat schon ein Auge auf die Technologie geworfen. Zunächst soll ihr aber heimliches Filmen mit Kameradrohnen erlaubt werden.
In Bremer Bahnen und Bussen wird die Videoüberwachung an eine KI angeschlossen (Symbolbild). – Alle Rechte vorbehalten IMAGO / Peter Endig
In Bremen läuft in 14 Tram-Bahnen KI-gestützte Videoüberwachung, ab April soll das System auf die übrigen Bahnen und Busse ausgerollt werden. Das haben die Verkehrsbetriebe (BSAG) vergangene Woche im Rahmen einer Projektvorstellung bekannt gemacht. Das System versucht zu erkennen, wie die abgebildeten Menschen handeln, um so aggressives Verhalten zu detektieren.
80 Prozent der Kosten von 10.000 Euro je Bahn zahlt das Bundesverkehrsministerium, das hier offenbar ein Leuchtturmprojekt sieht. Laut der Verkehrsbetriebe ist Bremen damit das erste Bundesland mit KI-Überwachung im öffentlichen Nahverkehr. Die Bremer Polizei hat ebenfalls Interesse an der Technologie angemeldet, die sie im öffentlichen Raum einsetzen möchte. Zahlreiche Bundesländer bohren dafür gerade ihre Polizeigesetze auf.
Die für die KI-Analyse nötige Videoüberwachung stünde in Bremen bereit. An 40 Standorten wird der öffentliche Raum mit Kameras kontrolliert. Doch die Bremer Polizei wird noch warten müssen. Am Mittwoch soll eine Novelle des Polizeigesetzes in der Bremischen Bürgerschaft debattiert werden. Die Erlaubnis, Verhaltensscanner zu nutzen, beinhaltet sie nicht. Dafür erlaubt der Gesetzentwurf der Polizei aber den heimlichen Einsatz von Videodrohnen.
Bremer Polizei soll heimlich Überwachungsdrohnen einsetzen
Die Überwachung mit Videodrohnen soll in drei Stufen stattfinden: Livestream zur Lagebeurteilung, Aufzeichnung, verdeckter Einsatz – mit jeweils immer höheren Eingriffsschwellen. Dem verdeckten Einsatz muss beispielsweise ein Richter zustimmen – außer es liegt eine Gefahr für „Leib, Leben oder Freiheit“ einer Person vor. Dann darf die Polizei auch freihändig agieren.
Die Entwicklung ist besonders interessant, da Bremen seit 2007 von einer Koalition aus SPD, Grünen und Linken regiert wird, die sich eigentlich ein besonders liberales Polizeigesetz gegeben hatte. In Bremen kann man etwa nach einer Polizeikontrolle eine Quittung verlangen, die den Grund für die Kontrolle verrät und die Polizist*innen im Land tragen eine individuelle Kennzeichnung.
Nun folgt also auch dieses Land zumindest ein Stück weit dem bundesweiten Trend zur Verschärfung der Polizeigesetze. So soll beispielsweise mit dem neuen Polizeigesetz ein Satz wegfallen, der Zivilpolizist*innen im Rahmen einer Maßnahme dazu verpflichtet, sich unaufgefordert auszuweisen.
Präventiver Einsatz von elektronischen Fußfesseln
Primär geht es in dem Entwurf um den Schutz von Opfern häuslicher Gewalt. Dazu soll der Aufenthaltsort der Täter*innen mit elektronischen Fußfesseln überwacht werden. Nach dem „Spanischen Modell“ sollen sich auch die Opfer freiwillig überwachen lassen können, um bei einer Annäherung des Täters gewarnt zu werden.
Das GPS-Tracking darf nicht nur gegen Ausübende häuslicher Gewalt eingesetzt werden, sondern auch gegen Menschen, denen die Polizei zutraut, dass sie einen Terroranschlag begehen. Der Einsatz ist präventiv möglich, ohne dass es vorher zu einer Straftat gekommen sein muss.
Mit dem neuen Polizeigesetz will Bremen auch die Hürden für Videoüberwachung des öffentlichen Raums senken. Während bislang noch eine erhöhte Kriminalitätsbelastung nötig ist, damit ein bestimmtes Areal überwacht werden kann, soll es künftig reichen, dass die örtlichen Verhältnisse Straftaten erwartbar machen. Dann reicht die Annahme, dass dort irgendwann mal etwas passiert, um ein Areal zu überwachen. Das bringt die Legitimation der Videoüberwachung von einer faktischen, zahlenbasierten Grundlage in die freihändige Einschätzung der zuständigen Polizeikräfte.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Sind wir in Zeiten in denen wir alles in Frage stellen müssen zu gutgläubig? Und wie können wir dennoch unseren Werten treu bleiben wenn uns Vertrauen wichtig ist?
Die zunehmende Komplexität des Lebens befördert Schwurbler und Populisten. Warum das so ist, und wie man dem entgegentritt, lest ihr in diesem Artikel zum Wochenende.
In ihrem neuen Buch „Feindbild Frau“ zeigt Ingrid Brodnig, wie Politiker*innen auf die systematischen Bedrohungen und Beleidigungen reagieren, die sie im Netz erleben. Im Interview spricht sie über dickes Fell, Durchsetzungslücken und Doppelstandards, die es Frauen schwer machen, sich dagegen zu wehren.
Es ist leicht, ein dickes Fell einzufordern, wenn man nicht weiß, was Frauen im Netz erleben, sagt Journalistin Ingrid Brodnig. – Alle Rechte vorbehalten Gianmaria GAva
Ingrid Brodnig beobachtet seit Jahren die Debattenkultur im Netz, wenn man diese so bezeichnen kann. Die österreichische Journalistin hat sich spezialisiert auf Bücher und Beiträge zu Falschinformationen und digitaler Gewalt. Während der Corona-Pandemie galt sie als gefragte Expertin, um Verschwörungstheorien rund um die Pandemie einzuordnen. Noch länger beschäftigt sich Brodnig mit dem, was oftmals unter „Hass im Netz“ gefasst wird: Hetzkampagnen, gezielten Bedrohungen und Beleidigungen im digitalen Raum, die oft unterhalb der Schwelle zur Straftat liegen und doch große Wirkung entfalten.
Sechs Sachbücher hat Brodnig bislang veröffentlicht – unter anderem zu den Auswirkungen des Onlineseins auf die Gesellschaft, Falschnachrichten, Anonymität und zur Macht der großen Plattformen. Jetzt folgt ein weiteres. Für die Recherche hat sie mit Abgeordneten und Politikerinnen aus Deutschland und Österreich über ihre Erfahrungen mit Alltagsgewalt im Internet gesprochen, darunter Renate Künast und Anke Domscheit-Berg.
„Eine substanzielle Aufarbeitung erfolgt kaum“
netzpolitik.org: Dass Politikerinnen im Netz besonders häufig bedroht und massiv beleidigt werden, ist kein neues Phänomen. Warum greifen Sie das Thema erneut auf?
Ingrid Brodnig: Wir sehen diese Fälle in den Medien. Da geht es jedes Jahr um eine andere Person: Renate Künast, Ricarda Lang, Heidi Reichinnek. Eine substanzielle Aufarbeitung erfolgt aber kaum.
Wir beschäftigen uns kurz damit und freuen uns, dass Renate Künast einen juristischen Erfolg erzielt. Aber die Geschichte endet ja damit nicht.Ich wollte von den Politikerinnen erfahren: Wie erfahren sie die Anfeindungen? Und welche wiederkehrenden Muster lassen sich darin erkennen?
netzpolitik.org: Was haben Sie erfahren?
Ingrid Brodnig: Ich mache das an einem Beispiel fest. Vor ein paar Jahren gab es eine schreckliche Massenvergewaltigung in einem Bus in Indien, die Frau starb. Zu dieser Zeit schrieb jemand auf Twitter einer Politikerin, er würde ihr gerne eine Busfahrt durch Indien spendieren.
Das ist eine verklausulierte Vergewaltigungsdrohung, die aus juristischer Sicht womöglich nicht als Vergewaltigungsdrohung eingestuft wird. Denn es wird keine Absicht formuliert im Sinne von: „Ich werde dich vergewaltigen.“ Die Frau sagte dazu: Es macht keinen Unterschied, ob das verklausuliert ist oder nicht, der Effekt ist der gleiche. Das reicht bis hin zu körperlichen Folgen, Herzzustände, Schlaflosigkeit, Zittern plötzlich vor einem TV-Auftritt.
netzpolitik.org: Sie wollen, dass die Menschen so mehr über die Folgen der Gewalt erfahren?
Ingrid Brodnig: Es gibt ein großes Bewusstsein dafür, dass Hass im Netz gegen Frauen existiert, aber die Debatte verpufft schnell an dieser Erkenntnis. Wenn man diese digitale Gewalt genauer beschreibt, dann wird viel klarer, was die Betroffenen erleben und was es auslöst.
„Es ist schlimmer geworden in den vergangenen 10 Jahren“
netzpolitik.org: Sie haben bereits vor zehn Jahren ein Buch mit dem Titel “Hass im Netz” geschrieben, das sich auch mit der Gewalt gegen Politikerinnen befasst. Was hat sich seitdem verändert?
Ingrid Brodnig: Es ist schlimmer geworden. Ich habe zur Vorbereitung das alte Buch nochmal zur Hand genommen und gemerkt: Vieles darin würde ich heute nicht einmal mehr zitieren, weil es mir zu harmlos erscheint.
Es gab eine Verrohung und auch Zermürbung in diesen zehn Jahren. Wir haben uns als Gesellschaft an vieles gewöhnt. Was vor zehn Jahren noch für eine aufgeregte Offline-Debatte gesorgt hätte, empfinden wir heute schon als Business as Usual.
Gleichzeitig haben auch die Plattformen wesentliche Rückschritte gemacht. Dort konnte man eine Phase des Einlenkens beobachten, speziell nach der US-Präsidentschaftswahl im Jahr 2016. Damals wurde klar, wie stark Facebook und andere Plattformen für Propaganda genutzt wurden. Auch die EU schaute streng auf die Plattformen.
Dieser Eindruck ist mit der Wiederwahl von Donald Trump komplett gekippt. Meta hat seine Richtlinien in vielen Punkten aufgeweicht. Formen der Beleidigung und Herabwürdigung gegen Frauen oder LGBTIQ-Personen sind jetzt explizit erlaubt. Man darf LGBTIQ-Personen auf Facebook und Instagram jetzt als “psychisch krank oder anormal” bezeichnen.
„Frausein an sich ist eine Gefahr“
netzpolitik.org: Sie schreiben, die Erfahrungen dieser Politiker*innen seien für sie ein Symbol für den Zustand der Demokratie. Was meinen sie damit?
Ingrid Brodnig: Ich habe zehn Typen von wiederkehrenden geschlechtsspezifischen Beleidigungen und Bedrohungen herausgearbeitet. Ein Typus besteht in der Abwertung, die auf einer sexuellen Verwertungslogik basiert. Das wäre so ein Kommentar wie: “Niemand will dich ficken.” Frauen stehen also besonders im Fokus.
Politikerinnen sind Frauen und sie sind sehr sichtbar. Beides ist eine Gefahrensituation im Internet. Mit Sichtbarkeit steigt die Wahrscheinlichkeit, dass Communitys auf mich aufmerksam werden, die für gänzlich andere Werte eintreten oder an mir ein Exempel statuieren wollen.
Demokratie baut darauf auf, dass die unterschiedlichsten Bevölkerungsgruppen gleichwertig an der politischen Debatte teilhaben können. Das wurde hart erkämpft. Ich glaube, dass derzeit die Gefahr besteht, dass wir hier auf verschiedenen Ebenen Rückschritte machen.
netzpolitik.org: Ein gängiger Einwand lautet, wer in der Öffentlichkeit steht, müsse eben mehr aushalten, auch wenn es mal unfair zugeht.
Ingrid Brodnig: Renate Künast sagte zu mir, als Politikerin hätten die meisten ein bisschen Hornhaut auf der Seele. Für ihr Team seien die Hasskommentare gegen sie anfangs schwerer auszuhalten gewesen als für sie selbst.
Mir macht das Sorge, wenn Menschen in öffentlichen Debatten in einer Demokratie Hornhaut auf der Seele brauchen, um hier überhaupt mitmachen zu können. Es ist immer leichter, eine solche dicke Haut einzufordern, wenn man nicht weiß, was Menschen erleben. Und bei Frauen ist der Verdacht natürlich besonders groß, dass sie einfach zu feinfühlig seien.
netzpolitik.org: Ziehen Frauen sich tatsächlich schneller zurück nach solchen Erfahrungen?
Ingrid Brodnig: Hass im Netz führt tatsächlich dazu, dass Frauen eher leise auftreten oder gar verstummen. 42 Prozent der Frauen, die hasserfüllte Kommentare erhalten, werden vorsichtiger beim Formulieren ihrer Meinung. Bei Männern sind es 16 Prozent, ergab eine norwegische Studie. Das ist ein demokratisches Alarmsignal!
Aber das bedeutet nicht, das Frauen zu schwach sind. Alle Geschlechter erleben digitale Gewalt. Und in jedem einzelnen Fall ist das falsch.
Bei Frauen gibt es allerdings diese spezielle sexualisierte Komponente. Und die hat zum einen eine besonders einschüchternde Wirkung. Zum anderen bekommen Frauen von klein auf gesagt, sie müssten sich vor Gefahren schützen. Es ist oft Teil ihrer Sozialisation, dass sie lernen, den Raum lieber zu verlassen, als zu riskieren, dass die Situation sich weiter zuspitzt.
„Wir haben eine Zweiklassensituation“
netzpolitik.org: In Deutschland wird seit Jahren über Ansätze debattiert, um die Rechte von Betroffene zu stärken. Das Bundesjustizministerium arbeitet an einem „digitalen Gewaltschutzgesetz“. Betroffene sollen damit leichter auf dem Privatklageweg erfahren, wer hinter einem anonymen Account steckt. Was halten Sie davon?
Ingrid Brodnig: Das erscheint mir sinnvoll. Derzeit sind sehr häufig die Kosten einer Privatklage ein hohes Hindernis. Wir haben eine Zweiklassensituation, wo diejenigen, die es sich leisten können, leichter gegen digitale Gewalt vorgehen können als andere. Alles, was dazu beiträgt, das Kostenhindernis zu verringern, ist gut.
netzpolitik.org: Die Pläne für das Gesetz sehen außerdem vor, dass Accounts künftig nach wiederholten Rechtsverletzungen per Gerichtsbeschluss gesperrt werden. Ist das angemessen?
Ingrid Brodnig: Wir müssen eine Lösung finden für Personen, die fortwährend andere Menschen verletzen oder falsche Informationen verbreiten. Wir müssen dann aber auch die Frage nach der Resozialisierung stellen. Wann wird einem Menschen beispielsweise wieder zugesprochen, dass er oder sie wieder posten darf? Bei vielen dieser Nachschärfungen gilt: Der Teufel liegt im Detail. Es bleibt Feinstarbeit.
„Die EU präsentiert sich gerne als Champions der digitalen Grundrechte“
netzpolitik.org: Auf EU-Ebene soll seit 2024 der Digital Services Act die Rechte von Nutzer*innen auf den großen Plattformen stärken. Meta, TikTok und Co. müssen etwa Meldeverfahren anbieten, die “leicht zugänglich und benutzerfreundlich” sind. Hat das zu einer Verbesserung beigetragen?
Ingrid Brodnig: Ohne den Digital Services Act wären wir derzeit sicher schlechter dran in Zeiten, in denen die großen Tech-Plattformen den Schulterschluss mit der Trump-Regierung üben. Der DSA ermöglicht es, hohe Geldbußen zu verhängen, wenn Unternehmen systemisch Risiken ignorieren oder Meldefunktionen fehlen. Aber diese Regeln müssen auch durchgesetzt werden. Bisher gab es aber nur eine negative Entscheidung aus Sicht der Plattformen, nämlich die 120 Millionen Euro Geldbuße für X.
Die EU-Kommission und die EU als Ganzes präsentieren sich gerne als Champions der digitalen Grundrechte. Und auf dem Papier hat die EU auch gute Regeln geschaffen. Aber erst die nächsten ein, zwei Jahre werden zeigen, ob sie dieses Versprechen auch einlöst. Ob ich genügend geschützt werde, wenn Falsches über mich verbreitet wird, wenn ich fertig gemacht werde, wenn ich eingeschränkt werde.
Kann die EU-Kommission die großen Plattformen kontrollieren? Kann sie potenziell rechtswidrige Kommentare auch ernsthaft und rasch prüfen? Und kann sie genügend gegen systemische Risiken unternehmen? An all diesen Fragen wird sich zeigen, wie mutig und selbstbewusst die EU auftritt – auch und gerade gegen die Konzerne in den USA.
„Jede einzelne Anzeige, die leichter erfolgt, ist schon ein Fortschritt“
netzpolitik.org: Was könnte die Bundesregierung konkret tun, um die von Ihnen beschriebene Gewalt einzudämmen?
Ingrid Brodnig: Ich sehe einige konkrete Stellschrauben. Deutschland kann als Staat einige Rechtslücken schließen oder bürokratische Hürden nehmen. Zum Beispiel die Kostenreduktion. Oder auch bildbasierte digitale Gewalt stärker ahnden, zum Beispiel sexualisierte Deepfakes. Das löst das Problem nicht als Ganzes. Aber jede einzelne Anzeige, die leichter erfolgt, ist schon ein Fortschritt. Und die Regierung muss auf europäischer Ebene den Druck erhöhen, damit die eigentlich sinnvollen Regeln auch umgesetzt werden.
netzpolitik.org: Was können Einzelpersonen in dieser Situation beitragen?
Ingrid Brodnig: In der Tat, es gibt eine dritte Ebene: die Persönliche. Ich habe auch mit der Psychotherapeutin und Psychologin Dorothee Scholz gesprochen, die mit Betroffenen digitaler Gewalt zusammenarbeitet. Aus ihrer Sicht kann es die Weltwahrnehmung sehr verändern, wenn Menschen den ganzen Tag nur Hasskommentare lesen.
Das heißt aber auch: Ich kann den Betroffenen solcher Vorfälle schreiben – öffentlich oder privat – und ihnen sagen: Das hast du nicht verdient, lass dich nicht unterkriegen oder du leistest wichtige Arbeit. Auch das hilft.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Seit zwei Jahren gelten neue Regeln für Plattformen in der EU. Die haben schon kleine Fortschritte bewirkt und machen Hoffnung. Aber um sie wirksam durchzusetzen, ist noch viel zu tun.
2 Jahre Digital Services Act, Grund zum Gratulieren? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Kelly Sikkema
Der DSC-Beirat ist ein Gremium aus Zivilgesellschaft, Forschung und Wirtschaft. Er soll in Deutschland die Durchsetzung des Digital Services Act begleiten und den zuständigen Digital Services Coordinator unterstützen. Svea Windwehr ist Mitglied des Beirats und berichtet in dieser Kolumne regelmäßig aus den Sitzungen.
Seit dem 17. Februar 2024, also seit genau zwei Jahren, gilt in der EU der Digital Services Act. Das Regelwerk soll Nutzende schützen und mehr Transparenz und Fairness gegenüber Online-Plattformen und -Diensten schaffen. Gibt es etwas zu feiern?
Die Bilanz ist gemischt: Ein erstes Verfahren gegen X wurde zum Abschluss gebracht, viele andere Ermittlungen laufen noch. Die Rahmenbedingungen für Forschungsdatenzugang stehen endlich, in der Praxis gibt es aber noch massive Probleme. Zivilgesellschaft und Forschende haben unzählige Verfahren angestoßen und liefern wichtige Evidenz zu DSA-Verstößen, sind jedoch Repression und Delegitimierung ausgesetzt.
Pünktlich zum Geburtstag hat sich der neu berufene DSC-Beirat in neuer, kleinerer Konstellation zu seiner ersten gemeinsamen Sitzung getroffen und sich mit dem Stand der DSA-Durchsetzung beschäftigt. Der Beirat ist im Vergleich zu seiner letzten Besetzung geschrumpft, da die vier Vorschläge der AfD im Plenum des Deutschen Bundestages keine Mehrheit fanden. Deshalb und wegen der christ-demokratischen Definition von Zivilgesellschaft ist insbesondere von deren gesetzlich angedachter Stärke im Beirat des DSC nicht viel übrig geblieben.
Fortschritt in kleinen Schritten
Bei der Durchsetzung des DSA geht es nach wie vor oft schleppend voran. Der Koordinator für Digitale Dienste in Deutschland prüft noch, ob weitere außergerichtliche Streitbeilegungsstellen und Trusted Flagger zugelassen werden sollen. Während die Streitbeilegungsstellen etwa bei strittigen Moderationsentscheidungen zwischen Nutzer:innen und Plattformen vermitteln sollen, agieren die Trusted Flagger als vertrauenswürdige Hinweisgeber, deren Meldungen die Plattformen priorisiert bearbeiten sollen. Aktuell gibt es in Deutschland vier Organisationen, die als Trusted Flagger anerkannt sind, sowie zwei Streitbeilegungsstellen.
Von inzwischen insgesamt 30 durch den DSC eingeleiteten Verwaltungsverfahren gegen in Deutschland ansässige Plattformen wegen DSA-Verstößen scheint noch keines zum Abschluss gekommen zu sein. Und auch auf europäischer Ebene wurde seit der Verhängung eines Bußgelds gegen X im Dezember 2025 kein weiteres Verfahren zu Ende gebracht.
Immerhin kleine Fortschritte gibt es beim Datenzugang für Forschende. Nachdem detaillierte Hinweise, wie genau der Datenzugang ausgestaltet werden soll, Ende Oktober 2025 endlich in Kraft getreten sind, können Forschende Anträge auf Datenzugang bei ihren nationalen Aufsichtsbehörden stellen. Über dieses durch den DSA neu geschaffene Recht können sie zum ersten Mal qualitative und quantitative Daten von Plattformen anfragen, um systemische Risiken zu erforschen. Damit schafft der DSA längst überfällige Rahmenbedingungen, die unabhängige Forschung und ein besseres Verständnis von Online-Plattformen ermöglichen sollen – und potenziell wichtige Grundlagen für Durchsetzungsverfahren schaffen können.
Beim deutschen DSC sind seitdem immerhin neun Anträge auf Datenzugang eingegangen. Das klingt vielversprechend, allerdings wurden die meisten der neun Anträge wieder zurückgezogen, da die benötigten Daten auch über den niedrigschwelligeren Datenzugang über Schnittstellen der Plattformen angefragt werden konnten. Diese Möglichkeit, Daten über APIs anzufragen, funktioniert in der Praxis je nach Plattform durchwachsen bis schlecht – mangelnder Zugang zu Forschungsdaten ist einer der DSA-Verstöße, die zum Bußgeld gegen X beigetragen haben. Die Gesellschaft für Freiheitsrechte und Democracy Reporting International haben X kürzlich zum zweiten Mal deswegen verklagt.
Es ist also noch zu früh, um sich über große Durchbrüche beim Datenzugang zu freuen, aber immerhin können Forschende jetzt das System ausprobieren, Anträge stellen und auf Durchsetzung pochen, wenn die Plattformen sich weigern.
Ebenfalls hoffnungsvoll stimmen die kürzlich veröffentlichten vorläufigen Ergebnisse zu einem Verfahren gegen TikTok. Dort kommt die Europäische Kommission zu dem Schluss, dass die Videoplattform nicht genug getan hat, um Risiken von suchtfördernden Mechanismen insbesondere für Minderjährige zu mindern, beispielsweise endlose Feeds und hoch-personalisierte Empfehlungen. Das ist spannend, weil die Kommission davon ausgeht, dass TikTok das „grundlegende Design“ der Plattform ändern muss, um diesen Risiken beizukommen.
Sollte die Kommission bei dieser Einschätzung bleiben und nach Abschluss des Verfahrens Bußgelder gegen TikTok verhängen, hätte der Fall Auswirkungen weit über TikTok hinaus: Endlose Feeds und hoch-personalisierte Empfehlungen sind Kernelemente aller großen sozialen Netzwerke und Videosharingplattformen. Hier zeigt der DSA sein Potenzial, einerseits strukturelle Änderungen zu erstreiten, die das Businessmodell der Plattformen direkt betreffen. Das könnte zu anderen und besseren digitalen Räumen führen .
Andererseits zeigt die Argumentation, dass der DSA sinnvolle Werkzeuge bietet, um den Features und Plattform-Praktiken zu begegnen, die in der Debatte um Verbote von sozialen Medien für Kinder und Jugendliche im Fokus stehen: süchtigmachendes Design, Personalisierung basierend auf Unmengen persönlicher Daten, Produktdesign, das die Rechte und Interessen von Kindern wahrt.
Ein solches Verbot wurde Anfang Februar von Spaniens Premierminister Pedro Sanchez angekündigt, wofür er prompt von Elon Musk als Tyrann und Verräter Spaniens betitelt wurde. Daraufhin solidarisierte sich die Europäische Kommission mit Sanchez, während sie gleichzeitig festhielt, dass nur die Europäische Kommission durch den DSA weitere Verpflichtungen gegenüber sehr großen Online-Plattformen aussprechen darf. Angesichts des Eifers von Mitgliedstaaten wie Spanien, Italien, Griechenland, Frankreich und den Niederlanden bleibt abzuwarten, ob sich EU-Regierungen diesem Machtwort aus Brüssel beugen werden. Ob es also europäische Verboten von sozialen Medien geben wird, ist nach wie vor unklar.
Keine Durchsetzung ohne Repression
Solidarisch hatte sich die Europäische Kommission Ende Dezember auch gegenüber Mitgliedern eines angeblichen „globalen Zensur-industriellen Komplexes“ gezeigt, nachdem sie vom US-Außenministerium mit Visa-Sanktionen belegt worden waren, unter ihnen die beiden Geschäftsführerinnen von HateAid. HateAid ist eine der Organisationen, die als Trusted Flagger in Deutschland zugelassen sind.
Mit diesen Sanktionen markiert die Trump-Regierung Menschen als politische Feinde, die Online-Plattformen für Verstöße gegen geltendes Recht zur Verantwortung ziehen, bestraft sie und versucht, sie an ihrer Arbeit zu hindern.
Seit den Sanktionen gegen Zivilgesellschaft und Forschende vom Dezember hat ein neuer Bericht des Rechtsausschusses des US-Abgeordnetenhauses die Situation weiter verschärft. Die Beschäftigung des Ausschusses mit dem DSA ist getrieben von Jim Jordan, einem republikanischen Abgeordneten, der seit Jahren damit beschäftigt ist, die angebliche Zensur von US-Amerikaner:innen durch den DSA zu beweisen.
Auf 160 Seiten breitet der Bericht Jordans wirre Fantasie aus, dass die Europäische Kommission, unterstützt von der europäischen Zivilgesellschaft, nur ein Ziel mit dem DSA verfolge: die Unterdrückung konservativer, US-amerikanischer Stimmen. Dabei stützt sich der Bericht auf massenweise E-Mails, Screenshots und Dokumente, die Jordan durch Herausgabeverlangen von US-Plattformen bekam – wogegen sich Plattformen offensichtlich nicht oder kaum gewehrt haben.
Der Jordan-Bericht stellt jedoch nicht nur eine Reihe von Falschbehauptungen auf, sondern identifiziert und markiert auch eine ganze Reihe von Kommissionsmitarbeitenden und Vertreter:innen der Zivilgesellschaft, die an Workshops der Kommission zur DSA-Durchsetzung teilnahmen oder anderweitig an der Durchsetzung des DSA beteiligt sind. Ein gefundenes Fressen für jene Kräfte, die genau diese Arbeit verhindern wollen.
Die Repressionen gegen HateAid und Co. werden also wahrscheinlich nicht die letzten gegen Menschen und Organisationen gewesen sein, die sich um die Durchsetzung des DSA bemühen. Auf Seite der Behörden scheint man auch nach dem Shitstorm um Trusted Flagger und der Demontage des Stanford Internet Institute auf Druck rechtskonservativer Politiker kaum auf solche Szenarien vorbereitet sein – um nur zwei Beispiele zu nennen, in denen rhetorische Delegitimierungen durch rechte Akteure zu Einschüchterung, Gefahren für Einzelpersonen und dem Verlust von institutionellen Strukturen geführt haben.
Aufsichtsbehörden, Politik und die Kommission sind jetzt gefragt, nicht nur ihre Solidarität auszudrücken, sondern konkrete Maßnahmen zum Schutz von Zivilgesellschaft und Forschung zu ergreifen. Dabei darf aber nicht nur in die USA geschaut werden: Auch in Deutschland und anderen Mitgliedstaaten setzen konservative und rechte Kräfte die Zivilgesellschaft immer stärker unter Druck. Vom Anti-NGO-Kurs der Union über die Gemeinnützigkeitsdebatte und Kontoschließungen linker Organisationen bis zu physischen Angriffen gegen Aktivist:innen – wenn es der Politik ernst damit ist, zivilgesellschaftliche Arbeit zu schützen, darf sie nicht zwischen politisch genehmen und unbequemen Organisationen unterscheiden.
Ein ganzheitlicher Ansatz muss her: nachhaltige und großzügige Finanzierung, rechtliche Absicherung und vor allem eine Regierungspartei, die versteht, dass die Delegitimierung von NGOs letztlich nur einer Seite hilft – den Feinden demokratischer und offener Gesellschaften.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Das Bundesgesundheitsministerium hat in der vergangenen Woche ein Update zur Digitalisierungsstrategie des Gesundheitswesens vorgelegt. Die sogenannte Künstliche Intelligenz spielt darin eine zentrale Rolle. Umso wichtiger ist es, dass wir jetzt die richtigen Fragen stellen.
Hört ihr bereits eine „KI“ zu? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Vitaly Gariev
Die Strategie hatte der damalige Minister Karl Lauterbach ursprünglich im Jahr 2023 vorgelegt. Der Aufbau des Europäischen Gesundheitsdatenraums (EHDS), neue Erwartungen im Bereich der „Künstlichen Intelligenz“ sowie der Plan eines neuen Systems für die Erstversorgung machten das nun vorgelegte Update notwendig.
Die wichtigsten Elemente: Die ePA soll zur zentralen Anwendung für Gesundheitsthemen ausgebaut werden, Digitalisierung der Schlüssel zu einem erfolgreichen Primärärzt*innensystem sein und „KI“ soll „sicher, flächendeckend und wirksam“ eingesetzt werden.
Digitalisierung und „KI“ werden das Gesundheitswesen fraglos verändern. Doch es ist wichtig, jetzt die richtigen Fragen zu stellen.
Wie weit hilft „KI“ dem Gesundheitswesen?
Während Digitalisierung und „KI“ durchaus das Potenzial haben, Prozesse im Gesundheitswesen zu vereinfachen und die Versorgung zu verbessern, kommt es auf eine gewissenhafte Abwägung bei der Umsetzung an.
Dabei dürfen wir vor allem nicht vernachlässigen, wie weitreichend die Auswirkungen auf Menschen in Gesundheitsberufen, auf Patient*innen und auf das Verhältnis zwischen ihnen sein können. Dazu braucht es mehr strategische Auseinandersetzung und Debatten.
Den großen Hoffnungen, mit denen der Einsatz von „KI“ derzeit verbunden ist, müssen wir realistisch begegnen. Weder wird „KI“ alle strukturellen Probleme im Gesundheitswesen wie Personalmangel oder Kostenexplosion lösen können. Noch sind die großen Versprechungen medizinischer Spitzenleistungen und Effizienzgewinne bisher eingetreten – oder auch nur auf absehbare Zeit erwartbar.
Die technische Architektur der KI-Systeme gründet auf massenhaften Daten plus Stochastik, also der mathematischen „Kunst des Vermutens“. Das begrenzt diese Systeme dauerhaft. Es gibt keine Garantie dafür, dass Aussagen der „KI“ wahr und richtig sind.
Anders als bei einem Algorithmus, der nach festen Regeln funktioniert und bei gleichen Bedingungen wiederholbare Ergebnisse liefert, ist diese Wiederholbarkeit bei „KI“ gerade nicht gewährleistet. Auch ist es nicht nachvollziehbar, was genau den jeweiligen Antworten zugrunde liegt.
Welche Zwecke soll und kann Dokumentation erfüllen?
„KI“-gestützte Dokumentation soll in wenigen Jahren bei mehr als 70 Prozent der Einrichtungen der Standard sein, heißt es in der Strategie.
Sicherlich: Dokumentation ist oft lästig, aber sie kann auch dabei helfen, ein gemeinsames Verständnis zwischen Patient*in und Ärzt*in herzustellen, Angaben zu überprüfen oder eine wichtige abschließende Reflexion über einen Fall darstellen.
Was bewirkt Automatisierung mit „KI“?
Doch selbst wenn eine Entlastung durch Automatisierung in diesem Fall naheliegt: Schafft sie am Ende tatsächlich mehr qualitativ hochwertige Zeit für die Behandlung von Patient*innen? Oder wird sie am Ende die Arbeit von Menschen in Gesundheitsberufen noch weiter verdichten?
Das ist gerade angesichts des demografischen Wandels erwartbar. Er wird in den nächsten Jahren dazu führen, dass viele ältere Patient*innen größere Behandlungsbedarfe in die Praxen und Krankenhäuser bringen, während zugleich viele Menschen in Gesundheitsberufen in Rente gehen. Weniger Ärzt*innen müssen also künftig mehr Patient*innen behandeln – wenn nicht gegengesteuert wird.
Dabei entscheidet eine gute Beziehung zwischen Ärzt*innen und Patient*innen über den Heilungsverlauf mit, auch bei körperlichen Erkrankungen. Doch dafür braucht es vor allem eines: Zeit.
Bei der Automatisierung der Dokumentation strebt die Ministerin ein hohes Tempo an. Mit Blick auf die bisher auf dem Markt dominierenden Anbieter könnte das dazu führen, dass schon bald OpenAI, Google Gemini und Co. regelmäßig ebenfalls im Sprechzimmer anwesend sind. Die Abhängigkeit von den US-amerikanischen Tech-Konzernen wächst bei verstärktem Einsatz dieser Dienste also weiter an.
Große Anbieter von Praxisverwaltungssystemen werben bereits mit „KI“-Tools zur Dokumentation und Automatisierung. Schaut man genauer in deren Datenschutzbestimmungen, bestätigt sich diese Vermutung.
VIA Health verspricht als „erster virtueller Assistent speziell für die Psychotherapie“ besten Datenschutz. Gleichzeitig weist das Unternehmen in seiner Datenschutzerklärung darauf hin, zur „Transkribierung der Audiospur sowie […] Erstellung der Sitzungsprotokolle“ verschiedene Drittanbieter von „Large Language Models (LLMs)“ einzusetzen.
Das alles spiegelt die gegenwärtige Realität weiter Teile unserer digitalen Infrastruktur wider. Zugleich passt es nicht zusammen mit politischen Forderungen nach mehr digitaler Souveränität, die auch von der Bundesregierung selbst regelmäßig vorgetragen werden.
Wie verändern Sprachmodelle die Beziehung zwischen Ärzt*innen und Patient*innen?
Auch zu „KI“-gestützten Systemen der medizinischen Ersteinschätzung müssen wir uns Gedanken machen. Künftig sollen Symptome in ein Computersystem eingegeben werden, danach erfolgt eine technische Einschätzung.
Dieses Verfahren soll Teil des Erstversorgungssystems werden und so den Zugang ins Gesundheitswesen (mit)regeln. Noch ist nicht klar, ob regelbasierte Algorithmen oder „KI“ die technische Grundlage dafür bilden werden.
Es kann grundsätzlich sinnvoll sein, vor dem Besuch einer Praxis die Symptome in ein technisches System einzugeben und sich gegebenenfalls aufgrund einer besseren Steuerung Wartezeit zu ersparen.
Eines genaueren Blicks bedürfen allerdings Themen, die sensibler und oft schambesetzt sind. Einfühlsam und ohne Vorurteile über Sexualität zu reden, fällt Menschen oft schwer. Viele Patient*innen sprechen das Symptom einer Geschlechtskrankheit daher erst am Ende einer Sprechstunde an. Oder eine psychische Belastungssituation wird erst im Laufe eines Gesprächs deutlich.
Öffnen wir mit digitalen Angeboten also tatsächlich neue Wege für Patient*innen? Oder verlieren wir etwas, wenn wir auf standardisierte digitale Ersteinschätzungen setzen? Und wie können geschützte Räume entstehen für sensible Themen wie Sexualität, Geschlechtskrankheiten, Substanzkonsum oder psychische Störungen, wenn das vertrauliche Gespräch mit einer behandelnden Person von einem „KI“-Tool mitgeschnitten wird?
Wie gut sind Sprachmodelle als Gesundheitsassistenzen wirklich?
„KI“ soll zur ständigen Begleiterin für Patient*innen werden und perspektivisch „individualisierte Gesundheitsempfehlungen“ geben, heißt es in der Strategie. Das Bundesgesundheitsministerium möchte so die Eigenverantwortung der Versicherten stärken.
Dabei hat gerade erst eine in der wissenschaftlichen Zeitschrift „Nature“ veröffentlichte Studie gezeigt, dass „KI“-Systeme faktisch daran scheitern, richtige Ergebnisse hervorzubringen, sobald man sich von theoretischem Lehrbuchwissen verabschiedet und reale Patient*innen auf sie loslässt.
Hinzu kommt: Bei Sprachmodellen, der Grundlage von KI-Systemen, werden die Eingaben nicht über Standardfragen geleitet. Sondern das Verfahren hängt stark von den Eingaben der User*innen ab – und damit die Ausgaben der Systeme.
Weil aber die Anzahl möglicher Nutzer*inneneingaben unbegrenzt ist, lässt sich damit auch nicht verlässlich für alle Anwendungsfälle überprüfen, wie gut ChatGPT und Co. im Einzelfall reagieren. Die Erwartung an Verlässlichkeit von Software-Programmen, die sich aus Zeiten regelbasierter Programmierung speist, ist bei auf Stochastik gründenden Ansätzen nicht haltbar – denn da sind immer Wahrscheinlichkeiten oder sogar der Zufall im Spiel.
Zwar gibt es mittlerweile Beispiele, in denen Menschen sagen: „KI“ hat mir dabei geholfen, dass es mir gesundheitlich wieder besser geht. Gerade bei seltenen Erkrankungen, denen Ärzt*innen in ihrem Berufsalltag nur überaus selten begegnen, wird den Sprachmodellen ein solches Potenzial zugesprochen.
Gleichzeitig gibt es jedoch groteske Beispiele, in denen ChatGPT bei der Bewertung von Daten eines Gesundheitstrackers die Note „ungenügend“ – also kurz vor Herzinfarkt – „erraten“ hat, während zwei Ärzte keine Anhaltspunkte für eine Erkrankung finden konnten.
Menschen handeln als Menschen und sind damit – auch in der Interaktion mit Maschinen und bei der Interpretation „maschineller“ Antworten – oft unberechenbar.
Das wiederum kann weitreichende Auswirkungen für Interaktionen zwischen Mensch und Mensch im Behandlungszimmer haben. Fragen Ärzt*innen in der Sprechstunde künftig mit ab, ob Patient*innen bereits vorab mit „KI“ recherchiert haben? Wie gehen Versicherte damit um, wenn sich Empfehlungen von „KI“-Systemen von denen realer Mediziner*innen unterscheiden? Oder wenn die von der „KI“ vorgeschlagenen Behandlungen nicht von den Kassen gedeckt werden?
Wie bleibt das Gesundheitswesen menschlich?
Wenn sie gut gemacht sind, bieten Technologien die Chance, Medizin besser zu machen. Dafür müssen wir uns allerdings die richtigen Fragen stellen – jenseits von Heilsversprechen und Technikgläubigkeit sowie im Wissen um den hochkomplexen Faktor Mensch.
Der Mensch ist dabei kein „nerviges Beiwerk“. Am Ende sollen es ja wir alle sein, die von den neuen Technologien profitieren – und nicht nur die Tech-Milliardäre, die sie mit den größten Versprechungen bewerben.
ManuelHofmannistReferentfürDigitalisierungderDeutschenAidshilfe. Offenlegung:DerAutorhatimvergangenenJahrauf EinladungderGematikamFachforum „Technologien und Anwendungen“fürdieWeiterentwicklung der Digitalisierungsstrategie „Gemeinsam Digital“ teilgenommen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Bundesgesundheitsministerin Nina Warken hat ihre Digitalisierungsstrategie vorgelegt. Darin betont die CDU-Ministerin, die Patient:innensouveränität stärken zu wollen. Tatsächlich aber will sie eine der umfassendsten Gesundheitsdateninfrastrukturen weltweit aufbauen. Nutznießer sind Forschung und Pharma-Unternehmen. Die Rechte der Patient:innen bleiben auf der Strecke.
Ganz auf die Vernetzung von Gesundheitsdaten fokussiert: Gesundheitsministerin Nina Warken (CDU). – Alle Rechte vorbehalten IMAGO / dts Nachrichtenagentur
Rund 75 Millionen gesetzlich Versicherte, ihre Gesundheitsdaten täglich übermittelt an ein nationales Forschungsdatenzentrum, verknüpfbar mit hunderten Medizinregistern und europaweit vernetzt – das ist die Vision von Bundesgesundheitsministerin Nina Warken (CDU).
Die Ministerin präsentierte in der vergangenen Woche ihre „Digitalisierungsstrategie für das Gesundheitswesen und die Pflege“. Darin verspricht Warken eine bessere medizinische Versorgung und mehr Patientensouveränität. Tatsächlich aber zielt ihre Strategie vor allem darauf ab, eine der umfassendsten Gesundheitsdateninfrastrukturen weltweit aufzubauen.
Das knapp 30-seitige Papier legt zugleich die Grundlage für ein umfangreiches „Digitalgesetz“. Den Entwurf will das Bundesgesundheitsministerium (BMG) noch im laufenden Quartal vorlegen. Die Rechte der Patient:innen drohen darin weitgehend auf der Strecke zu bleiben.
Die geplante Dateninfrastruktur ruht auf drei Säulen: die elektronische Patientenakte, das Forschungsdatenzentrum Gesundheit und das geplante Medizinregistergesetz. Das Zusammenspiel aller drei Vorhaben ebnet auch der EU-weiten Vernetzung der Gesundheitsdaten den Weg.
Die ePA soll zur „Gesundheits(daten)plattform“ werden
Alle Versicherten, die nicht widersprochen haben, besitzen seit Januar 2025 eine elektronische Patientenakte (ePA); seit Oktober 2025 sind Behandelnde dazu verpflichtet, sie zu verwenden. Gesundheitsministerin Warken will die ePA nicht nur zum „zentralen Dreh- und Angelpunkt“ der ärztlichen Versorgung machen, sondern auch zur „Gesundheits(daten)plattform“ ausbauen.
Dafür sollen erstens mehr strukturierte Daten in die ePA fließen, die dann „möglichst in Echtzeit für entsprechende Anwendungsfälle nachnutzbar“ sind. Derzeit sind dort vor allem noch PDF-Dateien hinterlegt, die nicht einmal durchsuchbar sind, was den Umgang mit der ePA aus Sicht von Behandelnden deutlich erschwert.
Zweitens soll die ePA weitere Funktionen wie eine digitale Terminvermittlung und elektronische Überweisungen erhalten. Die Patientenakte soll so „auch interessanter werden für diejenigen, die nicht krank sind“, kündigte Warken an. Derzeit nutzen gerade einmal rund 4 Millionen Menschen ihre ePA aktiv. Bis zum Jahr 2030 soll sich ihre Zahl, so das Ziel des BMG, auf 20 Millionen erhöhen.
„Künstliche Intelligenz“ soll Symptome auswerten
Wer sich krank fühlt, soll künftig auch über die ePA-App eine digitale Ersteinschätzung einholen können. Mit Hilfe eines Fragenkatalogs sollen Versicherte dann erfahren, ob ihre Symptome den Gang zur Hausärztin oder gar zur Notfallambulanz rechtfertigen.
Diese Auswertung soll offenbar auch mit Hilfe sogenannter Künstliche Intelligenz erfolgen. Ohnehin soll KI laut Warken „in Zukunft da eingesetzt werden können, wo sie die Qualität der Behandlung erhöht, beim Dokumentationsaufwand entlastet oder bei der Kommunikation unterstützt“. Bis 2028 sollen beispielsweise mehr als 70 Prozent der Einrichtungen in der Gesundheits- und Pflegeversorgung KI-gestützte Dokumentation nutzen – ungeachtet der hohen Risiken etwa für die Patientensicherheit oder die Autonomie der Leistungserbringer.
Dafür will das BMG „unnötigen bürokratischen Aufwand“ für KI-Anbieter reduzieren. Das Ministerium strebt dafür mit Blick auf den Digitalen Omnibus der EU-Kommission „eine gezielte Anpassung der KI-Verordnung“ an. Das umstrittene Gesetzesvorhaben der Kommission zielt darauf ab, Regeln für risikoreiche KI-Systeme hinauszuzögern und den Datenschutz deutlich einzuschränken. Zivilgesellschaftliche Organisationen warnen eindringlich, dass mit dem Omnibus der „größte Rückschritt für digitale Grundrechte in der Geschichte der EU“ drohe.
Forschungsdatenzentrum soll als „Innovationsmotor“ wirken
Die in der ePA hinterlegten Daten sollen aber nicht nur der ärztlichen Versorgung dienen, sondern vor allem auch der Forschung zugutekommen. Sie sollen künftig – sofern Versicherte dem nicht aktiv widersprechen – täglich automatisch an das Forschungsdatenzentrum Gesundheit (FDZ) gehen. Während Warken die ePA als „Dreh- und Angelpunkt“ der Versorgung sieht, beschreibt sie das FDZ als „Innovationsmotor“ der Gesundheitsforschung.
Das FDZ wurde nach jahrelangen Verzögerungen im vergangenen Herbst erst handlungsfähig. Es ist beim Bundesamt für Arzneimittel und Medizinprodukte (BfArM) in Bonn angesiedelt. Forschende können sich bei dem Zentrum registrieren, um mit den dort hinterlegten Daten zu arbeiten. Auch Pharma-Unternehmen können sich bewerben. Eine Voraussetzung für eine Zusage ist, dass die Forschung einem nicht näher definierten „Gemeinwohl“ dient.
Die pseudonymisierten Gesundheitsdaten sollen das FDZ nicht verlassen. Stattdessen erhalten Forschende Zugriff auf einen Datenzuschnitt, der auf ihre Forschungsfrage abgestimmt ist. Die Analysen erfolgen in einer „sicheren Verarbeitungsumgebung“ auf einem virtuellen Desktop, das Forschende übers Internet aufrufen können.
Ob dabei tatsächlich angemessene Schutzstandards bestehen, muss indes bezweifelt werden. Denn das Forschungszentrum verfügte in den vergangenen Jahren nicht einmal über ein IT-Sicherheitskonzept, weshalb auch ein Gerichtsverfahren der Gesellschaft für Freiheitsrechte ruht.
Gemeinsam mit der netzpolitik.org-Redakteurin Constanze Kurz hatte die GFF gegen die zentrale Sammlung sensibler Gesundheitsdaten beim FDZ geklagt. Aus ihrer Sicht sind die gesetzlich vorgesehenen Schutzstandards unzureichend, um die sensiblen Gesundheitsdaten vor Missbrauch zu schützen. Sie verlangt daher für alle Versicherten ein voraussetzungsloses Widerspruchsrecht gegen die Sekundärnutzung der eigenen Gesundheitsdaten. Nachdem das FDZ seit Oktober den aktiven Betrieb aufgenommen hat, dürfte das ruhende Verfahren in Kürze fortgesetzt werden.
„Real-World-Überwachung“ ermöglichen
Dessen ungeachtet haben sich laut BfArM-Präsident Karl Broich bereits 80 Einrichtungen beim FDZ registriert. Die Antragsteller kommen zu gleichen Teilen aus Wirtschaft, Verwaltung und Forschung. Mehr als zwei Drittel von ihnen hätten bereits konkrete Forschungsanträge gestellt, bis zum Ende des Jahres will Warken diese Zahl über die Schwelle von 300 hieven. Alle positiv beschiedenen Anträge sollen künftig in einem öffentlichen Antragsregister einsehbar sein.
Zum Jahreswechsel wird das FDZ wohl auch über weit mehr Daten verfügen als derzeit. Bislang übermitteln die gesetzlichen Krankenkassen die Abrechnungsdaten all ihrer Versicherten an das Forschungszentrum. Diese geben bereits Auskunft darüber, welche Leistungen und Diagnosen die Versicherungen in Rechnung gestellt bekommen haben.
Ab dem vierten Quartal dieses Jahres sollen dann nach und nach die Behandlungsdaten aus der ePA hinzukommen. Den Anfang machen Daten aus der elektronischen Medikationsliste, anschließend folgen die Laborfunde, dann weitere Inhalte.
Der baldige Datenreichtum gibt dem FDZ aus Sicht von BfArM-Chef Broich gänzlich neue Möglichkeiten. Er geht davon aus, dass seine Behörde in zehn Jahren bundesweit „einer der großen Daten-Hubs“ ist. Mit den vorliegenden Daten könnten Forschende dann umfassende „Lifecycle-Beobachtungen“ durchführen – „eine Real-World-Überwachung also, die klassische klinische Prüfungen so nicht abdecken können“.
Auch im FDZ soll „Künstliche Intelligenz“ mitwirken. Zum einen in der Forschung selbst: „Dafür arbeiten wir an Konzepten, die Datenschutz, Sicherheit und wissenschaftliche Nutzbarkeit von Beginn an zusammendenken“, sagt Broich. Zum anderen soll das FDZ Datensätze etwa für das Training von Sprachmodellen bereitstellen, wie die Digitalisierungsstrategie des BMG ausführt und auch bereits gesetzlich festgeschrieben ist. Sowohl Training als auch Validierung und Testen von KI-Systemen sind eine zulässige Nutzungsmöglichkeiten. Das bedeutet konkret: Die sensiblen Gesundheitsdaten von Millionen Versicherten können zum Training von Sprachmodellen verwendet werden.
Warken will Medizinregister miteinander verknüpfen
Ab 2028 könnten Trainingsdaten dann auch detaillierte Daten zu Krebserkrankungen enthalten. Denn in knapp zwei Jahren sollen die FDZ-Datenbestände mit Krebsregistern sowie dem Projekt genomDE verknüpft werden, das Erbgutinformationen von Patient:innen sammelt.
Die Datenfülle beim FDZ dürfte damit noch einmal ordentlich zunehmen. Allein die Krebsregister der Länder Bayern, Nordrhein-Westfalen und Rheinland-Pfalz halten Daten von insgesamt mehr als drei Millionen Patient:innen vor. Wer nicht möchte, dass etwa die eigenen Krebsdaten mit den Genomdaten verknüpft werden, muss mindestens einem der Register komplett widersprechen.
Im Gegensatz etwa zu den Krebsregistern der Länder, die auf Basis spezieller rechtlicher Grundlagen arbeiten, bewegen sich die meisten anderen Medizinregister dem BMG zufolge derzeit „in einem heterogenen Normengeflecht von EU-, Bundes- und Landesrecht“, was „die Schaffung einer validen Datenbasis“ behindere.
Das Ministerium hat daher bereits im Oktober das „Gesetz zur Stärkung von Medizinregistern und zur Verbesserung der Medizinregisterdatennutzung“ auf den Weg gebracht. Der Referentenentwurf sieht vor, einheitliche rechtliche Vorgaben und Qualitätsstandards für Medizinregister zu schaffen.
Ein Zentrum für Medizinregister (ZMR), das ebenfalls am BfArM angesiedelt wäre, soll demnach bestehende Medizinregister nach festgelegten Vorgaben etwa hinsichtlich Datenschutz und Datenqualität bewerten. Qualifizierte Register werden dann in einem Verzeichnis aufgeführt, dürfen zu einem festgelegten Zweck kooperieren und auch anlassbezogen Daten zusammenführen. Die personenbezogenen Daten, die dort gespeichert sind, können für die Dauer von bis zu 100 Jahren in den Registern gespeichert werden.
Derzeit gibt es bundesweit rund 350 Medizinregister. Zu den größten zählen das „Deutsche Herzschrittmacher Register“, das die Daten von mehr als einer Million Patient:innen enthält, und das „TraumaRegister DGU“ mit Daten von mehr als 100.000 Patient:innen. Das Gesundheitsministerium geht davon aus, dass etwa drei Viertel der bestehenden Medizinregister Interesse daran haben könnten, in das Verzeichnis des ZMR aufgenommen zu werden.
Verbraucher- und Datenschützer:innen mahnen Schutzvorkehrungen an
Gesundheitsdaten, die dem ZMR vorliegen, sollen ebenfalls pseudonymisiert oder anonymisiert der Forschung bereitstehen. Das geplante Medizinregistergesetz sieht außerdem vor, dass die Daten qualifizierter Register ebenfalls miteinander verknüpft werden können.
Fachleute weisen darauf hin, dass eine Pseudonymisierung insbesondere bei Gesundheitsdaten keinen ausreichenden Schutz vor Re-Identifikation bietet. Das Risiko wächst zudem, wenn ein Datensatz mit weiteren Datensätzen zusammengeführt wird, wenn diese weitere personenbezogene Daten der gleichen Person enthält.
Das Netzwerk Datenschutzexpertise warnt zudem davor, die Krankenversichertennummer in einer Vielzahl von Registern vorzuhalten. Weil im Gesetzentwurf notwendige Schutzvorkehrungen fehlen würden, sei „das Risiko der Reidentifizierung bei derart pseudonymisierten Datensätzen massiv erhöht“.
Der Verbraucherzentrale Bundesverband kritisiert die Menge an personenbezogenen Daten, die laut Gesetzentwurf an qualifizierte Medizinregister übermittelt werden dürfen. Dazu zählen neben sozialdemographischen Informationen auch Angaben zu Lebensumständen und Gewohnheiten sowie „zu einem Migrationshintergrund oder einer ethnischen Zugehörigkeit, der Familienstand oder die Haushaltsgröße“.
Um die Patient:innendaten besser zu schützen, forderte der Verband bereits im November vergangenen Jahres, eindeutig identifizierende Daten vom Kerndatensatz eines Medizinregisters getrennt aufzubewahren.
Gesundheitsministerium schafft Schnittstellen in die EU
Das Gesundheitsministerium lässt sich davon jedoch nicht beirren und strebt weitere Datenverknüpfungen an. Laut seiner Digitalisierungsstrategie will das BMG das Forschungspseudonym auch dazu nutzen, um die Gesundheits- und Pflegedaten „mit Sozialdaten und Todesdaten zu Forschungszwecken“ sowie „mit Abrechnungs- und ePA-Daten“ zu verbinden. Ob Versicherte dieser umfangreichen Datenverknüpfung überhaupt noch effektiv und transparent widersprechen können, ist derzeit zweifelhaft. Sicher aber ist: Der Aufwand dürfte immens sein.
Die Digitalisierungsstrategie macht ebenfalls deutlich, dass das Ministerium die geplanten Maßnahmen auch in Vorbereitung auf den Europäischen Gesundheitsdatenraum (EHDS) ergreift. Der EHDS ist der erste sektorenspezifische Datenraum in der EU und soll als Blaupause für weitere sogenannte Datenräume dienen. Schon in wenigen Jahren sollen hier die Gesundheitsdaten von rund 450 Millionen EU-Bürger:innen zusammenlaufen und grenzüberschreitend ausgetauscht werden.
Konkret bedeutet das: In gut drei Jahren, ab Ende März 2029, können auch Forschende aus der EU beim FDZ Gesundheitsdaten beantragen. Und das Zentrum für Medizinregister soll dem BMG zufolge ebenfalls Teil der europäischen Gesundheitsdateninfrastruktur werden.
Der größte Brückenschlag in der Gesundheitsdateninfrastruktur steht also erst noch bevor. Und auch hier bleibt die Ministerin eine überzeugende Antwort schuldig, was die Versicherten davon haben.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Mit Spionage-Apps können Menschen tief in das digitale und analoge Leben anderer eindringen. Aber es gibt Möglichkeiten, den Überwachungstools beizukommen. Dafür muss die Bundesregierung endlich handeln. Ein Kommentar.
Bundesjustizministerin Stefanie Hubig: Ihr Haus will bald den Entwurf für ein digitales Gewaltschutzgesetz vorlegen – Alle Rechte vorbehalten IMAGO / dts Nachrichtenagentur
Stell dir vor, du wirst von deinem Ex-Partner verfolgt. Er lauert dir immer wieder auf, fängt dich vor dem Kino ab oder setzt sich im Zug neben dich, um dir Gespräche aufzuzwingen. Über ein Browser-Interface sieht er, wo du bist, und erfährt intimste Details aus deinem Leben.
Für viele Frauen ist das Realität. Jede 100. Frau in Deutschland ist in den vergangenen fünf Jahren mit digitalen Tools gestalkt worden, das zeigt eine aktuelle Studie des Bundeskriminalamtes.
Spionage-Apps, AirTags, GPS-Tracker und andere technische Hilfsmittel gehören heute zum Standardrepertoire von Stalkern. Dabei sind die Spionage-Apps besonders heimtückisch. Mit ihnen braucht man keine Ortungsgeräte und keine Wanzen, um eine Person zu überwachen. Sie machen das Mobiltelefon zu einem multimedialen Kontrollinstrument. Zu einem, das die Betroffenen ganz freiwillig mit sich tragen.
Betroffene, die zur Polizei gehen, bekommen dort oft nur Unverständnis entgegengebracht. Das Wissen darum, dass derartige Spionage-Programme leicht zugänglich sind, ist noch viel zu wenig verbreitet. Expert*innen fordern Schulungen für Ermittler*innen, sowie Protokolle, die sie darauf verpflichten, bei der Erfassung häuslicher Gewalt immer auch eine mögliche digitale Ebene mitzudenken. Eigentlich müsste jede Stelle, die mit gewaltbetroffenen Personen in Kontakt kommt, eine Vorstellung davon haben, was digitale Gewalt bedeutet und was zum Schutz der Betroffenen zu tun ist.
Und wieso sind Programme, die es ermöglichen, andere heimlich über ihr eigenes Telefon auszuspionieren, in Deutschland überhaupt legal erhältlich? Die Nutzung von Spionage-Apps ist mit sechs Monaten bis fünf Jahren Haft hinreichend strafbewehrt. Aber um sie wirklich eindämmen zu können, muss die Bundesregierung auch die Hersteller*innen der Tools ins Visier nehmen. Spielzeug beispielsweise, das heimlich Audio- oder Videoaufnahmen machen kann, ist illegal. Das gleiche sollte für Apps gelten, die ein Smartphone zu einer solchen Abhöranlage machen.
Gesetzeslücken schließen, Unterstützung ausbauen
Die schwarz-rote Regierungskoalition hat in ihrem Koalitionsvertrag versprochen, diese Gesetzeslücke zu schließen. Die Überwachungs-Tools sollen demnach regelmäßig das Einverständnis der Besitzer*innen der betroffenen Telefone abfragen müssen. So könnten Eltern, wenn es denn unbedingt sein muss, ihre Kinder weiter überwachen. Es wäre aber sehr viel schwerer, eine Partnerin oder Ex-Partnerin heimlich und illegal auszuspionieren. Bisher sind es nur Versprechen und Pläne, passiert ist noch nichts.
Mindestens ebenso wichtig wie die Regulierung und Strafverfolgung wäre aber noch eine dritte Ebene im Kampf gegen digitale Gewalt, eine, die noch früher ansetzt: die Unterstützung der Betroffenen. Derzeit gilt: Wer fürchtet, digital ausgespäht und gestalkt zu werden, braucht IT-affine Freunde und Glück. Es gibt nach wie vor zu wenige Beratungsstellen für digitale Gewalt. Solche Anlaufstellen zu schaffen und diese mit genug Geld und kompetentem Personal auszustatten, das sollte jetzt höchste Priorität bekommen.
Das kostet viel Geld. Aber es ist nicht verhandelbar. Deutschland hat die Istanbul-Konvention unterzeichnet und sich damit dazu verpflichtet, alles dafür zu tun, um geschlechtsspezifische Gewalt zu bekämpfen, Betroffenen Schutz und Unterstützung zu bieten und Gewalt zu verhindern. Jetzt muss es diese Verpflichtung auch umsetzen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Das geplante Polizeigesetz in Sachsen-Anhalt wurde heute vom Innenausschuss beschlossen. Es soll Analysen riesiger Datenmengen bei der Polizei erlauben. Sachverständige hatten den Entwurf wegen der Missachtung von Vorgaben aus Karlsruhe heftig kritisiert. Ob für die Datenanalyse eine Palantir-Software genutzt werden soll, steht noch nicht fest.
Überwachungskameras sind meist sichtbar, automatisierte Datenanalysen finden im Verborgenen statt. – CC-BY-NC 2.0Herr Olsen
Der Innenausschuss von Sachsen-Anhalt hatte heute einen Gesetzentwurf auf der Tagesordnung, der es in sich hat: Die Polizei soll eine Reihe neuer Befugnisse bekommen, darunter auch die polizeiliche Datenanalyse. Hinter dem Begriff versteckt sich die Idee, die verschiedenen Datentöpfe der Polizei zusammenzuführen und die Informationen darin automatisiert auszuwerten.
Bisher wird in den vier Bundesländern, die eine solche Datenanalyse in ihren Polizeigesetzen erlauben und anwenden, die Softwarelösung „Gotham“ des US-Konzerns Palantir genutzt. Aus geopolitischen Gründen ist der US-Anbieter aber gerade bei sensiblen polizeiinternen Daten alles andere als die erste Wahl. Die Softwaresysteme des Konzerns sind proprietär und die genauen Funktionen Geschäftsgeheimnisse.
Palantir
Wir berichten mehr über Palantir als uns lieb wäre. Unterstütze unsere Arbeit!
Die automatisierte polizeiliche Datenanalyse ist auch rechtlich längst kein unbeschriebenes Blatt mehr, sondern wurde bereits wegen Gesetzen in Hessen und Hamburg beim Bundesverfassungsgericht verhandelt. Beide Gesetze waren in Teilen verfassungswidrig. Auch Nordrhein-Westfalen, Bayern und Baden-Württemberg stehen gerade wegen der Datenanalyse-Regelungen in ihren Polizeigesetzen und wegen der Zusammenarbeit mit Palantir in der Kritik. Ein Urteil des Bundesverfassungsgerichts aus dem Februar 2023 macht weitreichende und detaillierte Vorgaben für solche Datenzusammenführungen.
Das Urteil, das alle deutschen Gesetzgeber bindet, scheint aber nicht überall mit der genügenden Expertise gelesen worden zu sein: In Sachsen-Anhalt war der Gesetzentwurf von Sachverständigen harsch kritisiert worden, weil er die Vorgaben aus Karlsruhe nicht ausreichend umsetzt.
Doch die Experten stießen offenbar auf taube Ohren: Ohne Korrekturen wurden die geplanten gesetzlichen Regelungen zur Datenanalyse nun von den Regierungsparteien CDU, SPD und FDP als Beschlussempfehlung an das Parlament gegeben. Der Gesetzentwurf blieb unverändert in der ursprünglichen Fassung von 14. Januar 2025, was die umstrittene Datenanalyse angeht. Die Regierungskoalition kündigte aber einen Entschließungsantrag zur zweiten Lesung im Landtag an. Der Inhalt des Antrags ist noch unbekannt.
Nicht nur ein Problem Sachsen-Anhalts
Die Juristin und Palantir-Expertin Franziska Görlitz von der Gesellschaft für Freiheitsrechte (GFF) hatte die Datenzusammenführung von Polizeidaten, die im sachsen-anhaltinischen Gesetz Strategische Datenanalysen und Operative Datenanalysen heißen, in ihrer Stellungnahme als „schwerwiegenden Grundrechtseingriff“ bewertet. Die Grenzen vor allem der Strategischen Analyse würden das Urteil des Bundesverfassungsgerichts zur automatisierten Datenanalyse aus dem Jahr 2023 missachten: Die „vorgesehenen Eingriffsschwellen“ genügten den Vorgaben aus Karlsruhe nicht.
Die Datenmenge der Analyse ist im Gesetzentwurf nicht beschränkt. Da zahlreiche polizeiliche Datenbanken und Auskunfts- und Informationssysteme einbezogen werden dürfen, ist das Polizeigesetz damit nicht nur ein Problem Sachsen-Anhalts. Denn es fließen auch Daten in die Analyse ein, die gar nicht von der dortigen Landespolizei erhoben wurden. Jonas Botta, Forschungsreferent am FÖV.
Darauf verwies auch Jonas Botta, Sachverständiger in der Anhörung und Verfassungs- und Datenschutzjurist beim Deutschen Forschungsinstitut für öffentliche Verwaltung. Es sei keine herkunftsbezogene Beschränkung im Gesetzentwurf enthalten. So würden beispielsweise sogar Daten in die Analyse einfließen dürfen, die nicht einmal von inländischen Polizeibehörden stammen. Das betrifft etwa Geheimdienstdaten vom Verfassungsschutz, Bundesnachrichtendienst oder Militärischen Abschirmdienst, die an Polizeibehörden übermittelt wurden. Es sei nach dem Gesetzentwurf zulässig, Geheimdienstinformationen, die sich „in den polizeilichen Datenbeständen befinden, in eine Analyseplattform einzuspeisen“, so Botta in seiner Stellungnahme.
Gegenüber netzpolitik.org sagt Juristin Görlitz, dass im geplanten Polizeigesetz „weitgehend unbegrenzte Analysen riesiger Datenmengen bei der Polizei unter zu geringen Voraussetzungen“ vorgesehen seien. Das beträfe auch Daten völlig unverdächtiger Menschen, darunter beispielsweise auch vermisste Personen oder Opfer von Straftaten. Es könnten „Unbeteiligte ins Visier der Polizei geraten, ohne dass sie dafür Anlass geboten haben“. GFF-Juristin Franziska Görlitz.
Wie diese Analysen ablaufen, sei im Gesetz „kaum eingeschränkt“. Es mangele auch an „ausreichender Kontrolle und Sicherungen“, um wirksam vor Fehlern, diskriminierender Software und Missbrauch zu schützen. Das sei deswegen problematisch, weil die polizeilichen Datenanalysen weitgehende Überwachungsmaßnahmen seien, die tief in die Grundrechte eingriffen, ohne dass die Betroffenen das überhaupt mitbekämen.
Görlitz erklärt unzweideutig: „Die vom Bundesverfassungsgericht aufgestellten Anforderungen für Datenanalyse-Befugnisse sind nicht eingehalten.“
Auch hat das Gesetz in Sachsen-Anhalt weitere Defizite, die bereits in anderen Bundesländern kritisiert wurden. In Hessen liegt etwa eine Verfassungsbeschwerde der GFF gegen das dortige Polizeigesetz und die automatisierte Datenanalyse vor, die das hohe Gericht aktuell bearbeitet. Gerügt wird darin insbesondere, dass zuviele konkret im Gesetz zu regelnde Vorgaben kurzerhand in Verordnungen ausgelagert werden.
Das kritisiert Görlitz auch an den sachsen-anhaltinischen Plänen, bei denen die Befugnis zu Datenanalysen nicht ausreichend beschränkt sei. Der Gesetzgeber „überlässt es der Verwaltung, selbst Beschränkungen festzulegen“. Die Juristin hat keine Zweifel: „Der Entwurf ist daher verfassungswidrig.“
Opposition gegen eine Zusammenarbeit mit Peter Thiel und Palantir
Die Sachverständigen senkten unmissverständlich die Daumen. Und auch die Opposition im Landtag ist nicht begeistert: Sowohl die Linke als auch die Grünen sehen die Datenanalyse-Befugnisse kritisch.
Die Linken erklären gegenüber netzpolitik.org ihre Ablehnung der Pläne zur Zusammengeführung der Polizeidaten, auch weil diese Menschen einbezieht, ohne dass sie sich „was zu Schulden haben kommen lassen“. Eva von Angern, Fraktionsvorsitzende der Linken, betont: „Ein gläserner Bürger ist mit uns Linken nicht zu machen.“ Sie stellt sich explizit „gegen eine Zusammenarbeit mit Peter Thiel, der Palantir mit entwickelt hat und einer der wichtigsten Hintermänner der rechtsautoritären Wende in den USA ist“.
Die grüne Fraktion erklärt gegenüber netzpolitik.org, dass sie den vom Innenausschuss durchgewunkenen Gesetzentwurf „aufgrund des Überwachungsdrucks, der Streubreite und der Diskriminierungsgefahr“ schlicht als „ verfassungswidrig“ erachte. Das sagt Sebastian Striegel, innenpolitischer Sprecher der Fraktion Bündnis 90/Die Grünen im Landtag von Sachsen-Anhalt, und betont: „CDU, SPD und FDP haben heute im Ausschuss alle praktikablen und verfassungsrechtlichen Bedenken und Zweifel an den Gesetzesvorhaben beiseite gewischt.“
Das Gesetz sei „im Design auf Produkte des Herstellers Palantir zugeschnitten“. Die Landesregierung gebe sich hier „kenntnislos“ und schiebe „Verantwortung an den Bund ab“. Ob im Bund jedoch auch Innenminister Alexander Dobrindt (CSU) auf die Palantir-Karte setzen wird, hat er noch nicht öffentlich kundgetan.
Gefährliche AfD-Vorzeichen
Die langjährige Landesinnenministerin von Sachsen-Anhalt, Tamara Zieschang (CDU), ist offenbar keine allzu starke Verfechterin der Palantir-Softwarelösung. Sie setzt sich für eine alternative Software für die Polizei ein, die all die Datentöpfe der Behörden zusammenführt.
Allerdings steht eine solche Alternative nicht sofort zur Verfügung, anders als die Softwarelösung des US-amerikanischen Konzerns. Denn das Bundesland Bayern hatte einen Rahmenvertrag ausgehandelt, in den auch Sachsen-Anhalts Polizei kurzfristig einsteigen könnte. Daher brachte Zieschang die Systeme von Palantir als eine Art Zwischenlösung als Gespräch.
Das geplante Polizeigesetz in Sachsen-Anhalt entsteht unter gefährlichen Vorzeichen: Im September 2026 wird dort gewählt. Und eine Regierungsübernahme der AfD scheint nicht ausgeschlossen, wenn man den Umfragen glaubt. Sie sehen die Rechtsradikalen in Sachsen-Anhalt bei Werten um die vierzig Prozent.
Selbst wenn die aktuelle Regierung aus CDU, SPD und FDP doch nicht die bisher favorisierte Interimslösung umsetzt und sich noch gegen den US-Anbieter Palantir entscheidet, könnte die AfD nach der Wahl die Karten neu mischen. Die guten Kontakte ins Trump-MAGA-Lager, in das sich auch der US-Konzern eingeordnet hat, weisen schon in diese Richtung.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Schon vor mehr als 50 Jahren gab es Streit darüber, ob Behörden Daten über Menschen sammeln sollen, die als psychisch krank gelten. Doch während sich damals ein Konsens für mehr Teilhabe und gegen Stigmatisierung bildete, hat sich heute etwas verändert.
In einem Scheidungsverfahren streiten sich zwei Ehepartner um das Sorgerecht für die gemeinsamen Kinder. Die Frau sagt, ihr Mann sei psychisch krank und meldet das ans Gesundheitsamt. Das spricht mit dem Mann und attestiert ihm „psychotisches Verhalten mit paranoider Symptomatik“. Als später gemeinsame Bekannte des bisherigen Ehepaars anonyme Briefe erhalten, verdächtigen sie den Mann und zeigen ihn bei der Polizei an. Im Hintergrund erkundigt sich die Staatsanwaltschaft beim Gesundheitsamt über ihn und kommt zum Ergebnis, dass der Angezeigte wohl schuldunfähig sei. Die Staatsanwaltschaft stellt das Verfahren ein. Das meldet sie an das Bundeszentralregister – eine Datei, die vor allem Informationen über strafrechtliche Verurteilungen, aber auch zu Verfahrenseinstellungen wegen Schuldunfähigkeit enthält. Von all dem bekommt der Mann nichts mit.
Als er, der ausländischer Staatsbürger ist, später in Deutschland eine berufliche Zulassung als Arzt beantragt, wird diese abgelehnt. Weil er psychisch krank sei.
Das ist kein theoretisches Szenario, sondern die Geschichte eines Menschen, der im Jahr 1987 Probleme bekam, weil Daten zu einer angeblichen psychischen Erkrankung in einer staatlichen Datensammlung gespeichert waren. Der Fall zeigt eindrücklich, welche Probleme derartige Eintragungen in Register schon vor fast 40 Jahren verursacht haben. Und er lehrt uns, dass es bereits seit vielen Jahren politische und gesellschaftliche Auseinandersetzungen über die behördliche Erfassung von Menschen gibt, die als psychisch erkrankt gelten. Die Diskussion reicht weit zurück bis in die 1970er-Jahre. Doch der Blick in die Vergangenheit zeigt uns, was damals anders war, und wirft die Frage auf, warum wir heute die Lehren aus dieser Geschichte vergessen zu haben scheinen.
An Fahrt gewann die gegenwärtige Diskussion mit der Forderung von CDU-Generalsekretär Carsten Linnemann vor etwa einem Jahr, im Dezember 2024. „Ich meine, wir haben große Raster angelegt für Rechtsextremisten, für Islamisten, aber offenkundig nicht für psychisch kranke Gewalttäter“, sagte Linnemann im Interview mit dem Deutschlandfunk. „Es reicht nicht aus, Register anzulegen für Rechtsextremisten und Islamisten, sondern in Zukunft sollte das auch für psychisch Kranke gelten.“
Auf der Suche nach einer Erklärung
Linnemanns Forderung nach einer staatlichen Datensammlung vorausgegangen war ein Anschlag auf den Magdeburger Weihnachtsmarkt, bei dem sechs Menschen starben und mehr als 300 weitere verletzt wurden. Der Täter in Magdeburg war nicht die einzige Person, die in jüngster Vergangenheit Gewalttaten verübt hat und bei der schnell über eine psychische Erkrankung spekuliert und berichtet wurde. Die Taten sind uns unter den Namen der Orte bekannt, an denen sie passierten: Magdeburg, Mannheim, Aschaffenburg, Hamburg sind vier davon.
Im Anschluss suchten viele nach Erklärungen und nach Wegen, solche schrecklichen Ereignisse zu verhindern. Linnemann und andere aber richteten erheblichen Schaden an, indem sie psychische Erkrankungen und Gewalt in einen bis zur Unkenntlichkeit entstellten Zusammenhang setzten. Denn klar ist: Erfasst hätte den Täter Taleb A. ein Register für Gewalttäter mit psychischen Erkrankungen nicht. Denn obwohl sich schnell nach der Tat wegen seiner Äußerungen auf Social-Media-Plattformen und zahlreichen Kontaktversuchen zu verschiedenen Behörden Mutmaßungen zu seiner psychischen Verfassung verbreiteten: Eine psychiatrische Diagnose lag bei A., der selbst als Psychiater gearbeitet hatte, offenbar nicht vor. Bei verschiedenen Behörden war er dennoch aufgefallen, es hatte Gefährderansprachen gegeben, A. war wegen der Androhung von Straftaten verurteilt worden. Im „Raster“, wie Linnemann es nannte, war A. also offenbar längst gewesen. Verhindern konnte das seine Tat damals nicht.
Die ursprünglich von Linnemann verbreitete Registeridee schien nach einem Aufschrei von Psychiatrieerfahrenen und medizinischen Fachleuten aber zunächst vom Tisch. Fast wie bei der vorangegangenen Registerdiskussion aus dem Jahr 2018 in Bayern, als die CSU-Landesregierung das dortige Psychisch-Kranken-Hilfe-Gesetz reformierte. Ursprünglich sollte in diesem Zug eine sogenannte Unterbringungsdatei eingeführt werden.
Brigitte Richter engagiert sich seit vielen Jahren für Menschen mit psychischen Belastungen. - Alle Rechte vorbehalten privat
„Wir sind da komplett an die Decke gegangen“, erzählt Brigitte Richter heute im Rückblick. „Die wollten ein Register einführen, in dem Zwangseinweisungen eingetragen sind, auf die Behörden wie die Polizei dann fünf Jahre lang hätten zugreifen können.“ Als Ziel dieser Zwangseinweisungen schrieb die Landesregierung ins Gesetz: „Ziel der Unterbringung ist die Gefahrenabwehr.“ Erst danach, als „weiteres Ziel“, stand die Besserung des Zustandes der Eingewiesenen.
„Die Grundidee ist noch nicht überwunden“
Richter, die heute 76 Jahre alt ist, hat selbst seit mehr als einem halben Jahrhundert Psychiatrieerfahrungen gemacht. Seit vielen Jahren engagiert sie sich unter anderem im Verein Pandora für die Selbsthilfe von Menschen mit psychischen Problemen und seelischen Belastungen. Sie stellt sich hartnäckig Missständen entgegen. „Druck erzeugt Gegendruck“, nennt Richter das. Bei der Reform des bayerischen Psychisch-Kranken-Hilfe-Gesetzes vor acht Jahren hat das nach vielfältigen Protesten offenbar geklappt. Die Paragrafen zur „Unterbringungsdatei“ wurden aus dem Entwurf gestrichen. „Man muss deutlich sein und protestieren, aber konstruktiv bleiben“, rät Richter und fügt lachend hinzu: „Das nennt man dann, glaube ich, Diplomatie.“
Auch heute scheint die Forderung nach einem Register wieder vom Tisch – zumindest das Wort taucht in der öffentlichen Debatte nur noch selten auf. Doch etwas ist anders als damals in Bayern. „Es ist gut, dass niemand mehr von Registern spricht“, sagt Dr. Kirsten Kappert-Gonther. Die Fachärztin für Psychiatrie und Psychotherapie ist seit 2017 Bundestagsabgeordnete für die Grünen und deren Obfrau im Gesundheitsausschuss. Man habe eine Sensibilität dafür entwickelt, dass Register etwas Schädliches wären. „Aber die Grundidee hinter den Registern“, schränkt Kappert-Gonther den Optimismus ein, „die ist leider noch nicht überwunden“.
Während Politiker:innen also mittlerweile den Register-Begriff meiden, suchen sie nach anderen Wegen, um Daten über psychisch erkrankte Menschen für Behörden zugänglich zu machen. Die Konferenz der Gesundheitsminister:innen hat im vergangenen Sommer beschlossen, dass rechtliche Rahmenbedingungen sowie erforderliche Anpassungen und Verantwortlichkeiten geprüft werden sollen, etwa um Gesundheitsdaten und Erkenntnisse der Gefahrenabwehrbehörden auszutauschen. Auch die Innenministerkonferenz berät zu dem Thema, das Schlagwort dafür heißt „integriertes Risikomanagement“. Dabei gehe es darum, „dass den Sicherheitsbehörden die für sie relevanten Informationen der Gesundheitsbehörden“ zugänglich gemacht werden, heißt es in einem Beschluss aus dem Juni 2025. Es müsse bei relevanten Hinweisen eine „gemeinsame Risikobewertung“ erfolgen.
Länder, die Tatsachen schaffen
Während eine Bund-Länder-Arbeitsgruppe „Früherkennung und Bedrohungsmanagement“ weiter an dem Thema arbeitet, schaffen einige Länder beim Datenaustausch bereits Tatsachen. Es lassen sich dabei zwei Grundrichtungen beobachten.
Hessen beispielsweise verabschiedete im vergangenen Dezember ein neues Psychisch-Kranken-Hilfe-Gesetz. Das verpflichtet Ärzt:innen, entlassene Patient:innen an die Polizei zu melden, wenn diese zuvor wegen befürchteter Fremdgefährdung zwangseingewiesen worden waren und sie „in absehbarer Zeit ohne ärztliche Weiterbehandlung“ wieder zu einer Gefahr werden könnten. Niedersachsen schlägt einen ähnlichen Weg ein, das entsprechende Gesetz wird bald im Landtag debattiert.
Hamburg hingegen setzt statt verpflichtender Meldung und Datenaustausch vor allem auf anlassbezogenes Handeln. Grundgedanke im Modell der Hansestadt ist, dass die Innen-, Sozial- und Justizbehörden jeweils eine Fallkonferenz einleiten können, um über mögliche Hilfen und Konsequenzen für eine Person zu beraten. Und zwar immer dann, wenn sie einen Handlungsbedarf sehen, der ihre eigenen Kompetenzen und Kapazitäten überschreitet. Eine Mitarbeitende der Hamburgischen Sozialbehörde berichtete auf einem Kongress für Psychiatrie und Psychotherapie im November 2025 davon, dass so seit Start des Systems im August 2025 über insgesamt drei Personen gesprochen worden sei.
All diese Regelungen gelten jedoch allein im einzelnen Bundesland. Daher hat Niedersachsen eine Initiative in den Bundesrat eingebracht, der die Länderkammer am 30. Januar zustimmte. „Menschen mit psychischen Erkrankungen schützen, Gefahrenpotenziale erkennen durch bundesweiten Austausch“ lautet der Titel der Entschließung. Der Bundesrat fordert darin von der Bundesregierung, „insbesondere den Austausch von Gesundheitsdaten und den Erkenntnissen der Gefahrenabwehrbehörden unter datenschutzrechtlichen Vorgaben zu prüfen“ und Gesetze anzupassen. „Erkenntnisse zwischen Sicherheits-, Gesundheits-, Waffen- und gegebenenfalls anderen relevanten Behörden“ sollen bundesweit besser vernetzt werden, „um Risikopotenziale bei Personen mit psychischen Auffälligkeiten möglichst frühzeitig zu erkennen“.
Neben dem Datenaustausch fordert der Bundesrat eine bessere „medizinische und rehabilitative Versorgung von Menschen mit schweren psychischen Erkrankungen“. Auch der niedersächsische Gesetzentwurf spart das Thema Hilfe nicht aus und will erreichen, dass etwa sozialpsychiatrische Dienste rund um die Uhr erreichbar sein sollen. Selbst den Namen des Gesetzes passte die Landesregierung nach einer Verbändeanhörung an: „Die Terminologie wurde – in Einklang mit vergleichbaren Gesetzen der anderen Bundesländer – zu NPsychKHG geändert. H steht für Hilfen“, heißt es in einer Pressemitteilung.
Ein Gesundheitsthema wird zum Sicherheitsproblem gemacht
Doch das kann nicht verbergen, dass es im Mittelpunkt der Entwürfe um etwas anderes geht: um „Gefahrenabwehr“. Und so wird die Frage nach psychischer Verfassung sowohl in Gesetzen als auch in der öffentlichen Wahrnehmung immer mehr von einem Gesundheits- zu einem Sicherheitsthema gemacht.
Georg Schomerus forscht zu Stigmata. - Alle Rechte vorbehalten Stefan Straube, Universitätsklinikum Leipzig
„Das ist mittlerweile eine ganz andere Diskussion als damals 2018 zu dem Gesetz in Bayern“, sagt Prof. Dr. Georg Schomerus zu den Register- und Datenspeicherungsdiskussionen der letzten Monate. Der Direktor der Klinik und Poliklinik für Psychiatrie und Psychotherapie am Universitätsklinikum Leipzig erforscht seit vielen Jahren die Einstellung in der Bevölkerung zu psychischen Erkrankungen. Eine der Ursachen für die Diskussionsverschiebung sieht er darin, dass sich „die politische Landschaft“ verändert habe. Der rechte Rand erstarke, autoritäre Werte seien wieder in Mode, Gesetzgebung und Gesellschaft formten sich gegenseitig. „Die gesellschaftliche Stimmung treibt die Gesetzgebung“, so Schomerus. „Gleichzeitig schafft die Gesetzgebung Realitäten, die dann Normalität werden und die Stimmung beeinflussen.“
Diese Entwicklung betrachtet auch die Bundestagsabgeordnete Kirsten Kappert-Gonther von den Grünen mit Sorge. Als Ärztin sei sie in Zeiten der Psychiatriereform-Bewegung sozialisiert worden, erzählt die Parlamentarierin, die sich auch als Vorsitzende des Vereins „Aktion Psychische Kranke“ engagiert. „Viele Jahre lang hat sich der Diskurs um psychische Erkrankungen langsam, aber stetig geöffnet und vermenschlicht“, sagt sie. Es sei gesellschaftlicher Konsens gewesen, so Kappert-Gonther, dass man Menschen mit schweren psychischen Erkrankungen nicht wegsperren sollte.
50 Jahre nach einem Meilenstein der Psychiatriereform
Dass sich diese Überzeugung durchsetzte, daran hatte die Psychiatrie-Enquete aus den 1970er-Jahren einen wichtigen Anteil. Sie gilt bis heute als Meilenstein der Psychiatrie-Entwicklung in der Nachkriegsgeschichte. Während die Nationalsozialisten an der Macht waren, haben sie systematisch Menschen vernichtet, die als psychisch krank galten. Sie ermordeten sie, viele kamen durch Medikamente und Hunger zu Tode. Hunderttausende wurden zwangssterilisiert. Doch nach den Verbrechen der Nazi-Zeit brauchte es noch lange, bis die Psychiatrie sich grundlegend reformierte.
„In den Chefetagen saßen dieselben Männer wie zuvor – Männer, die Teil eines menschenverachtenden Systems gewesen waren“, sagte Kappert-Gonther in einer Rede, 80 Jahre nach dem Ende des Zweiten Weltkriegs und 50 Jahre nach dem Abschlussbericht der Psychiatrie-Enquete. „Der Geist des Sozialdarwinismus lebte fort.“ Psychiater, die im Nationalsozialismus Täter waren, wurden noch im Nachkriegsdeutschland der 60er als Sachverständige in den Bundestagsausschuss für Wiedergutmachung berufen und rechtfertigen dort ihre Taten, sodass etwa Zwangssterilisierte keine Entschädigungszahlungen bekamen.
1971 setzte die Bundesregierung dann im Auftrag des Bundestages eine Sachverständigen-Kommission ein, die Psychiatrie-Enquete. Sie sollte Vorschläge für eine Reform der psychiatrischen Versorgung in Deutschland erarbeiten. Die Zustände in den Kliniken waren bis dahin vielerorts menschenunwürdig. Im Mittelpunkt standen nicht Therapieangebote, sondern Verwahrung. Patient:innen verbrachten oftmals viele Jahre von jeglicher sozialer Teilhabe ausgeschlossen in überfüllten Groß-Anstalten, einer Bettenburg gleich. Fast die Hälfte aller Patient:innen in psychiatrischen Kliniken war dort 1973 mehr als fünf Jahre in Behandlung, fast ein Drittel länger als zehn. Es fehlte an Pflege, Sozialarbeiter:innen und psychologischen Fachkräften. So sollte es nicht weitergehen.
Die Enquete-Kommission legte 1975 ihren Abschlussbericht vor. Im Mittelpunkt stand ein Wandel – von der ewigen Hospitalisierung und Aufbewahrung fernab der Mehrheitsgesellschaft hin zu einer ambulanten und gemeindenahen Versorgung. Von den geschlossenen Unterbringungen in Großanstalten zu kleinen und offenen Stationen. Körperlich und psychisch Kranke sollten gleichgestellt sein.
Datenschutz für die Psyche
Weniger bekannt, aber ebenso deutlich waren die Äußerungen derselben Enquete-Kommission zum Umgang mit Daten über psychisch erkrankte Personen. In ihrem Abschlussbericht fordern die Sachverständigen „ausreichende Sicherungen gegen eine unbefugte Verwertung personenbezogener Daten“ und schreiben: „Das Datenschutzbedürfnis des psychisch Kranken und Behinderten ist gegenüber dem somatisch Kranken differenzierter und weiterreichend.“ Das begründen sie etwa mit dem großen Personenkreis, der in die oft „langfristige Behandlung und Rehabilitation“ involviert ist. Dadurch würden viele zu „Geheimnisträgern“, aber: „Die Möglichkeit des unbegrenzten Zugriffs aller dieser ‚Geheimnisträger‘ zu allen Daten des Kranken dürfte wohl kaum zu verantworten sein.“
Die Kritik der Psychiatrie-Enquete richtet sich auch gegen Vorschriften zum Bundeszentralregister. Also gegen jene Datensammlung, die für den Mann vom Anfang dieses Textes in den 80er-Jahren zum Problem wurde.
Ursprünglich standen in diesem Bundeszentralregister noch mehr Daten als heute, die einen Hinweis auf die psychische Verfassung einer Person geben. Laut der ersten Fassung, die 1971 Gesetz wurde, waren auch Zwangsunterbringungen Teil des Registers. Ebenso sollte dort vermerkt werden, wenn „jemand auf Grund landesrechtlicher Vorschriften wegen Geisteskrankheit, Geistesschwäche, Rauschgift- oder Alkoholsucht in eine geschlossene Anstalt endgültig eingewiesen wird“. Das Bundeszentralregister wurde damals neu errichtet. Es sollte die vielen einzelnen Strafregister der Bundesrepublik zusammenführen, die zuvor über verschiedene Staatsanwaltschaften verstreut waren. Im Kapitel „Registrierung psychisch Kranker“ des Enquete-Abschlussberichts schreiben die Sachverständigen:
Um so überraschender ist es, daß das BZRG [Bundeszentralregistergesetz], bei aller Liberalität im übrigen, jedenfalls in einem wesentlichen Punkt ein zentrales Problem des Gesamtkomplexes, nämlich die Gleichstellung von psychisch Kranken mit anderen Kranken, die heute weitgehend anerkannt und in zahlreichen Gesetzen oder Gesetzentwürfen ausdrücklich verankert ist, gründlich verkannte oder doch mißachtete.
Kein Grund für einen Registereintrag
Eine solche Registrierpflicht für psychisch Kranke, die nach Landesrecht zwangsuntergebracht sind, könne nicht hingenommen werden. Sie nehmen an, dass „ein gesetzgeberischer Irrtum hinsichtlich der tatsächlichen Voraussetzungen vorliegt, die das Bedürfnis für die Registrierung begründen sollen“. Eine pauschale Registrierung brauche es nicht, denn, so schreibt die Enquete:
Die meisten Zwangseingewiesenen sind keineswegs gefährlicher als die 80 oder 90 Prozent anderer Krankenhauspatienten oder als zahllose Bürger, die in Freiheit leben.
Schon Anfang der 70er-Jahre schrieb der Psychiater und Psychiatriehistoriker Klaus Dörner, der als einer der Wegbereiter der Psychiatriebewegung gilt, zu den Protesten gegen das Bundeszentralregistergesetz von 1971, dass man „feststellen wird, daß solange keine fortschrittlich veränderten Gesetze zustandegebracht werden, so lange die zugrundeliegenden gesellschaftlichen Verhältnisse nicht fortschrittlich verändert sind.“ Und er schließt mit einem Satz, der heute, rund fünfzig Jahre später, an Gültigkeit nicht verloren hat: „Und was Fortschritt ist, ist wenigstens in diesem Fall klar.“
Wir sehen hier, dass es bereits damals eine Auseinandersetzung mit der vermeintlichen Gefährlichkeit von Personen gab, die als psychisch krank eingestuft wurden. Dass man schon damals davon ausging, dass ein einfacher Zusammenhang weder existiert noch hilfreich ist.
Mit dem Abschlussbericht der Sachverständigen der Psychiatrie-Enquete bekam diese Haltung noch mehr Gewicht. Und 1976, ein Jahr nach der Kritik im Abschlussbericht der Psychiatrie-Enquete, strich die Bundesregierung dann den Paragrafen, der Einweisungen nach Landesrecht in die Datensammlung holte – ersatzlos. Dem Arzt vom Anfang indes half das ein Jahrzehnt später nicht, denn die Schuldunfähigkeitsvermerke blieben und sind weiter ein Teil des Bundeszentralregisters.
Wie der Fall des Arztes letztlich ausgegangen ist und ob er am Ende doch noch eine Approbation bekam, lässt sich heute nicht mehr ohne weiteres rekonstruieren. Was sich aber nachvollziehen lässt, ist die Entrüstung, die auf die Veröffentlichung der Vorfälle folgte. Zahlreiche Medien, von der taz bis zur Offenbach-Post, berichteten kritisch über die Datenspeicherung, die ohne das Wissen des Betroffenen erfolgt war. Die Reaktionen zeigen, dass es zwölf Jahre nach dem Enquete-Abschlussbericht eine hohe Sensibilität gegenüber der Erfassung vermeintlich psychisch Erkrankter gab.
Nur wenige dieser Zeitzeugnisse sind digital verfügbar. Doch sie sind im Rahmen einer Präsenzbibliothek im „Berliner Archiv für Sozialpsychiatrie“ zugänglich, wo engagierte Menschen ehrenamtlich Literatur, Dokumente und Medien über die Entwicklung der Sozial- und Gemeindepsychiatrie in Deutschland sammeln und archivieren.
Der Justizminister hört zu
In dem Archiv lässt sich nachvollziehen, wie die Deutsche Gesellschaft für Soziale Psychiatrie (DGSP) sich des Themas annahm. Seit den 1970er-Jahren bis heute setzt sich die DGSP für eine personen- und bedürfniszentrierte soziale psychiatrische Versorgung ein. Sie versuchte damals herauszufinden, wie viele Personen von einer ähnlichen Speicherung betroffen sind, und wandte sich dafür an den Generalbundesanwalt, der für das Bundeszentralregister zuständig war.
Der Generalbundesanwalt teilte mit, dass im Bundeszentralregister 72.110 Personen eingetragen seien, bei denen die Staatsanwaltschaft ein Ermittlungsverfahren wegen Schuldunfähigkeit eingestellt hatte. Bei 1.901 Personen sei ein Eintrag nach einer Einstellung vor Gericht erfolgt.
Die DGSP kritisierte das und vermutete, dass für viele der Eintragungen lediglich die Einschätzung eines Gesundheitsamtes maßgeblich gewesen sei, ohne dass ein entsprechendes psychiatrisches Gutachten vorliege.
„Es ist einfach unerträglich, dass im Bundeszentralregister ein Leben lang das Etikett ’schuldunfähig‘ gespeichert wird – und der Betroffene weiß nicht einmal etwas davon“, sagte damals DGSP-Sprecher Josef Schädle. Das sei ein „unverantwortlicher Schlag“ gegen Rehabilitationsbemühungen für psychisch erkrankte Menschen.
Auch an den damaligen Justizminister Hans Engelhard von der FDP wandte sich die DGSP. Der verteidigte zwar die Speicherung und verwies in einem Antwortschreiben an die DGSP darauf, dass der Bundesdatenschutzbeauftragte laufend Kontrollen zum Register durchführe. Dabei habe er „ein erfreulich hohes Niveau des Datenschutzes“ beim Generalbundesanwalt festgestellt. Gleichzeitig verspricht der Justizminister aber, das Problem der Benachrichtigungen in eine angestrebte Novellierung des Bundeszentralregistergesetzes aufzunehmen.
Heute sind diese Benachrichtigungen im Bundeszentralregistergesetz fest vorgeschrieben. Auch die Hürden für einen Eintrag zur Schuldunfähigkeit sind gestiegen und setzen mittlerweile ein medizinisches Sachverständigengutachten voraus.
Entmündigung im Melderegister
Rund zehn Jahre vor der Diskussion über Schuldunfähigkeitseinträge wurde bereits über ein anderes Register diskutiert, in dem ursprünglich jede Menge sensible Daten landen sollten. In einem Gesetzentwurf aus dem Jahr 1977 war geplant, bestimmte Zwangsunterbringungen in psychiatrischen Krankenhäusern im Melderegister zu speichern, genau wie Informationen über „Pflegschaft“, „vorläufige Vormundschaft“ und „Entmündigung“. Das führte zu Protesten, die Schwäbische Zeitung titelte: „Das neue Bundesmeldegesetz diskriminiert psychisch Kranke auf unerträgliche Weise“.
Neben Daten über Einweisungen und Vormundschaften sollten laut dem damaligen Entwurf des FDP-Innenministers Werner Maihofer Dutzende weitere private Informationen im Melderegister gespeichert werden, darunter Scheidungsgründe und Lohnsteuerinformationen. „Gläserner Mensch“ titelte der Spiegel dazu im Februar 1978 und vergleicht es mit den „Orwellschen Schreckensvisionen von 1984“, die Angst vor einem Personenkennzeichen ging um.
Das Maihofersche Meldegesetz war eine Reaktion auf die Versuche, mit Anschlägen und Entführungen durch die Rote Armee Fraktion umzugehen. Die Eintragungen über Unterbringungen und Entmündigungen dienten jedoch einem anderen Zweck: Die betroffenen Personen waren vom Wahlrecht ausgeschlossen und sollten dementsprechend etwa beim Versand von Wahlbenachrichtigungen erkannt werden. Der Ausschluss von Wahlen ist diskriminierend, weil er von politischer Teilhabe ausschließt, und endete für betreute und wegen Schuldunfähigkeit untergebrachte Menschen erst nach einer Entscheidung des Bundesverfassungsgerichts im Jahr 2019.
Die geplante Aufnahme von Unterbringungen und anderem in das Melderegister alarmierte in den 70ern die Saarländische Gesellschaft für Soziale Psychiatrie. „Durch die Nähe der stationären Behandlung zu amtlichen Bereich, zur staatlichen Kontrolle, entstehen Angst und wieder mehr Vorurteile gegen die psychiatrische Behandlung“, schreibt sie April 1978 in einer öffentlichen Stellungnahme. Das habe zur Folge, dass „die Patienten sich von Nicht-Fachleuten behandeln lassen oder zu spät in Behandlung kommen“.
Die Kritik von vor 50 Jahren bleibt aktuell
Der saarländische Verband weist auch darauf hin, dass dies die Gleichstellung psychisch Kranker mit körperlich Kranken, die noch von der Enquete als zentrale Forderung formuliert worden war, „gesetzlich verhindert“: „Vorurteile gegenüber dieser Gruppe, die sowohl krankmachend als auch krankheitserhaltend wirken, werden deshalb leichter aufgebaut und verstärkt.“ Die DGSP veröffentlichte ebenfalls eine Stellungnahme und warnte davor, dass durch die Registrierung das Vertrauensverhältnis zwischen Patient:innen und Ärzt:innen „erschüttert“ werde: „Die Chancen der Rehabilitation verschlechtern sich, denn außerhalb des Krankenhauses bleibt die Tatsache behördlich feststellbarer psychischer Auffälligkeit.“
Die Bundesregierung zog Maihofers Vorschlag zurück, kurz darauf legte der sein Amt als Innenminister nieder – jedoch vor allem wegen des polizeilichen Fahndungsversagens bei der Entführung von Hanns Martin Schleyer durch die RAF, der letztlich ermordet wurde. Maihofers Parteikollege und Nachfolger, der Bürgerrechtler Gerhart Baum, ging einen anderen Weg, nachdem er seine Meinung aus seiner Zeit als parlamentarischer Staatssekretär geändert hatte. In Baums Amtszeit trat 1980 erstmals ein Melderechtsrahmengesetz in Kraft, ohne jegliche Speicherung von Betreuungen oder Einweisungen.
Die Kritik der Fachleute von damals ähnelt derjenigen an den heutigen Plänen zu Registern, Datenspeicherung und -austausch. Doch damals, so wirkt es rückwirkend betrachtet, haben die verantwortlichen Politiker:innen auf Mahnungen von Fachleuten gehört. Neue Gesetze, um Daten über Menschen mit einer psychiatrischen Diagnose in Behörden zu sammeln und zusammenzuführen, waren in den darauffolgenden Jahrzehnten keine ernstgenommene Forderung mehr.
Ein gesellschaftlicher Konsens bröckelt
Die Gleichstellung von körperlich und psychisch Erkrankten und der Abbau von Stigmatisierung waren nach der Enquete in den 70ern ein gemeinsames Ziel, wenngleich es bis heute nicht vollständig erreicht worden ist. Menschenrechtliche Kritik an der Psychiatrie bleibt zahlreich: zu viel Zwang, zu wenig Autonomie sind häufige Vorwürfe.
Kirsten Kappert-Gonther ist Bundestagsabgeordnete und Ärztin für Psychiatrie und Psychotherapie. - CC-BY-SA 4.0Rafael P. D. Suppmann
Dennoch: „Es hat viele Jahrzehnte diesen gesellschaftlichen Konsens gegeben, dass man mehr Teilhabe und weniger Stigmatisierung wollte“, sagt Kappert-Gonther, die selbst an Reformen in Kliniken mitgearbeitet hatte.
Doch heute, so Kappert-Gonther, erlebe man einen Backlash. Das gesellschaftliche Klima bewege sich in Richtung „Us and them, wir und die“, Menschen distanzieren sich von denen, die sie als „anders“ wahrnehmen. Es fällt ihr nicht schwer, jede Menge Ereignisse aufzuzählen, die das befeuern: „Es kam die Corona-Pandemie, dazu die Klimakrise, Kriege und eine zunehmende Faschisierung“, deren vorläufigen Höhepunkt sie im Agieren von Donald Trump sieht. All das bringe auch eine zunehmende Aggressivität mit sich, die sich etwa in einer steigenden Anzahl registrierter Gewalttaten widerzuspiegeln scheint.
„Psychische Erkrankungen werden heute schneller mit Kriminalität in Verbindung gebracht“, sagt die Abgeordnete. Das sei aber nicht alles: „Gewalt und Kriminalität werden psychopathologisiert.“ Damit meint Kappert-Gonther, dass gesellschaftliche Problemlagen wie zunehmende Aggressivität vorrangig mit psychischen Problemen begründet und andere Ursachen dabei ausgeblendet würden. „Dabei gibt es keine Erkrankung, die direkt zur Kriminalität führt.“
Gegen Aggressivität hilft keine Psychiatrie allein
Tatsächlich geht von psychisch Erkrankten in der Regel kein höheres Gewaltrisiko aus als von Menschen ohne eine entsprechende Diagnose. Und wenn eine psychisch erkrankte Person eine Gewalttat begeht, besteht längst nicht in jedem Fall ein Zusammenhang. Menschen mit psychischen Erkrankungen begehen Straftaten in den meisten Fällen nicht ursächlich, weil sie erkrankt sind.
Untersuchungen zeigen allerdings auch: Bestimmte Faktoren können zu einer höheren Gewaltneigung führen, etwa wenn eine Person unter dem Einfluss von Alkohol oder anderen Substanzen steht. Oder wenn Menschen Psychosen erleben, insbesondere wenn sie keinen Zugang zu angemessener Behandlung haben. Zu diesen Faktoren kommen jedoch viele weitere Risikoindikatoren hinzu, die zunächst nichts mit einer psychiatrischen Diagnose zu tun haben, etwa soziale Isolation, männliches Geschlecht oder Wohnungslosigkeit. Für Kappert-Gonther bedeutet das: „Wir können das Gewaltproblem in der Gesellschaft nicht innerhalb des psychiatrischen Versorgungssystems lösen.“ Sie fordert eine „seelenfreundliche Politik“, die das angeht, was Menschen belastet – von der Klimakrise bis zur Wohnungsnot.
Der Psychiater Schomerus kritisiert ebenfalls, wie sich die Diskussion um psychische Erkrankungen verschiebt. Er sagt aber gleichzeitig: „Es sollte kein Tabu geben, über Gewalt im Zusammenhang mit psychischer Krankheit zu sprechen. Man muss das sogar tun, es dann aber auch einordnen.“ Dies schließe ein, auch auf alle andere Umstände hinzuweisen, die Gewalt begünstigen können, und keine schnelle monokausale Zuweisung vorzunehmen.
„Wenn man wohnungslos ist, hat man weniger Zugang zu medizinischer Unterstützung und hält sich fast rund um die Uhr im öffentlichen Raum auf“, führt Schomerus ein Beispiel an. „Wenn man dann zusätzlich eine schwere psychische Krankheit hat, steigt natürlich die Gefahr für Zwischenfälle, wie dass man mit jemandem aneinandergerät oder dass es zu Konflikten kommt. In einem anderen Kontext wäre das aber gar nicht passiert.“
Das Stigma wächst wieder
Um eine zielführende Diskussion über Gewalt und ihre Ursachen zu führen, müsse man also herausfinden, wo die Probleme lagen, die zu einer Eskalation geführt haben, sei es bei einer Behandlung oder sozialen Rahmenbedingungen. „Es ist nicht hilfreich, sich nur auf einen dieser Faktoren wie psychische Erkrankungen zu fokussieren und so zu tun, als würde der allein ein Gewaltrisiko erklären“, sagt Schomerus. „Es ist aber genauso wenig sinnvoll, bestimmte Faktoren auszublenden.“
Neben seiner Tätigkeit als Direktor der Klinik und Poliklinik für Psychiatrie und Psychotherapie hat sich Schomerus der Stigmaforschung gewidmet. In Langzeitstudien untersucht er gemeinsam mit Kolleg:innen die Haltung der Bevölkerung zu psychischen Erkrankungen seit den 1990er-Jahren. „Wir sehen, dass es Krankheitsbilder gibt, die uns näherrücken und über die auch gesprochen werden kann“, sagt der Forscher. Beispiele dafür seien Depressivität, Ängstlichkeit oder Aufmerksamkeitsstörungen. „Diese Dinge haben in unserer Zeit mittlerweile einen Platz, man kann darüber besser reden als noch vor zwanzig Jahren. Das Stigma ist zwar nicht verschwunden, aber es hat nachgelassen.“
Größer wird die Ausgrenzung jedoch insbesondere bei Menschen mit schweren psychischen Erkrankungen wie einer Schizophrenie. „Das beobachten wir besonders bei Krankheiten, die das Umfeld herausfordern, weil sie unerklärlich sind oder bedrohlich erscheinen“, sagt Schomerus. „Wir können feststellen, dass das Bedürfnis nach Distanz zu Menschen mit diesen Krankheiten zunimmt.“ Das heißt: Menschen lehnen es in den vergangenen dreißig Jahren stärker ab, etwa mit einer an Schizophrenie erkrankten Person zusammenzuarbeiten oder sie Freund:innen vorzustellen.
„Die Angst wird man nicht abschaffen können“
Diese Distanzierung zeige sich auch darin, wie und wie häufig über entsprechende Krankheiten geschrieben wird. Über Schizophrenie werde generell deutlich weniger berichtet als über etwa Depressionen. Gleichzeitig habe aber die Berichterstattung über negative Stereotype zugenommen. So werde immer häufiger über Zusammenhänge von Schizophrenie und Gewalttätigkeit geschrieben statt über die Teilhabe von Menschen mit dieser Diagnose. Um der zunehmenden Ausgrenzung entgegenzutreten, helfe es, betroffene Personen sichtbar zu machen, glaubt Schomerus. „Wir dürfen nicht über die Leute sprechen, sondern müssen mit ihnen reden.“ Ihm ist es wichtig, dass psychische Krankheiten nicht nur in akuten Extremsituationen dargestellt werden, sondern auch in Zusammenhang mit Teilhabe oder überwundenen Krisen.
„Die Angst der Menschen wird man nicht abschaffen können“, sagt Brigitte Richter. „Menschen mit Psychosen machen eben Dinge, die andere nicht begreifen. Sie verhalten sich für Außenstehende ziemlich komisch.“ Dass das Menschen teilweise erschreckt, verwundert sie nicht. „Es ist nun mal schwer zu erklären, dass da jemand in einer vollen Bahn die Notbremse zieht, weil er wähnt, dass der Waggon voller Vampire ist.“ Dass ein solches Verhalten Menschen irritieren kann, erlebt sie ebenso bei sich, wenn sie mit Personen in akuten Phasen zu tun hat. Auch wenn sie, wie sie erzählt, selbst „mindestens acht Mal psychotisch“ war.
Krisen seien aber in der Regel nicht der Dauerzustand, betont Richter. Und man merkt ihr an, dass sie von der immer wiederkehrenden Diskussion über Gewalt und vermeintliche Gefährlichkeit in der langen Zeit ihres Engagements eigentlich genug hat. „Wenn wir immer nur über psychische Erkrankungen und Gewalt reden, bleibt das hängen“, sagt sie. „Selbst wenn wir sagen, dass psychische Erkrankungen und Gewalt erst mal nichts miteinander zu tun haben. Was dann im Kopf bleibt, ist der Zusammenhang: Gewalt, psychisch krank, Gewalt, psychisch krank.“ Da bleibe immer was hängen, egal wie sehr man sich um Differenzierung bemüht.
Nicht einfach, aber engagiert bleiben
„Wir sind auch Menschen mit Selbstverantwortung, sogar öfter als dass wir akute Krankheitsphasen haben“, sagt sie. Und trotzdem würden Berichte über Menschen mit Diagnosen oft auf genau diese Zeiten verkürzt. Richter wünscht sich, dass man auch „diese positive Seite betonen würde, dann wäre uns als Betroffenen mehr geholfen“. Sie meint damit, dass Menschen mit psychischen Belastungen ernst genommen und nicht auf ihre Krisen reduziert werden. „Ich wünsche mir, dass wir als Menschen gesehen werden, die eben auch ihre Macken haben. Und gegen manche dieser Macken kann man ja sogar was tun“, sagt Richter.
In einer Klinik war Richter zum ersten Mal im Jahr 1975. Sie bezeichnet sich deshalb auch als „Zeitzeugin“ der Psychiatrie-Enquete. Über viele Jahre hat sie die Entwicklung der psychiatrischen Versorgung selbst miterlebt und letztlich selbst daran teilgehabt. Sie machte eine Ausbildung zur Ergotherapeutin und arbeitete jahrelang selbst auf psychiatrischen Stationen. Schon lange ging sie im beruflichen Kontext offen mit ihrer eigenen Psychiatrieerfahrung um, obwohl sie das zu Beginn fast den Ausbildungsplatz gekostet hätte. „Ich stehe dazu. Basta. Da bin ich radikal“, sagt Richter heute. „Ich nehme das Stigma an und habe damit auch gute Erfahrungen gemacht.“
Für ihr Engagement bekam Richter im Jahr 2023 sogar das Bundesverdienstkreuz. Ein solches Engagement für Menschen, die in unserer Gesellschaft eine psychische Belastung erleben, wird es weiterhin brauchen – ob als medizinische Fachperson, Psychiatrieerfahrene oder Nachbarin. Gerade weil der Kampf für eine menschenrechtsorientierte Versorgung in den zurückliegenden Jahrzehnten vorangekommen ist, liegt es an allen zu verhindern, dass diese Entwicklung wieder rückwärts läuft.
Bald soll Richter einen Ehrenbrief des Bezirks bekommen, in dem sie lebt. „Sie sind zwar nicht einfach, aber engagiert“, habe der Bezirkstagspräsident zu ihr gesagt, als er ihr die Botschaft überbrachte. Schon in ihren Arbeitszeugnissen habe gestanden, dass sie beharrlich sei, erinnert sich Richter. Für sie ist das ein großes Kompliment und sie verspricht in einem Text für das Infoblatt Psychiatrie: „Ich werde auf jeden Fall nicht einfach, aber engagiert bleiben – so lange ich das noch kann.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
In der Schweiz formiert sich ein hochkarätiges Netzwerk für die digitale Unabhängigkeit. Das ist den USA-Vertretern ein Dorn im Auge. Behörden haben jetzt die Chance, mit gutem Beispiel voranzugehen.
Endloses Scrollen, mehrstündige Screentime und ständiges Öffnen der App: Die EU-Kommission nimmt an, dass TikTok nicht genug macht, um die negativen Effekte seiner Plattform zu beschränken, und verlangt drastische Änderungen.
Zu viel TikTok ist nicht gut, findet die EU-Kommission. – Gemeinfrei-ähnlich freigegeben durch unsplash.com BoliviaInteligente
Das Gesetz für digitale Dienste (Digital Services Act, DSA) verpflichtet sehr große Plattformen wie die chinesische Video-App TikTok dazu, ihre Risiken zu bewerten und sie zu mindern. Vor zwei Jahren hat die Europäische Kommission ein Verfahren gegen TikTok gestartet, um spezifisch das süchtig machende Design zu analysieren.
Heute hat die Behörde das vorläufige Ergebnis der Untersuchung geteilt: TikTok geht nicht effektiv genug gegen die Risiken vor. Diese Feststellung ist ein Schritt vor einer möglichen Strafe.
Besonders dramatisch bewertet die Kommission die Risiken für die mentale Gesundheit von Kindern und Jugendlichen, die ihre TikTok-Nutzung noch nicht so gut selbst steuern könnten. Viele Studien aus verschiedenen europäischen Ländern zeigten die stundenlange TikTok-Nutzung von Minderjährigen, die Öffnung der App etwa 20 Mal am Tag und die Nutzung nach Mitternacht, sagte ein Kommissionsbeamter heute gegenüber Journalist:innen. Allerdings seien auch andere Altersgruppen von der problematischen Nutzung betroffen.
Natürlich hätten Erziehungsberechtigte eine Verantwortung, auf die Social-Media-Nutzung von Kindern zu achten, sagte eine zweite Kommissionsbeamte. Doch auch Plattformen hätten eine Sorgfaltspflicht.
Tools zur Kontrolle der Bildschirmzeit sind nicht effektiv genug
Mittlerweile habe TikTok schon Optionen zur Kontrolle der eigenen Nutzungszeit eingeführt, doch diese sind laut der Kommission nicht effektiv genug. Pausen könnten sehr einfach durch die Eingabe des Codes „1234“ weggeklickt werden. Und auch das Tool für Eltern lasse zu wünschen übrig.
Die Kommission verlangt daher Änderungen in drei Bereichen: Erstens sollen Nutzer:innen dazu in der Lage sein, Push-Benachrichtigungen einfacher abzustellen. Ebenso soll das Design der Plattform bezüglich des Scrollings geändert werden. Zweitens soll das Empfehlungssystem von TikTok auch explizite Wünsche der Nutzer:innen anerkennen, anstatt nur implizit durch das Engagement gesteuert zu werden.
Der dritte Aspekt ist vielleicht der gravierendste. Die Kommission wünscht sich strengere Schutzmaßnahmen, darunter verpflichtende Begrenzungen der Bildschirmzeit, verpflichtende Pausen und eine nächtliche Sperre. Das würde bedeuten, dass die App nach einer bestimmten Zeit und zu gewissen Uhrzeiten nicht mehr genutzt werden kann. Diese Maßnahmen würden nicht nur Minderjährige treffen, sondern alle Nutzer:innen.
TikTok war bisher „kooperativ“
Diese Änderungen gehen an den Kern des App-Designs, das gibt auch die Kommission zu. Gleichzeitig betonen die Beamten, wie kooperativ TikTok in den letzten zwei Jahren gewesen sei. Sie erinnern daran, dass die neue App „TikTok Lite“ damals in der EU zurückgezogen wurde, nachdem die Kommission vor dem Belohnungssystem warnte. „In unserer Erfahrung können wir durch Diskussionen Fortschritte erzielen“, sagte die Kommissionsbeamte.
TikTok hat nun die Gelegenheit, auf die Vorwürfe zu antworten und das System entsprechend anzupassen. Eine genaue Frist dafür gibt es nicht. Sollte die Kommission nicht mit TikToks Reaktion zufrieden sein, könnte sie im letzten Schritt einen Verstoß feststellen und eine Strafe verhängen. Das geschah im Dezember mit X zum ersten Mal in der Laufbahn des Gesetzes für digitale Dienste.
Wegen ähnlichen Vorwürfen laufen auch Verfahren gegen Facebook und Instagram. Die TikTok-Untersuchung sei lediglich zuerst gekommen und kein Zeichen, dass Plattformen unterschiedlich behandelt würden, sagte ein Kommissionsbeamter auf Nachfrage von Journalist:innen.
Als Teil der Untersuchung zum süchtig machenden Design von TikTok schaut die Kommission auch darauf, wie sicher Minderjährige auf der Plattform sind. Außerdem läuft noch ein paralleles Verfahren gegen TikTok zur Desinformation und Einmischung in Wahlen, welches im Anschluss an die Wahlen in Rumänien eröffnet wurde.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Heute wurde im Thüringer Landtag eine Novelle des Polizeigesetzes diskutiert. Sie bringt neben Verhaltensscannern auch Palantir-artige Datenanalyse, Gesichtersuchmaschine, Kennzeichenscanner und Videodrohnen.
Automatisierte Verhaltenserkennung tut sich schwer damit, Umarmungen von Schlägereien zu unterscheiden. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Priscilla Du Preez auf Unsplash
Die Thüringer Brombeer-Koalition aus CDU, BSW und SPD will nun ebenfalls ein High-Tech-Ermittlungsarsenal für ihre Landespolizei. Eine entsprechende Novelle des Polizeigesetzes wurde heute erstmals im Landtag beraten.
Unter den zahlreichen neuen Befugnissen findet sich beispielsweise das Recht zur Nutzung eines Systems, das anhand von Videobildern illegales Verhalten automatisch erkennen soll. Mit solchen Systemen wird für gewöhnlich öffentlicher Raum überwacht, in Thüringen soll der Verhaltensscanner auch in Gefängnissen zum Einsatz kommen dürfen und dort Gefahrensituationen registrieren.
Ein Prototyp einer Verhaltensscanner-Software wird seit 2018 in Mannheim mit den Bildern oft nichts ahnender Passant*innen trainiert. Die Polizei kann keinen einzigen Fall nennen, bei dem es eine Ermittlung unterstützt hätte. Dennoch wollen immer mehr Bundesländer das System einführen. In Hamburg läuft es bereits, Baden-Württemberg und Berlin haben kürzlich die Gesetzesgrundlage dazu geschaffen, in Schleswig-Holstein und Sachsen ist eine solche geplant.
„Wir wären wie eine Insel für Kriminelle“
Der thüringische Innenminister Georg Maier, SPD, sagt zum geplanten polizeilichen KI-Einsatz: „Es wäre fatal, wenn wir als einziges Bundesland darauf verzichten würden. Wir wären wie eine Insel für Kriminelle, die hier geringeren Ermittlungsdruck spüren würden.“
Katharina König-Preuss von Die Linke sagt: „Das Problem ist, wer irgendwann in der Lage sein wird, solche Software zu nutzen.“ Sie verweist beispielhaft auf totalitäre Bestrebungen in den USA. In dem debattierten Gesetzespaket sieht sie einen „massiven Grundrechtseingriff“.
Ähnlich umstritten ist eine weitere Befugnis aus dem geplanten Thüringer Polizeigesetz: das Recht, automatisierte Datenanalysen durchzuführen, wie sie beispielsweise mit Produkten von Palantir möglich sind. Die Einführung dieser Befugnis hatte in Baden-Württemberg viele Menschen im Protest auf die Straße getrieben. In Thüringen scheint sie weniger Interesse zu erregen. Derartige automatisierte Datenanalysen werden in den USA beispielsweise dazu genutzt, um Informationen über Menschen zu sammeln, die deportiert werden sollen. In Thüringen dürfen bei Gefahr für die öffentliche Sicherheit auch Daten in die Analyse einfließen, die bei der verdeckten Überwachung von Wohnraum oder Privatgeräten zusammengetragen wurden.
Ausschluss des Marktführers
Thüringens Innenminister Maier stellt in der Debatte klar, dass er keine Produkte des verrufenen Software-Herstellers Palantir für derartige Big-Data-Analysen nutzen möchte. Eine andere Firma soll dabei zum Zuge kommen. „Eine wie auch immer geartete Zusammenarbeit mit der US-amerikanischen Firma Palantir wird es mit mir nicht geben“, sagt er.
Die Novelle des Polizeigesetzes soll den Thüringer Beamt*innen noch weitere datenschutzrechtlich problematische Befugnisse bringen. So sollen beispielsweise Personen, die vom Verhaltensscanner bei einer Straftat ertappt werden, automatisch über mehrere Kameras hinweg verfolgt werden können.
Außerdem soll der Gesetzentwurf den Aufbau einer Gesichtersuchmaschine ermöglichen, die mit frei zugänglichen Bildern aus dem Internet gefüttert wird. Dabei verbietet der AI-Act der EU das Anlegen von Datenbanken, die ungezielt Gesichtsbilder aus dem Internet auslesen. Nach dem Gesetzentwurf dürfte die Polizei auch Stimmen-Samples aus dem Netz extrahieren, um diese automatisiert mit anderen Stimmproben zu vergleichen.
Drohnen, die Handys jagen
Auch den Einsatz von Kennzeichenscannern ermöglicht der Gesetzentwurf. Damit dürften von Fahrzeugen, die zur Kontrolle ausgeschrieben sind, sogar Bewegungsprofile erstellt werden.
Ein weiteres Spielzeug, das das thüringische Innenministerium den Polizist*innen des Bundeslandes zur Verfügung stellen möchte, sind Videodrohnen, die zum Beispiel bei öffentlichen Veranstaltungen eingesetzt werden sollen. Außerdem könnten dem Gesetz nach Drohnen die Funktion eines IMSI-Catchers übernehmen und Standorte sowie Geräte- und Kartennummern von Mobiltelefonen ermitteln. Derartige Standortabfragen sollen künftig auch bei Mobiltelefonen erlaubt sein, deren Besitzer*innen nicht kriminell sind, sondern als vermisst gemeldet wurden.
Elektronische Fußfesseln sollen dem Gesetz nach nicht nur gegen Sexualstraftäter eingesetzt werden, sondern beispielsweise auch bei Menschen, die „eine Gefahr für Anlagen mit unmittelbarer Bedeutung für das Gemeinwesen“ darstellen. Demnach könnten die Tracker wohl theoretisch auch Menschen angelegt werden, die planen, eine Straße zu blockieren.
Zudem erlaubt das geplante Polizeigesetz den Einsatz von Distanzelektroimpulsgeräten, auch Taser genannt. Die werden oft gegen Menschen in psychischen Ausnahmesituationen genutzt und führen immer wieder zu Todesfällen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Sie wollen Qualitätsjournalismus hochhalten und einen Gegenpol auf der Plattform X bieten. Doch Tagesschau, ZDFheute, Spiegel und Zeit erreichen weder viele Views noch positive Interaktionen mit dem Publikum. Was ihnen vor allem entgegenschlägt, ist Hass. Warum bleiben sie trotzdem da? Eine Analyse.
Große Nachrichtensendungen wie die Tagesschau und ZDFheute, aber auch Online-Medien wie Tagesspiegel, Die Zeit und Spiegel sowie Fachmedien wie Legal Tribune Online betreiben weiterhin Accounts auf der Plattform X des rechtsradikalen US-Milliardärs Elon Musk und posten dort aktuelle Inhalte. Sie alle wissen um die Probleme auf der Plattform. Doch sie begründen ihre Aktivität damit, dass sie ihren Qualitätsjournalismus gegen die Desinformation auf X setzen und das Publikum dort abholen wollen, wo es sich aufhält.
Wir haben anhand einer Stichprobe analysiert, wie sich diese Medien auf X schlagen: Wie oft werden die Tweets angesehen, wie oft retweetet, wie interagieren die Nutzer:innen mit den Medien und ihren Inhalten?
Bei der beispielhaften Untersuchung wird klar: Die auf X verbliebenen seriösen Medien befinden sich in feindlichem Terrain. Teils haben sie zwar hohe Followerzahlen, ihre Inhalte werden aber verhältnismäßig wenig Nutzer:innen angezeigt. Wohlwollende Interaktionen wie Retweets können sie kaum generieren. Dafür bläst ihnen in Kommentaren der Wind eisig ins Gesicht.
Gezielter Umbau nach rechts
Für das unwirtliche Klima ist nicht zuletzt Elon Musk selbst mitverantwortlich. Kurz nach dem 44 Millarden US-Dollar schweren Kauf des Online-Dienstes im Jahr 2022 entließ er ganze Moderationsteams und holte im Namen der Meinungsfreiheit zuvor gesperrte Rechtsextremisten, Trolle und professionelle Lügner:innen auf den Dienst zurück. Werbekunden sprangen ab, da sie offenbar ihre Anzeigen ungern neben Nazi-Inhalten sehen wollten. Musk akzeptierte das nicht und überzog die Abtrünnigen mit Klagen.
In diese länger werdende und unvollständige Liste an Kontroversen reiht sich nun der jüngste Skandal um den KI-Chatbot Grok ein. Die ebenfalls zum Firmenimperium Musks gehörende KI-Anwendung ist in X integriert und spuckt auf Anweisung alles mögliche aus – darunter zuletzt auch sexualisierte Deepfakes von Nutzer:innen, in aller Regel von Frauen und sogar von Minderjährigen. Neu ist das Phänomen zwar nicht, aber Grok machte es leicht, bis X doch noch technische Einschränkungen implementierte: Noch nie ließen sich solche Inhalte derart einfach erstellen und an ein globales Publikum ausliefern.
Der Umbau von X zu einer offen rassistischen und sexistischen Plattform geht Hand in Hand mit Musks Unterstützung für rechtsradikale und antidemokratische Bewegungen, hierzulande die AfD. Der Unternehmer macht kein Geheimnis daraus, sein soziales Netzwerk in den Dienst einer rechtsradikalen Revolution zu stellen.
Viele haben X verlassen – doch manche sind geblieben
Viele Nutzer:innen, aber auch Medienhäuser und sonstige Organisationen haben deshalb in den vergangenen Jahren die Online-Dienste des rechtsradikalen US-Milliardärs verlassen. Ob Niedersächsischer Landtag, das Jüdische Museum München oder netzpolitik.org, die Gründe für den Rückzug ähneln sich: X sei ein Ort der Zensur, des Rassismus, Antisemitismus und des rechten Agendasettings geworden, begründeten Dutzende Abgeordnete, Wissenschaftler:innen und Journalist:innen im Winter 2024 ihren Abgang. Zwar nutzen in Deutschland immer noch rund sieben Millionen Menschen monatlich die Plattform, ihre Reichweite geht jedoch europaweit kontinuierlich zurück.
Warum also bleiben weiterhin manche Medien auf X und versorgen das soziale Netzwerk mit Inhalten, die wiederum dessen Attraktivität steigern?
Auch hier ähneln sich die Gründe: So betont etwa Markus Sehl, stellvertretender Chefredakteur von Legal Tribune Online (LTO), Beiträge über zahlreiche Social-Media-Kanäle auszuspielen, darunter Instagram, LinkedIn, Bluesky, Facebook – und eben auch X. „Wir verbinden mit unserer Präsenz auf allen diesen Plattformen das Ziel, mit unseren Inhalten dort ein seriöses Inhaltsangebot zu machen. Eines, das Filterblasen durchdringt, für konstruktive Irritation sorgt und schließlich einen demokratischen Diskurs ermöglicht“, so Sehl auf Anfrage von netzpolitik.org.
Bescheidene Reichweite, bescheidene Debatten
Wir haben dieses hehre Ziel einem Realitäts-Check unterzogen. In unserem Beobachtungszeitraum wurden Tweets des juristischen Fachmediums, allesamt mit Links zu LTO-Artikeln, laut der Statistikanzeige von X am Tag der Postings durchschnittlich nur 1.329 Mal von Nutzer:innen gesehen. Derzeit folgen mehr als 28.000 Accounts dem X-Auftritt von LTO. Sonderlich viel Aufmerksamkeit oder gar „demokratischen Diskurs“ konnten die Postings nicht entfachen. Im Schnitt wurden die Tweets knapp mehr als fünf Mal retweetet und zwölf Mal mit einem Herzchen versehen („geliked“). Die Hälfte der untersuchten Postings erhielt keine Antwort, im Schnitt waren es 2,2 Antworten („replys“) pro Tweet.
Und wie sieht es mit der Qualität der Antworten aus? Nennenswerte Diskussionen lösten LTO-Tweets über die Sabotage der russischen Öl-Pipeline Nord Stream aus, über das ungarische Gerichtsverfahren gegen die non-binäre Aktivist:in Maja T. oder ein Beitrag zur Mediendebatte über Inhaltemoderation und Algorithmenregulierung.
Dass solche Themen besonders viel Aufmerksamkeit auf X nach sich ziehen, ist so erwartbar wie viele der Antworten darunter: „Das sind Taschenspielertricks um unliebsame Meinungen kleinzumachen und das weiß auch der Autor der polarisieriende Ausagen mit Desinformationen vermengt“, polterte etwa ein gewisser Leo gegen Schleswig-Holsteins Ministerpräsidenten Daniel Günther (CDU) sowie den Autor des LTO-Artikels.
Schnittstellen-lose Stichprobe
Eine massenhafte Auswertung der jeweiligen X-Auftritte deutscher Medien ist nicht mehr ohne Weiteres möglich, seit Elon Musk die dazu notwendigen Schnittstellen hinter eine Bezahlschranke gepackt hat. Für unsere kleinere Untersuchung haben wir deshalb am 19. Januar 2026 jeden zweiten Tweet eines Mediums erfasst, bis insgesamt zehn erfasste Postings zusammengekommen waren. Diese zehn Tweets pro Medium haben wir hinsichtlich Views, Replys, Retweets und Likes ausgewertet. Außerdem haben wir uns angesehen, ob die Medien selbst in den Replys angegriffen werden und haben die Reaktionen auf die Tweets qualitativ bewertet.
Aufgrund des kleinen Ausschnitts können die erhobenen Daten nur als Stichprobe gelten, die aber deutliche Muster aufzeigt. Diese konnten wir auch bei Tweets außerhalb des Untersuchungszeitraums finden.
Grundsätzlich sind die Zahlen mit Skepsis zu betrachten, nicht nur wegen der kleinen Stichprobe. Manipulationsversuche sind seit Jahren nicht mehr aus dem Internet wegzudenken. Doch wozu noch vor nicht allzu langer Zeit umfangreiche Troll-Farmen notwendig waren, lassen sich Aufruf- und Engagement-Metriken in Zeiten von ChatGPT, Grok und anderen KI-Chatbots mit deutlich weniger Aufwand und raffinierter verfälschen.
Ganze Schwärme von KI-Bots, die etwa über Online-Dienste hinweg authentisches Handeln und konsistente Persönlichkeiten vortäuschen können, überfluten derzeit soziale Medien, warnten zuletzt mehrere Studien. Oft ist nur schwer erkennbar, ob hinter Postings echte Menschen oder Propagandabots stecken. „Die Verschmelzung von agentenbasierter KI und LLMs markiert eine neue Grenze im Informationskrieg“, führt eine der Studien aus.
Ähnliche Vorsicht ist auch bei der Anzeige der Views oder der Followerzahlen angebracht. Nicht einmal X dürfte einigermaßen verlässlich über verdächtige Aktivitäten auf dem eigenen Dienst Bescheid wissen, seit Musk die dafür zuständigen Teams dramatisch reduziert und zugleich die Moderationsregeln gelockert hat – wenn die Manipulationsversuche nicht gleich aus dem eigenen Haus kommen.
Konzentrierter brauner Sumpf
Das bei LTO beobachtete Phänomen lässt sich auch bei anderen noch auf X aktiven Medien feststellen. Kaum Reichweite, wenig Engagement von Nutzer:innen, und wenn es Antworten unter den Tweets gibt, enthalten diese nur selten erhellende Einsichten. Im Gegenteil: Oft genug besetzen reaktionäre Trolle den Platz, den es ohne die Tweets der Medien-Accounts so nicht gegeben hätte. Dabei kapern sie die Debatte und posten gerne auch themenfremde und beliebige Links zu rechtsradikalen Aufregerthemen. Außer einem braunen Sumpf bleibt oft nicht viel übrig unter den Tweets der Medien.
So folgen dem X-Account von Die Zeit derzeit rund 2,3 Millionen Accounts. Einzelne Postings wurden im Beobachtungszeitraum trotz dieser auf dem Papier großen Zahl durchschnittlich nur knapp 2.900 Mal angesehen, 2,1 Mal retweetet, 5,1 Mal geliked und 4,1 Mal beantwortet. Mehrere Tweets erhielten zum Zeitpunkt der Auswertung gar keine Reaktion, die meisten Antworten (17) liefen bei einem Tweet über ein internes Papier der Grünen zur EU-Außenpolitik auf. Ein gefundenes Fressen für selbsternannte „Parodieaccounts“, die die Schuld für jedwedes Problem bei den Grünen verorten.
Bemerkenswert ist, was passiert, wenn der Zeit-Account zuweilen gezielt ein bestimmtes Publikum anzusprechen scheint. Ein Tweet über die Fußballbundesliga erwähnt etwa den rechtsextremen AfD-Spitzenpolitiker Tino Chrupalla. Wie auch im Anreißer des Originalartikels steht dort, der AfD-Politiker habe „nicht viel verpasst“. Dafür gab es Kritik: „Warum wird dieser Faschist hier einfach so erwähnt?“, fragte immerhin ein:e Nutzer:in mit einer EU-Flagge im Profilbild. Wenig später wird der Account selbst als Faschist beschimpft.
In einem anderen Tweet schien die Zeit-Redaktion Gratis-Werbung für die österreichische FPÖ zu machen: Ein von der Rechtsaußen-Partei neu gestarteter Radiosender sei „sehr langweilig (…) und gerade deshalb interessant – besonders für deutsche Hörer“. Was auch immer die Motivation hinter diesen anbiedernden Anreißern war, der Erfolg hielt sich in Grenzen. Beide Tweets erhielten insgesamt nicht einmal zehn Antworten – zusammengerechnet. Als Reibebaum, der Engagement und Klicks lostritt, eignet sich diese Form der Ansprache offenbar nicht.
Gegengewicht oder Zielscheibe?
Auch Zeit Online begründet ihren Verbleib auf X damit, ein Korrektiv sein zu wollen. „Unser Ziel ist es, verlässliche Informationen und unabhängigen Journalismus möglichst vielen Menschen zugänglich zu machen“, teilt eine Verlagssprecherin mit. Die Zeit sei „ein Gegengewicht zur aggressiven, wenig produktiven Diskussionskultur und der Zunahme von Desinformation auf X, weshalb wir unseren Account mit 2,3 Millionen Followern zum jetzigen Zeitpunkt weiterhin betreiben. Neben X sind wir auf Plattformen wie Bluesky, Threads und WhatsApp aktiv und bauen diese Kanäle weiter aus“, heißt es aus dem Verlag.
Ein Stückchen erfolgreicher ist der X-Account des Spiegel. Im Untersuchungszeitraum abgesetzte Tweets huschten im Schnitt rund 4.200 Mal über die Bildschirme der Nutzer:innen. Unterm Strich erhielten sie je knapp elf Antworten, 3,6 Retweets und rund 9 Likes. Allerdings verzerrt ein Ausreißer das Bild: Ungewöhnlich viel Resonanz erhielt ein Retweet des @SPIEGEL_EIL-Accounts, der staatliche Förderung von Elektroautos zum Thema hatte. Zum Zeitpunkt der Erfassung konnte der Tweet über 12.000 Views verzeichnen, rund eine Woche später ist die Zahl auf 22.000 angestiegen. Rechnet man diesen Tweet heraus, sinkt die Anzahl der durchschnittlichen Views auf rund 3.000. Für ein angebliches Millionenpublikum – @derspiegel hat über 3 Millionen Follower, @SPIEGEL_EIL über 1,5 Millionen – ist das eine magere Ausbeute.
Der rechte Influencer holt unter dem Spiegel-Tweet die Likes. - Screenshot / Twitter
Präsenz schafft Diskursräume für Rechtsradikale
Welche Diskursräume die Tweets erst schaffen, zeigt erneut ein Blick in die Antworten unter diesen. Bei besagtem E-Auto-Tweet spülte das Empfehlungssystem von X den rechten Influencer Miró Wolsfeld ganz nach oben. „Steuerzahler zahlen den Müll, nicht der Bund“, wetterte der auch als Unblogd bekannte Aktivist. Während der Tweet des Spiegels gerade mal 8 Retweets und 31 Likes bekommt, holt sich Wolsfeld 51 Retweets und 1.654 Likes mit seinem Kommentar ab. Auch solche Phänomene sind ein klares Zeichen, wer das Sagen auf der Plattform hat.
Ein solches Auftreten lässt sich auf X inzwischen monetarisieren. Dem Account kann man freiwillig für 3,33 Euro im Monat folgen, den zahlenden Followern verspricht Wolsfeld als Bonus „Demnächst Podcasts vorab“. Gekoppelt an Empfehlungsalgorithmen, die umstrittene Inhalte bevorzugen, um damit Nutzer:innen länger auf dem Dienst zu halten, entsteht ein perverses Anreizsystem: Es belohnt diejenigen, die mit reißerischen Inhalten möglichst viel Aufmerksamkeit erregen.
Mit Spott und Hohn wird dabei oft nicht gespart. „SPIEGEL, STERN, SZ, usw. haben auf X einfach so gut wie nichts mehr zu melden“, tönte der rechte Influencer vor wenigen Tagen. „Bei der üblich hohlen Propaganda gibt es so gut wie keine Likes auf deren Posts, dafür aber etliche Kommentare, die den Nonsens zerlegen. Der Wind hat sich hier definitiv gedreht.“
„Wichtige Kontaktpunkte“ zu wem?
Für seriöse Medien, die weiterhin auf X bleiben und der Plattform Inhalte zuliefern, steigt tatsächlich der Druck. „Wenn wir mit den redaktionellen Inhalten unserer Medienmarken neue Nutzerinnen und Nutzer erreichen wollen, müssen wir dorthin gehen, wo sie sich informieren, und das sind eben oft Plattformen, die weniger offen und verantwortungsvoll sind, als wir uns das wünschen“, teilt eine Spiegel-Sprecherin mit.
„Wenn sich unabhängige Medien von diesen Plattformen selbst ausschließen, verlieren wir wichtige Kontaktpunkte zu unseren Zielgruppen. Und an der Nutzung der Plattformen würde sich durch den Rückzug der Qualitätsmedien nichts ändern“, sagt die Sprecherin.
Doch dass sich der Wind gedreht hat, ist auf X kaum von der Hand zu weisen. Die Plattform ist unter den Tweets der Accounts großer deutscher Medien fest in der Hand von Rechtsextremen, Zynikern, Rassisten und Menschen, die einfach nur ihrem Hass auf klassische Medien und die Welt freien Lauf lassen.
Hohes Vertrauen in öffentlich-rechtliche Medien
Diese Wut trifft insbesondere öffentlich-rechtliche Medien. Im öffentlichen Auftrag sollen sie dazu beitragen, die Menschen in Deutschland umfassend und ausgewogen zu informieren. Deshalb landen sie immer wieder im Visier von Rechtsextremen wie dem AfD-Politiker Björn Höcke, der etwa die Medien-Staatsverträge aufkündigen will. Von ganz rechts bis in die Bundesregierung hinein wird am öffentlich-rechtlichen Rundfunk gesägt.
Trotz aller Versuche, die Glaubwürdigkeit öffentlich-rechtlicher Medien zu untergraben, genießen die Sender bis heute verhältnismäßig viel Vertrauen in der Bevölkerung, mehr als private Tageszeitungen oder Sender. Zwei Drittel der Befragten hielten den öffentlich-rechtlichen Rundfunk (ÖRR) für „unverzichtbar“, wie eine repräsentative Studie im Vorjahr ergab. Den parteiübergreifenden Konsens durchbrechen lediglich Anhänger:innen der Kleinpartei BSW sowie der AfD, die den sogenannten Systemmedien überwiegend nicht vertrauen.
Viele Follower, wenige Ansichten
Unsere Auswertung zeigt, dass sich die Bedeutung der Öffentlich-Rechtlichen auch im Internet abbildet. So wurden die Tweets der großen Kanäle @tagesschau (5,1 Millionen Follower) und @ZDFheute (1,3 Millionen Follower) deutlich mehr Menschen in der App und auf der Seite von X angezeigt als die Postings privater Medien. Im Beobachtungszeitraum sahen im Schnitt rund 24.000 Nutzer:innen Tweets der Tagesschau, bei ZDFheute waren es rund 23.000. Angesichts der hohen Followerzahlen der Kanäle sind diese Zahlen jedoch mehr als ernüchternd.
Wie viele der Nutzer:innen tatsächlich auf einen Link in einem Tweet klickten, verrät X nicht. Und auch die sogenannten Referrer-Zahlen von tagesschau.de und ZDFheute, die mehr über die Herkunft der Besucher:innen verraten, liegen uns nicht vor. Schätzungen von Marketing-Firmen gehen bei X von einer Klickrate von etwa einem Prozent auf externe Links aus.
Warum die beiden Kanäle der Öffentlich-Rechtlichen laut der nicht notwendigerweise zuverlässigen Views-Anzeige von X derart besser abschneiden als Spiegel oder Die Zeit, geht aus den Daten nicht hervor. Klar ist aber, dass X seit der Übernahme von Musk Tweets mit Links benachteiligt werden, dafür sprechen unterschiedliche Untersuchungen und Berichte.
Zudem hat X schon im Jahr 2023 durch das Design der Tweets Links in die Außenwelt unattraktiver gestaltet, indem nicht mehr die Vorschau eines Artikels eingebettet wird. Hintergrund ist, dass X wie auch andere Big-Tech-Plattformen versucht, die Nutzer:innen auf der Plattform zu halten und dort „Engagement“ und damit Werbeabspielungen zu erreichen. Nutzer:innen über einen Klick auf andere Seiten im Netz zu schicken, widerspricht diesem Ziel.
Tagesschau und ZDFheute sehen sich als Gegenpol
Laut einem Sprecher der ARD geht es der Tagesschau darum, „seriöse und verifizierte Nachrichteninhalte Nutzenden auf Social-Media-Plattformen zur Verfügung zu stellen und damit einen Gegenpol zu Desinformationen und Verschwörungsmythen zu setzen.“ Dies gelinge mit Blick auf die Zugriffszahlen, die die Artikellinks der Tagesschau auf X erzielten, „weiterhin in relevanter Größenordnung“.
Angesichts der relativ zur hohen Followeranzahl wenigen Views und der geschätzten Klickrate von einem Prozent dürfte sich der Anteil von X bei den 50 bis 80 Millionen monatlichen Seitenbesuchen auf tagesschau.de in Grenzen halten. Zur Einordnung: Auch vor Elon Musks Übernahme erreichte beispielsweise netzpolitik.org mit seiner damals Twitter-affinen Leser:innenschaft nie mehr als ein bis zwei Prozent aller Seitenabrufe über die Plattform. Diese Zahlen umfassen sowohl Klicks auf Links in Tweets des eigenen Accounts als auch in Tweets anderer.
ZDF schreibt gegenüber netzpolitik.org, dass alle Social-Media-Aktivitäten einem „kontinuierlichen Controlling mit Blick beispielsweise auf Zielgruppe, Performance und Entwicklung der jeweiligen Plattform“ unterliegen würden. „Sollten Accounts entsprechende Ziele nicht erreichen bzw. genannte Kriterien nicht erfüllen, werden diese eingestellt.“
Was für Ziele das sind, gibt das ZDF nicht preis, führt jedoch aus, warum man weiter auf der Plattform poste: „Das Nachrichtenangebot ZDFheute veröffentlicht aktuelle Informationen weiterhin auf X, um Qualitätsjournalismus auch dort möglichst vielen Menschen einfach zugänglich zu machen.“
Doch die Versuche der Tagesschau und von ZDFheute werden von den Nutzenden auf der Plattform X wenig honoriert. Das Gegenteil ist der Fall. Dementsprechend heiß geht es in den Kommentaren unter den Tweets zu: Durchschnittlich liefen bei der Tagesschau 77 Kommentare auf, bei ZDF Heute sogar 100.
Dort findet eine Schlacht um die Deutungshoheit statt. Mit 173 Kommentaren besonders umkämpft war ein Tweet zu einer Eilmeldung, dass der Begriff „Sondervermögen“ zum Unwort des Jahres 2025 gewählt wurde. Die Debatte lenkten dem rechten Milieu zuordnenbare Accounts, etwa der des rechten Magazins Krautzone. Eine der Top-Antworten wollte etwas ganz anderes diskutieren: „Für mich ist ‚ÖRR‘ das Unwort des Jahrhunderts.“
Öffentlich-rechtliche Medien im Dauer-Shitstorm
Die grundsätzliche Feindseligkeit der Rezipient:innen auf X ist bei den untersuchten Medien am Verhältnis von Antworten zu Retweets erkennbar, der „Reply Retweet Ratio“. Tweets mit vielen Replys und wenigen Retweets zeigen in der Regel eine Kontroverse oder eine Ablehnung der Nutzer:innen an. Diese kann sich auf den Inhalt des Tweets oder auf den Postenden selbst beziehen.
Es ist ganz normal, dass einzelne Tweets bisweilen mehr Replys erhalten als Retweets. Ungewöhnlich ist aber, dass bei den öffentlich-rechtlichen Nachrichten-Accounts von Tagesschau und ZDFheute mehr Replys als Retweets der Regelfall sind. Die Tagesschau erhielt im Untersuchungzeitraum drei Mal so viele Replys wie Retweets, ZDF gar fast vier Mal soviele. Auch der Spiegel erhielt drei mal so viele Replys wie Retweets, bei der Zeit waren es immer noch doppelt so viele. Einzig LTO war als Medium nicht so negativ im Fokus – es erreichte mehr Retweets als Replys.
Bei ZDFheute und Tagesschau gab es in den untersuchten Tweets bis auf eine Ausnahme unter jedem Tweet direkte Angriffe auf die Sendungen oder die Sender selbst, oft auch mehrfach. Dabei ging es in den Kommentaren nicht um sachliche oder inhaltliche Kritik an Nachrichteninhalt oder dessen Aufbereitung.
So findet man unter Tweets regelmäßig die Forderung, die Pflicht zum Rundfunkbeitrag abzuschaffen. Die Tagesschau wird unter anderem als „Terrorpropaganda“, „Propagandascheisse“ oder „Schundfunk“ diffamiert, das ZDF als „Schrottsender“ und die ZDFheute-Redaktion sieht ein User als heroinabhängig. Das ist nur ein kleiner Ausschnitt dutzender Beschimpfungen, die wir als Reaktion auf das kleine Set an untersuchten Tweets identifizieren konnten.
netzpolitik.org holt auf Bluesky mehr Retweets als Tagesschau, heute, Spiegel und Zeit zusammen
Wir haben uns zum Vergleich angesehen, wie die Interaktion beim Account von netzpolitik.org auf Bluesky aussieht. Im gleichen Untersuchungszeitraum erhielt netzpolitik.org auf Bluesky eine deutlich umgekehrte Reply-Repost-Ratio: Fast neun Mal mehr Accounts klickten auf den Repost-Button als auf Reply. Mehr Reposts als Replys sind der eigentliche Normalzustand bei Diensten wie X, Bluesky oder Mastodon.
Spannend war auch die Anzahl der Reposts insgesamt beim Account unserer Redaktion auf Bluesky. Der Account von netzpolitik.org mit seinen etwa 35.000 Followern erreichte im Untersuchungszeitraum am 19. Januar mit 755 Reposts mehr Verstärkung als Tagesschau, Heute, Spiegel, Zeit und LTO auf X mit ihren fast 12 Millionen Followern. Insgesamt kamen diese Accounts auf 615 Reposts. Und das, obwohl den untersuchten Medien auf X mehr als 300 Mal mehr Accounts folgen.
Weder Tagesschau noch ZDFheute betreiben einen offiziellen Kanal auf Bluesky. Die Sender ARD und ZDF sind jedoch auf Mastodon vertreten und betreiben dort jeweils eigene Server.
Überprüfen, bis das Fass überläuft
Ein Abschied von X fällt offenkundig nicht leicht. Das Bleiben aber auch nicht. „Die Entwicklung und die gesellschaftlichen Auswirkungen von X beobachten wir kritisch und diskutieren regelmäßig, ob und wie wir dort weiterhin präsent sein sollten“, heißt es von Die Zeit. „Fehlentwicklungen auf Plattformen nehmen wir ernst, selbstverständlich behalten wir die Entwicklungen gerade bei X kritisch im Blick“, beteuert LTO. Auch der Spiegel befasse sich im Lichte der neuen Erkenntnisse „erneut mit unserer Präsenz auf der Plattform“, sagt eine Sprecherin. Die Antworten ähneln denen der EU-Kommission, der Bundesregierung, Parteien im Bundestag und Ministerien, die weiterhin der Plattform treu sind und immer schwerer Argumente dafür finden.
Es bleibt also spannend, wann der Punkt erreicht ist, an dem es auch für die letzten Verbliebenen nicht mehr weiter geht. Die Erfahrungen der letzten Jahre zeigen: Der Skandal mit sexualisierten Deepfakes realer Personen rund um den X-Chatbot Grok wird nicht der letzte bleiben.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.