🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
✇netzpolitik.org

Polizeiliche Kriminalstatistik: Mit Vorsicht zu genießen

Von: Markus Reuter

Wenn die jährliche Statistik zur Kriminalität veröffentlicht wird, folgen oft rassistische Hetze und Rufe nach Strafrechtsverschärfungen. Dabei sagt die Statistik weniger darüber aus, wie die Sicherheitslage im Land wirklich ist, als viele vermuten.

Menschen halten die Kriminalstatistik für ein Foto in der Hand.
Die Kriminalstatistik wird jährlich unter großem Interesse veröffentlicht. – Alle Rechte vorbehalten IMAGO / IPON

Jedes Jahr im Frühling veröffentlicht das Bundeskriminalamt die Polizeiliche Kriminalstatistik. Sie wird von Vielen wahrgenommen als genaues Abbild von Kriminalität im Land und dementsprechend oft auch politisch instrumentalisiert. Dabei ist die Polizeiliche Kriminalstatistik (PKS) zuallererst eine Art Arbeitsbericht der Polizei. Sie ist mit Vorsicht zu genießen.

In der PKS werden mutmaßliche Straftaten erfasst, welche die Polizei an die Staatsanwaltschaften weitergibt. Ob diese dann die Verfahren einstellen und ob jemand verurteilt wird, erfahren wir aus dieser Statistik nicht. Wir erfahren auch nicht, ob die Steigerung einer Kriminalitätsart darauf beruht, dass die Polizei ihren Schwerpunkt verlagert hat, die Ermittlungsmethoden besser wurden, das Dunkelfeld sich aufhellt oder Menschen bereitwilliger Straftaten anzeigen.

Zudem gibt es rassistische Einstellungen, die dazu führen, dass bestimmte Bevölkerungsgruppen von der Polizei stärker kontrolliert oder von der Mehrheitsbevölkerung öfter angezeigt werden, was deren Präsenz in der Statistik erhöht. Das alles verzerrt die Polizeiliche Kriminalstatistik.

Polarisierung und Stigmatisierung

Die Statistik steht wegen wegen ihrer Anfälligkeit zur Instrumentalisierung und auch rassistischen Stimmungsmache in der Kritik. „Die polizeiliche Kriminalstatistik ist als Instrument zur Bewertung der Sicherheitslage ungeeignet“, hieß es in einem offenen Brief (PDF), den zahlreiche Menschenrechtsorganisationen und Kriminolog:innen vergangenes Jahr unterzeichnet haben. Vielmehr trage die Statistik zur Polarisierung der Gesellschaft und Stigmatisierung bestimmter Bevölkerungsgruppen bei, so die Unterzeichnenden.

Das Medienhaus Correctiv hat nun beliebte Mythen und Instrumentalisierungen rund um die Kriminalstatistik einem Faktencheck unterzogen. Der Artikel weist zum Beispiel darauf hin, dass eine Verbindung von polizeilicher Statistik und Justizstatistiken überfällig wäre. Dann könnte man nachvollziehen, wie häufig aus der polizeilichen Erfassung als Straftat am Ende auch eine Verurteilung vor Gericht wird. Den wie Correctiv schreibt, wurden laut statistischem Bundesamt 60 Prozent der Ermittlungsverfahren eingestellt.

Der Faktencheck zeigt auch, dass die Zahl der Fälle mit dem Bevölkerungswachstum zu tun hat. Mehr Tatverdächtige heiße nicht notwendigerweise, dass auch prozentual mehr Menschen kriminell geworden seien. Der prozentuale Wert wird mittels der „Tatverdächtigenbelastungszahl“ statistisch erfasst. Correctiv hat nun diesen Wert angeschaut und kommt zum Schluss:

[..] obwohl die absolute Zahl der Tatverdächtigen in den vergangenen Jahren zwischendurch gestiegen ist (etwa zwischen 2013 und 2015 oder zwischen 2021 und 2023): Der Anteil der Menschen in der Gesellschaft, die von der Polizei eines Verbrechens verdächtigt wurden, ist seit 2009 insgesamt gesunken.

Ein anderes Feld im Bericht von Correctiv sind Straftaten gegen die sexuelle Selbstbestimmung. Diese sind in den vergangenen Jahrzehnten laut der PKS dramatisch angestiegen. Die Hintergründe sind dabei vor allem auch ein besserer gesetzlicher Schutz vor solchen Straftaten durch eine Erweiterung dessen, was überhaupt strafbar ist, sowie eine gestiegene Sensibilität, so dass mehr Menschen und vor allem Frauen sich trauen, solche Straftaten auch anzeigen. Dennoch ist das Dunkelfeld in diesem Gebiet immer noch groß, so kam kürzlich heraus, dass bei digitaler Gewalt etwa 97 Prozent aller Fälle nicht zur Anzeige kommen.

Demografische und soziale Aspekte ignoriert

Beliebt in rassistischer Stimmungsmache, die ja derzeit von AfD bis zum Bundeskanzler Konjunktur hat, ist das Narrativ von kriminellen Migrant:innen. Die PKS erfasst keinen Migrationshintergrund, wer einen deutschen Pass hat, ist deutsch – egal, wo die Person geboren ist oder welche Nationalität die Eltern hatten. Die in der PKS erfassten Nicht-Deutschen hingegen sind nicht nur Geflüchtete oder hier lebende Menschen ohne deutschen Pass, sondern auch Tourist:innen. Wer also mit Fallzahlen aus der PKS hantiert, um rechte Stimmung zu machen, ignoriert nicht nur das, sondern auch, dass bei den Nicht-Deutschen die Altersstruktur jünger ist und jüngere Menschen, egal von wo sie kommen, in der Regel mehr Straftaten begehen. In Lagebildern erfasst das Bundeskriminalamt hingegen erst seit 2015 die Kriminalität von „Zuwanderern“, laut dem BKA Menschen, die ein Asylverfahren durchlaufen, einen Aufenthaltstitel oder eine Duldung haben oder abgeschoben werden sollen.

Rechtsradikale hantieren gerne mit der sogenannten „Messerkriminalität“, die angeblich seit dem Jahr 2015 explodiert sei. Das ist unseriös, wie Correctiv darlegt: Denn „Tathandlungen, bei denen der Angriff mit einem Messer unmittelbar gegen eine Person angedroht oder ausgeführt wird“ werden erst seit dem 1. Januar 2024 vollständig erfasst. 90 Prozent der erfassten „Messerkriminalität“ wird von Männern über 21 Jahren verübt. Tatsächlich sind dabei in der Statistik nicht-deutsche Täter überrepräsentiert. Neben demografischen und sozialen Aspekten gibt es zahlreiche weitere Faktoren, die dieses Ungleichgewicht begünstigen, wie die Kriminologin Gina Wollinger darlegt.

Verzerrte Wahrnehmung von Kriminalität

Die Gefahr einer Verfälschung des Kriminalitätsbildes durch die polizeiliche Statistik wird verstärkt dadurch, dass sehr viele Menschen eine völlig von der Realität abgekoppelte Wahrnehmung der Kriminalität haben. In einer Befragung der Konrad-Adenauer-Stiftung (KAS) aus dem Jahr 2021 gingen fast zwei Drittel von einer starken bis sehr starken Zunahme der Kriminalität in den letzten fünf Jahren aus, während nur sechs Prozent der Befragten die Kriminalitätsentwicklung realistisch einschätzten.

Woher diese Fehlwahrnehmung kommt, ist nicht abschließend untersucht. Die Studie der KAS zeigte sich hier einigermaßen ratlos: Die Sorge vor einer Zunahme der Kriminalität lasse sich nicht mit sinkender tatsächlicher Kriminalität aus der Welt schaffen, stellten die Autor:innen damals fest.

Einen Anteil an diesem Phänomen haben vermutlich die Nachrichtenwertfaktoren Negativität und Nähe, die Medien dazu bringen, Berichte mit Schaden und Kriminalität in unserer Nähe als relevanter zu bewerten. So entsteht medial eine Schieflage, die nicht der realen Entwicklung entspricht. Diese Schieflage wird befeuert von einer Innenpolitik, die auf diese Fehlwahrnehmungen eingeht, was die Berichterstattung zum Thema Sicherheit weiter verstärkt. Hinzu kommt auch ein Altersfaktor, den die Studien bestätigen: Je älter die Befragten, desto mehr Angst haben sie vor Kriminalitätszunahme. In einer alternden Gesellschaft steigt also die Furcht und damit auch der politische Druck auf das Thema.

Eng gefasster Sicherheitsbegriff

Der Fokus des Sicherheitsbegriffs auf Delinquenz und Kriminalität trägt zudem zu einer weiteren Verzerrung und damit verschobenen politischen Prioritäten bei. Ein erweiterter Sicherheitsbegriff würde soziale Sicherheit hervorheben, dazu gehören Wohnraum, eine gerechte Vermögensverteilung, ein gutes Gesundheitssystem, einfache Mobilität sowie die Absicherung von Arbeitsplätzen. Ein noch weiter in die Zukunft gerichteter Sicherheitsbegriff würde auch die Gefahr von Kriegen, Umweltkatastrophen und Klimakollaps in den Fokus nehmen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Abschiebepolitik: Das Handy eines Mannes, der nirgendwo hinkann

Von: Chris Köver

Idris lebt seit mehr als 40 Jahren in Deutschland und soll nach Eritrea abgeschoben werden. Das gilt als praktisch unmöglich. Trotzdem durchsucht das Ausländeramt Köln sein Smartphone, während er im Gefängnis sitzt. Eine Geschichte über einen Kontrollapparat, der sich verselbstständigt hat.

Eine Mauer im Morgengrauen, darauf ein Wachturm.
Der Wachturm der JVA Köln Ossendorf: Hier saß Idris in Untersuchungshaft. – Alle Rechte vorbehalten IMAGO / Funke Foto Services / Andreas Buck

Winter 2024. Idris ist gerade in der JVA Siegburg angekommen. Um seine Cracksucht zu finanzieren, war er in einen Kiosk und mehrere Gaststätten eingestiegen, hatte Parfum in einer Drogerie geklaut, war immer wieder erwischt worden. Weil er die Taten während laufender Bewährungszeiten begangen hatte, muss er jetzt für insgesamt fünf Jahre ins Gefängnis.

Ein Beamter reicht ihm die Gefängniskleidung und einem Umschlag mit seinen Wertsachen. Die Sachen sind aus der Untersuchungshaft überstellt worden, in der er vorher gewesen ist. Idris soll den Inhalt prüfen, bevor der Umschlag wieder verplombt und eingeschlossen wird. Im Umschlag liegt seine Halskette. Aber das Handy, das er beim Antritt der U-Haft Anfang des Jahres ebenfalls abgegeben hatte, fehlt.

Was damit passiert ist, erfährt er erst zwei Monate später, durch einen Brief der für ihn zuständigen Ausländerbehörde Köln. „Anbei übersende ich Ihnen den Datenträger des oben genannten Inhaftierten zurück“, heißt es darin und weiter in bestem redundanten Amtsdeutsch. „Der Datenträger wurde im Zuge einer Datenträgerauswertung ausgewertet“, er könne nun zurück in die Verwahrung.

Seit 40 Jahren geduldet

Idris, der eigentlich anders heißt, lebt seit mehr als 40 Jahren in Deutschland. Er kam als Kind, hat hier die Schule besucht, einen Hauptschulabschluss gemacht, eine Schlosserlehre begonnen. Er hat auch früh eine Karriere als Kleinkrimineller begonnen, wie er selbst sagt. All das erzählt er vom Festnetztelefon des Gefängnisses aus, das er zu vorgeschriebenen Zeiten benutzen darf.

Eine Aufenthaltserlaubnis hat er nicht, sein Antrag auf Asyl wurde bereits 1987 abgelehnt. Seit Jahrzehnten lebt er mit einer Duldung im Land, doch damit ist jetzt Schluss. Nach seiner Entlassung soll er Deutschland verlassen, das hat ihm das Ausländeramt im Herbst mitgeteilt.

Das Problem: Das Land, aus dem er mit seiner Tante einst geflohen ist, der heutige Staat Eritrea, will ihn nicht. Eine Abschiebung dorthin ist ohnehin so gut wie unmöglich. Das Land gilt als eine der brutalsten Diktaturen der Welt, Abgeschobenen drohen Folter und willkürliche Haft. Als Geflüchteter aus der ehemaligen äthiopischen Provinz besaß Idris zudem nie eritreische Papiere, Eritrea erkennt ihn nicht als Staatsbürger an. „Ich bin faktisch staatenlos, seit über vierzig Jahren“, sagt Idris zu seinem Fall.

Den deutschen Verwaltungsapparat interessiert das nicht. Für das Ausländeramt Köln ist Idris ein ausreisepflichtiger Straftäter, in so einem Fall gilt ein besonders schwerwiegendes „Ausweisungsinteresse“. Das Amt muss alles dafür vorbereiten, dass er nach seiner verbüßten Haftstrafe abgeschoben werden kann. Dazu darf es laut Aufenthaltsgesetz auch seine Datenträger durchsuchen.

Vom Gefängnis in die IT-Forensik

Während Idris in einer Zelle sitzt, geht sein Handy deswegen auf Reisen. Aus dem Umschlag mit seinen persönlichen Dingen in der Gefängnisverwahrung gelangt es an das Ausländeramt in Köln, dieses schickt es mit einem Prüfauftrag weiter an die Zentrale Ausländerbehörde in Essen.

Die Behörde ist dafür zuständig, die Ämter in Köln und Düsseldorf bei Abschiebungen zu unterstützen. Dort arbeitet seit Herbst 2023 auch die „Stabsstelle Datenforensik“. Ihre Aufgabe: Die Datenträger von Menschen durchsuchen, die „ausreisepflichtig“ sind, um darauf nach Hinweisen für ihre Herkunft oder Identität zu suchen.

Diese Abteilung eingerichtet hat das von den Grünen geführte Fluchtministerium in Nordrhein-Westfalen. In einem Erlass, der damals an alle Ausländerbehörden im Land ging, heißt es dazu: „Demnach ist ein Ausländer, der keinen Pass oder Passersatz besitzt, verpflichtet, an der Beschaffung eines Identitätspapieres mitzuwirken und alle Dokumente oder Datenträger auf Verlangen der Ausländerbehörde vorzulegen, die für die Feststellung und Geltendmachung einer Rückführungsmöglichkeit in einen anderen Staat von Bedeutung sein können.“ Komme die betroffene Person dieser Mitwirkungspflicht nicht nach, könne die Behörde die Durchsuchung anordnen.

Die Ausländerbehörden werden in dem Schreiben gebeten, „sich bei Bedarf an einer Datenträgerauswertung“ mit der jeweils für ihren Regierungsbezirk zuständigen Zentralen Ausländerbehörde in Verbindung zu setzen. Weitere Informationen dazu finde man unter dem Reiter „Auswertung Datenträger“ im System.

Was ein Handy über Herkunft verraten soll

Was in Essen mit seinem Handy geschieht, erfährt Idris nicht. Die Stadt Köln will dazu keine Auskunft erteilen. Ausgehend von dem, was ein Sprecher der Stadt mitteilt und was aus bisherigen Recherchen von netzpolitik.org bekannt ist, würde die Durchsuchung aber so ablaufen:

Die Abteilung soll auf Idris’ Handy nach Indizien suchen, die auf eine Staatsangehörigkeit hindeuten können. Im besten Fall – aus Sicht der Behörde – wären das Fotos von Papieren oder Passnummern. Im weniger guten Fall geht es um „sachdienliche Hinweise“: Anrufe in ein bestimmtes Land etwa, gespeicherte Kontakte oder Sprachen, die er in Chatnachrichten verwendet hat.

Um die Handys zu durchsuchen, schließen die Forensik-Fachleute die Geräte an einen Computer an, der alle Daten aus dem Gerät ausliest. Idris‘ Fotos, seine Nachrichten, wen er angerufen hat, was er auf Social Media postete – all das liegt nun bei der Behörde offen. Aus den relevanten Hinweisen, die sie in den Daten finden, erstellen Mitarbeiter*innen einen Bericht und schicken ihn zusammen mit dem Handy zurück an die Ausländerbehörde.

Dieser letzte Schritt, die Auswertung und der Bericht, werde von einer Person mit Befähigung zum Richteramt gemacht, schreibt ein Sprecher der Stadt. Letzteres schreibt das Aufenthaltsgesetz vor. Damit soll sichergestellt sein, dass keine Informationen aus dem sogenannten „Kernbereich“ der privaten Lebensgestaltung in den Akten landen.

„Was ist das für eine Verarscherei?“

Formal ist das alles korrekt, rechtlich abgesichert. Ein Paragraf im Aufenthaltsgesetz erlaubt die Handydurchsuchung bereits seit mehr als zehn Jahren, wenn die Identität nicht mit anderen „milderen Mitteln“ geklärt werden kann, etwa durch die Vorlage einer Geburtsurkunde. Die Behörde darf in so einem Fall Datenträger einziehen, auch gegen den Willen der Betroffenen. In vielen Bundesländern ist das inzwischen Standard.

Nur: Was soll das im Fall von Idris bringen? Seine Abschiebung scheitert ja nicht daran, dass seine Identität oder Staatsbürgerschaft nicht bekannt wären. Die deutschen Behörden kennen seinen Namen, sein Geburtsdatum.

Idris kann nicht abgeschoben werden, weil die eritreische Botschaft ihm keine Papiere ausstellt. Das weiß auch die Ausländerbehörde. Was erhofft sie sich von der Durchsuchung? Und warum sammelt ein Staat überhaupt digitale Daten für eine Abschiebung, die diplomatisch unmöglich ist? Einfach, weil er es kann?

„Auf meinem Handy werden sie sicher nichts finden“, sagt Idris. Darauf seien Fotos seiner drei Kinder in Deutschland. Der älteste studiert, der jüngste ist gerade zwölf Jahre alt. Von der Mutter der beiden jüngeren lebt er schon seit Jahren getrennt. „In Eritrea kenne ich niemanden, habe da niemanden.“

Die Abschiebeanordnung im Herbst 2025 kommt trotzdem. „Was ist das für eine Verarscherei?“

Zugriff aus der Haft

Nordrhein-Westfalen wird seit 2022 von einer schwarz-grünen Koalition regiert. Ministerpräsident Hendrik Wüst (CDU) setzt auf eine harte Abschiebepolitik. Seit dem Anschlag von Solingen wurde die Linie noch weiter verschärft. Straftäter*innen sollen noch konsequenter abgeschoben werden. Nur wohin, wenn es keinen Zielstaat gibt? Für die Politik ist Idris ein Problem ohne Lösung.

Liegt es daran, dass die Ausländerbehörden im Land derzeit besonders viele Handys einziehen? Allein in Köln hat das Ausländeramt im vergangenen Jahr mehr als 130 Datenträger eingezogen und durchsuchen lassen, teilt ein Sprecher der Stadt mit.

„Sobald andere Maßnahmen zur Identitätsfeststellung ausgeschöpft oder nicht erfolgversprechend sind, wird der Person bei ihrer Vorsprache angeboten, den Datenträger freiwillig zur Durchsicht vorzulegen“, schreibt er. Weigert sie sich, darf sie auch durchsucht werden.

Bei Ausreisepflichtigen, die wie Idris in Haft sitzen, werde jeweils die zuständige Justizvollzugsanstalt angefragt. Seien dort Handys oder andere Datenträger in der Verwahrung, würden diese eingezogen.

Eigentlich hätte Idris über den Einzug seines Handys informiert werden müssen, die Ausländerbehörde stellt dafür eine Bescheinigung aus. Diese gehe in solchen Fällen an das Gefängnis, schreibt der Sprecher, mit der Bitte, den Gefangenen zu informieren. Ob das jedoch im Einzelfall geschieht, das „entzieht sich des Einflussbereichs der Ausländerbehörde“.

Öffentliche Zahlen, geheime Werkzeuge

Um Smartphones wie das von Idris durchsuchen zu können, hat NRW einigen Aufwand betrieben. Die meisten Geräte sind heute mit Zugangscodes oder per Gesichtserkennung gesichert, nicht alle Betroffenen geben die Daten heraus, auch wenn das Aufenthaltsgesetz das vorschreibt. Die Behörde braucht dann ein Werkzeug, mit dem sie die Sicherungen überwinden und sich Zugang verschaffen kann.

Die „Stabsstelle Datenforensik“, die in Essen auch Idris‘ Handy durchsucht hat, arbeitet deswegen mit einer IT-forensischen Ausstattung, die die Zentrale Ausländerbehörde eigens dafür angeschafft hat. Solche Werkzeuge funktionieren wie ein Dietrich, mit dem sich die meisten Smartphones öffnen lassen, auch ohne Zugangsdaten.

Im Jahr 2024 hat die Stabsstelle auf diesem Weg die Datenträger von 114 Personen durchsucht und 93 Auswertungsberichte erstellt. Nur in zwei Prozent der Fälle scheiterten die Durchsuchungen. Das schreibt die Stadt Essen in ihrem Jahresbericht zur Arbeit der Zentralen Ausländerbehörde. Im Jahr darauf waren es bereits 254 durchsuchte Datenträger und 176 Berichte, teilt das zuständige Fluchtministerium auf Anfrage von netzpolitik.org mit.

Eine weitere solche Stelle arbeitet in der Zentralen Ausländerbehörde Bielefeld. Zusammengenommen hätten beide Stellen im Jahr 2024 205 Datenträger durchsucht. Im Jahr darauf waren es 402.

Bis zur Ausreise verwahrt

Die Kosten dafür trägt das Land NRW. Wie viel das kostet und von welchem Hersteller die Ausstattung stammt, das hält die schwarz-grüne Landesregierung allerdings geheim. „Aus Gründen des Datenschutzes“ will das zuständige Familienministerium auf Nachfrage keine Angaben machen.

In anderen Bundesländern, die vergleichbare Software für die Durchsuchungen nach dem Aufenthaltsgesetz einsetzen, ist hingegen dokumentiert, woher die Produkte stammen: vom Unternehmen Cellebrite. Es verkauft seine IT-forensischen Produkte unter anderem an Polizeibehörden, die damit in den Handys mutmaßlicher Straftäter nach Beweisen suchen, aber auch an Geheimdienste oder das Militär. Seit einigen Jahren gehören auch Ausländerbehörden in Deutschland zum Kundenkreis. (Hier ist eine Karte, die zeigt, wo Cellebrite bereits für die Durchsuchung der Handys von Ausreisepflichtigen eingesetzt wird.)

Stellt Cellebrite auch das Produkt, mit dem die Abteilung in Essen Handys durchsucht? Dafür gibt es keinen Beleg. Im bislang aktuellsten Jahresbericht der Stadt werden jedoch die Namen von zwei weiteren Cellebrite-Produkten genannt, die 2025 eingeführt werden sollten: Sie heißen Collector und Inspector und dienen dazu, die Festplatten von Computern zu durchsuchen. Auch das sind Datenträger und sie dürfen von den Ausländerbehörden ebenfalls eingezogen werden.

Auf die Nachfrage, ob diese Werkzeuge inzwischen im Einsatz sind, antworteten die Zentrale Ausländerbehörde Essen und das Ministerium nicht.

„Strafrechtlich relevante Zufallsfunde“

Das Ministerium sieht in der Geheimhaltung offenbar auch eine Art ermittlungstaktischen Vorteil. „Konkrete Information über die verwendete Soft- und Hardware, die über Presseberichte an eine breite Öffentlichkeit gelangen, könnten den Erfolg zukünftiger digital-forensischer Maßnahmen gefährden“, schreibt es im Ablehnungsbescheid zu einer Anfrage nach dem Informationsfreiheitsgesetz.

Nur: Es handelt sich streng genommen ja um gar keine Ermittlungen. Die Betroffenen sind keiner Straftat verdächtig, die Zentrale Ausländerbehörde ist auch keine Strafverfolgungsbehörde. Sie soll lediglich nach Hinweisen auf eine Nationalität suchen.

Dass die Grenzen zwischen den Aufgaben von Ausländerbehörden und der Strafverfolgung hier zunehmend aufweichen, darauf deutet auch ein weiterer Satz aus dem Jahresbericht der Stadt Essen hin. In einem Abschnitt zu den „hervorragenden Ergebnissen“, die mit der Auswertung der Datenträger hätten erzielt werden können („In 87 Prozent der Fälle zumindest identitätsklärende Hinweise“), heißt es dort auch, „entdeckte und möglicherweise strafrechtlich relevante Zufallsfunde“ seien „an die zuständige Ausländerbehörde bzw. Strafermittlungsbehörde“ gemeldet worden.

Auf Nachfrage, wie häufig es in den vergangenen Jahren zu solchen Zufallsfunden mit entsprechender Meldung kam und auf welcher Rechtsgrundlage das geschieht, antwortet die Behörde nicht.

Eine Maßnahme ohne Ziel

Der Berliner Jurist Davy Wang koordiniert bei der Gesellschaft für Freiheitsrechte Fälle zu eingezogenen Handys von Geflüchteten. Er hält eine solche Weitergabe für rechtswidrig. Das Aufenthaltsgesetz erlaube den Zugriff auf Datenträger ausschließlich, um Identität und Staatsangehörigkeit festzustellen sowie eine Rückführung zu ermöglichen. „Eine Befugnis, dabei gefundenen Daten zu anderen Zwecken – etwa zur Strafverfolgung – an andere Behörden weiterzuleiten, enthält das Gesetz nicht. Eine solche Weitergabe ist damit unzulässig.“

Rechtswidrig sei auch das Vorgehen der Ausländerbehörde im Fall von Idris, sagt Wang. „Der Zugriff auf den gesamten Datenbestand des Handys stellt einen schwerwiegenden Eingriff in die Privatsphäre dar und darf nicht erfolgen, wenn damit der verfolgte Zweck überhaupt nicht erreicht werden kann.“

Das Aufenthaltsgesetz erlaube diesen Eingriff nur unter engen Voraussetzungen. Im Falle von Idris sei klar, dass der Zweck – das Ermöglichen einer Rückführung – nicht erreichbar sei: „Seine Rückführung scheitert an faktischen Hindernissen, die im Verantwortungsbereich der eritreischen Botschaft liegen.“ Durch das Auswerten der Handydaten könnten diese weder beseitigt noch beeinflusst werden.

„Solche Fälle zeigen, dass der Datenzugriff in der Praxis nicht als enges Ausnahmeinstrument gehandhabt wird, sondern als Routinemaßnahme“, sagt Wang, „auch dort, wo sie von vornherein nichts bewirken kann.“ Damit werde die Privatsphäre der betroffenen Personen jedoch strukturell ausgehöhlt. „Die Durchsuchung wird als Druckmittel zur Durchsetzung migrationspolitischer Ziele missbraucht.“

Clara Bünger ist fluchtpolitische Sprecherin der Linken im Bundestag. „Die Regierungen der letzten Jahre haben unter Beweis gestellt, dass sie in der Lage sind, sich immer wieder neue grenzwertige oder sogar offen rechtswidrige Maßnahmen auszudenken, die den alleinigen Zweck haben, ausreisepflichtige Personen unter Druck zu setzen und sie zur Ausreise zu drängen“, sagt sie. Das ändere aber nichts daran, dass manche Menschen nicht abgeschoben werden könnten, weil sie zum Beispiel staatenlos sind.

Auch wenn es am Ende nicht zur Abschiebung komme, hätten die Maßnahmen schwere Konsequenzen. „Häufig werden solche Grundrechtseingriffe zuerst an Geflüchteten oder anderen Gruppen mit geringer Beschwerdemacht getestet“, sagt sie. „Wenn Protest ausbleibt, werden sie später ausgeweitet.“

„Bundesgebiet unverzüglich verlassen“

Idris sitzt weiterhin in Haft, inzwischen in der JVA Aachen. Er hofft darauf, dass er vorzeitig entlassen wird und einen Entzug machen kann, in einer christlichen Einrichtung für Suchthilfe. Dort war er schon einmal, bevor er rückfällig wurde.

Für ihn gilt allerdings weiterhin die Abschiebeanordnung aus Köln: „Sollten Sie aus irgendeinem Grund vorzeitig aus der Haft entlassen werden, haben Sie das Bundesgebiet unverzüglich, spätestens jedoch 14 Tage nach einer eventuellen Haftentlassung zu verlassen“, steht darin. Dass er das ohne Papiere nicht tun kann, ist klar.

Idris hat vor dem Verwaltungsgericht Köln Klage gegen seine Abschiebeanordnung eingereicht und bittet um eine Aufenthaltserlaubnis. Nur damit kann er eine von der Krankenkasse finanzierte Therapie machen. „Nach einer erfolgreichen Drogentherapie würde die Abkehr von meinen kleinkriminellen Aktivitäten wirklich näher rücken, die mir bislang nicht gelungen ist“, schreibt er. „Genau darin setze ich meine Hoffnungen. Diesen Weg möchte ich endlich gehen. Ich bin krank. Und ich möchte meine Krankheit überwinden.“

Das Schreiben hat er selbst mit Unterstützung verfasst, einen Rechtsbeistand hat er derzeit nicht.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Outsourcing und Ausbeutung: „Es gibt keine KI ohne Datenarbeit“

Von: Ingo Dachwitz

Hinter dem Erfolg von Künstlicher Intelligenz und Sozialen Medien stecken ausgebeutete Arbeiter:innen. Bei einem Fachgespräch im Deutschen Bundestag wurde heute diskutiert, wie ihre Lage verbessert werden kann. Die Botschaft der Sachverständigen war klar: Deutschland muss mehr Verantwortung übernehmen.

Verschwommene Landschaftsszene in Abendsonne, einige Objekte sind gelb umrandet und nicht verschwommen: Ein Wasserturm, ein Funkmast, etwas unerkennbares. Daneben in kleiner Schrift passende Labels zu den Objekten mit einer in Prozent angegeben Genauigkeitswahrscheinlichkeit
Die Welt durch die Brille der Daten-Annotation CC-BY 4.0 Elise Racine / betterimagesofai.org

Im Bundestag wurde heute erstmals über die Arbeitsbedingungen von Datenarbeiter:innen hinter Künstlicher Intelligenz und Sozialen Medien diskutiert. Die Ausschüsse für Digitales und Arbeit hatten zu einem Fachgespräch zum Thema Data Labeling geladen. Die klare Botschaft der drei Sachverständigen: Wenn Deutschland auf KI setzt, dann muss es mehr Verantwortung für die Menschen im Maschinenraum der Technologie übernehmen.

Als Data Labeling oder auch Daten-Annotation bezeichnet man eine Tätigkeit, bei der Menschen zum Beispiel Bildmaterial mit Metadaten versehen, also mit Labels, die den Inhalt beschreiben. Das ist unter anderem für Machine-Learning-Systeme erforderlich, die hinter fast allem stehen, auf dem heute das Label „KI“ klebt. Die Arbeiter:innen sind selten bei den Tech-Konzernen selbst beschäftigt, sondern werden häufig unter ausbeuterischen Bedingungen bei Outsourcing-Firmen oder -Plattformen angestellt.

Seit Jahren bringen Whistleblower:innen, Aktivist:inen, Forscher:innen und Journalist:innen die unsichtbar gemachten Arbeitskräfte in die Öffentlichkeit. Auch wir auf netzpolitik.org berichten kontinuierlich darüber. Die Arbeitsbedingungen in der Branche haben sich aber kaum verbessert, weshalb Erwartungen an die Politik groß sind. Das heutige Fachgespräch, an dem sich Abgeordnete von Union, SPD, Grünen und Linkspartei beteiligten, könnte ein Anfang sein. An konkreten Ideen, wie sich die Lage der Arbeiter:innen verbessern lässt, mangelt es jedenfalls nicht.

„Sie sehen die KI, aber uns sehen Sie nicht“

Die ehemalige Datenarbeiterin Joan Kinyua war virtuell aus der kenianischen Hauptstadt Nairobi zugeschaltet. Sie habe mehr als acht Jahre in der Branche gearbeitet hat, die „Künstlicher Intelligenz dabei hilft, die Welt zu verstehen“. Für unterschiedliche Anbieter habe sie unter anderem Bilder von Straßen mit Metadaten versehen, damit selbstfahrende Autos keine Unfälle bauen. Auch mit Straßenszenen aus Berlin habe sie arbeiten müssen (lest dazu mehr in unserem kürzlich veröffentlichten Interview mit Joan).

Später habe sie auch Bilder mit Gewaltdarstellungen klassifizieren müssen, sogar solche, die Gewalt an Kindern zeigten. Gleichzeitig habe sie selbst Daten für das KI-Training erzeugen sollen, indem sie Bilder ihrer Tochter zur Verfügung stellt.

Ausgeübt habe sie die Tätigkeit meist vom eigenen Computer zuhause, über sogenannte Microwork-Plattformen – „ohne Arbeitsvertrag, Sozialversicherung oder Gesundheitsversorgung“. Oft habe sie stundenlang auf neue Aufträge warten müssen, teilweise bis zu 20 Stunden am Tag auf Stand-By. Immer wieder hätten Auftraggeber:innen ihre Ergebnisse abgelehnt. Den Input hätten sie trotzdem behalten, sie selbst sei leer ausgegangen. So habe es Tage gegeben, an denen sie in fünf Stunden nur zwei Cent verdient habe. Im Schnitt würden Datenarbeiter:innen in Kenia 250 US-Dollar im Monat verdienen, was kaum zum Überleben reiche.

Von ihrer Arbeit habe sie außerdem Panik-Attacken und Angstzustände erhalten. Wie ihr gehe es vielen in der Branche, schildert Kinyua. Als Präsidentin der kenianischen Data Labelers Association vertrete sie inzwischen die Interessen von mehr als tausend Datenarbeiter:innen. Viele von ihnen litten unter posttraumatischen Belastungsstörungen.

„Sie sehen die KI, aber uns sehen Sie nicht“, so beschrieb Joan Kinyua den Abgeordneten ihre Lage. Es sei auch in der Verantwortung des Deutschen Bundestages, das zu ändern und für bessere Bedingungen zu sorgen. Unter anderem schlug die Kenianerin Mindeststandards für Datenarbeiter:innen in Deutschland und weltweit vor. Dazu zählt auch eine Obergrenze für die Arbeit an belastenden Inhalten. Zudem brauche es unabhängige Audits der Anbieter, sowie Register für KI-Arbeiter:innen und ganz grundsätzlich mehr Transparenz über Outsourcing und Lieferketten von Tech-Konzernen.

Milliarden-Profite dank Prekarisierung

Dr. Milagros Miceli von der TU Berlin berichtete von ihren Erkenntnissen aus fast einem Jahrzehnt Forschung zu Datenarbeit. Die von Joan Kinyua geschilderten Arbeitsbedingungen seien „kein Einzelfall, sondern ein konstantes Muster“. Oder genauer gesagt: das Geschäftsmodell einer milliardenschweren Branche.

Der von ihr geprägte Begriff der Datenarbeit umfasse mehr als das Labeling von Daten im engeren Sinne: Auch das Generieren und Sammeln von Daten zähle dazu, in zunehmendem Maße außerdem die Validierung des algorithmischen Outputs und das Korrigieren von Fehlern. Zudem müssten Arbeiter:innen immer wieder so tun, als seien sie eine KI.

Miceli ist eine der Initiator:innen des „Data Workers Inquiry“, in dem Datenarbeiter:innen von ihrer Wirklichkeit berichten. Kürzlich hat das Projekt die Geschichte einer Person veröffentlicht, die sich als AI Girlfriend ausgeben musste, also als Chatbot, der eine Liebesbeziehung mit seinen Nutzer:innen simuliert.

Die unterschiedlichen Formen der Datenarbeit seien essenzieller Bestandteil von KI-Produkten, einer Studie zufolge würde sie 80 Prozent der Entwicklungsarbeit von Künstlicher Intelligenz ausmachen. Miceli ist in ihrer Botschaft deshalb klar: „Ohne Datenarbeit und ohne Menschen wie Joan Kinyua gibt es keine KI“. Tech-Konzerne würden Milliarden damit verdienen „dass sie Arbeiter:innen durch Outsourcing und Plattformisierung prekarisieren und austauschbar machen“. Wenn Deutschland KI fördern wolle, müsse deshalb unbedingt für bessere Arbeitsbedingungen sorgen.

Viele der Arbeiter:inen seien hochqualifiziert, hätten Bachelor-Abschlüsse oder sogar promoviert, berichtet die Forscherin. Dabei sei wichtig, dass die Tätigkeit nicht auf Länder wie Kenia beschränkt ist, sondern auch in Deutschland und Europa viele Menschen in der Branche tätig seien. Wie viele genau, das könne man aufgrund der Intransparenz der Unternehmen nicht sagen.

Probleme bei Gesundheits- und Datenschutz

Bekannt ist, dass mehrere Tech-Konzerne und Outsourcing-Unternehmen in Deutschland große Zentren für die Moderation von Inhalten auf Social-Media-Plattformen unterhalten. Eine Tätigkeit, die die Sachverständigen ebenfalls zum Feld der Datenarbeit zählt und die bereits vor drei Jahren bei einem Fachgespräch im Bundestag Thema war. Julia Kloiber vom Superrr Lab war damals bereits dabei und wies heute erneut darauf hin, dass dabei oft Menschen in vulnerablen Lebenssituationen ausgenutzt würden.

Kloiber empfahl unter anderem besseren Schutz für Menschen, die mit schädlichen Inhalten arbeiten müssen. Bei der Polizei etwa, wo ebenfalls Menschen mit Darstellungen von Kindesmissbrauch arbeiten müssten, gebe es klare Expositionsbegrenzungen. Auch für Datenarbeiter:innen brauche es eine Obergrenze, die die Arbeit mit belastendem Material festlegt. Außerdem brauche es Trauma-Prävention und Zugang zu professioneller psychologischer Unterstützung.

Der fehlende Schutz habe nicht nur schwerwiegende Folgen für die Betroffenen, sondern auch für das Gesundheitssystem, schließlich könnten Menschen ein ganz Leben lang unter posttraumatischen Belastungsstörungen leiden. Manchmal könnten sie deshalb nicht mehr arbeiten. Die dadurch entstehenden Kosten würden von den Tech-Konzernen externalisiert und von der Allgemeinheit aufgefangen.

Kloiber wies zudem auf Datenschutzprobleme beim Outsourcing hin: Nicht nur würden die Datenarbeiter:innen selbst stark überwacht, bei ihnen landeten auch große Mengen personenbezogener Daten und sensibler Inhalte. Erst kürzlich hatten Datenarbeiter:innen als Whistleblower:innen darüber berichtet, dass sie Aufnahmen aus Meta-Brillen bearbeiten müssten und dabei auch Nacktaufnahmen und andere intime Szenen von Nutzer:innen zu Gesicht bekämen.

„Unsere digitale Zukunft darf nicht auf Ausbeutung fußen“

Deutlich wurde bei dem Fachgespräch, dass auch deutsche Firmen davon profitieren, dass sie prekäre Arbeit an Menschen wie Joan Kinyua auslagern. Auch die Auto-Industrie, die Pharma-Branche oder Tech-Unternehmen wie Siemens gehörten zu den Kunden von Outsourcing-Unternehmen im Datenbereich, berichtete etwa Milagros Miceli.

Für Julia Kloiber ist klar, dass Deutschland deshalb auch Verantwortung übernehmen müsse. Eine Untersuchung des Fairwork-Projekt der Universität Oxford und Wissenschaftszentrums Berlin habe die Löhne von vier Outsourcing-Unternehmen untersucht. Nur zwei von ihnen hätten Mindestlohn gezahlt, keines den sogenannten Existenzlohn („Living Wage“), der nicht nur das bloße physische Überleben, sondern auch soziale und kulturelle Teilhabe ermöglicht.

Einen wichtigen Ansatzpunkt sieht die Geschäftsführerin des Superrr Lab deshalb in der Regulierung von Lieferketten. Hier drohe der hohe Standard des erst kürzlich eingeführten und dann schon wieder halb gecancelten deutschen Lieferkettengesetzes abgesenkt zu werden. Die Schwarz-Rote Koalition hatte sich darauf geeinigt, nicht über die – ebenfalls gerade ausgehöhlte – EU-Lieferkettenrichtlinie hinauszugehen.

Bei der Umsetzung der Richtlinie müsse Deutschland sicherzustellen, dass der Geltungsbereich nicht eingeschränkt werde. Die EU-Regeln sollen nur Unternehmen ab 5000 Beschäftigten und einem Umsatz von 1,5 Milliarden Euro gelten. In Deutschland würden dann 95 Prozent der Unternehmen von den Sorgfaltspflichten für ihre Lieferketten entbunden, so Kloiber.

Die Expertin brachte zudem ein Direktanstellungsgebot ins Spiel, wie es erst kürzlich gefeuerte und streikende TikTok-Angestellte in Deutschland gefordert hatten. Ganz grundsätzlich fordert Kloiber eine realistischere Kosten-Nutzen-Rechnung, wenn in Deutschland KI ausgebaut und etwa in der Verwaltung eingesetzt wird. Soziale und auch ökologische Kosten dürften nicht länger ausgeblendet werden: „Unsere digitale Zukunft darf nicht auf Ausbeutung fußen.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Europarechts- und verfassungswidrig: Schwarz-Rot soll Pläne für biometrische Internetfahndung zurückziehen

Von: Markus Reuter

Die Pläne, im Internet mit Biometrie nach jedweder Person zu suchen, verstoßen laut AlgorithmWatch gegen Europarecht und die Verfassung. Sie seien so unverhältnismäßig, dass man sie nicht verbessern, sondern nur zurückziehen könne.

Große Kamera aus Pappe schaut auf Menschen auf einer Rolltreppe.
Die schwarz-roten Gesetzespläne kommen einer Totalüberwachung des digitalen öffentlichen Raumes gleich. (Symbolbild) CC-BY 4.0 Stefanie Loos

Die Pläne der Bundesregierung, die digitalen Ermittlungsbefugnisse von Sicherheitsbehörden auszuweiten, sind nach Meinung der Organisation AlgorithmWatch europarechtswidrig und stehen im Konflikt mit verfassungsrechtlichen Mindestanforderungen und datenschutzrechtlichen Grundsätzen.

Dabei kommt AlgorithmWatch – wie auch schon zuvor die Gesellschaft für Freiheitsrechte (GFF) – zu dem Schluss, dass man dieses Gesetz nicht mit ein paar Änderungen verbessern könnte. Die verfassungs- und menschenrechtliche Unverhältnismäßigkeit lasse „ausschließlich die Empfehlung zu, die Gesetzentwürfe zurückzuziehen und ein grundsätzliches gesetzliches Verbot des Einsatzes biometrischer Massenerkennungssysteme für öffentliche und private Stellen einzuführen“, so die Zusammenfassung der Stellungnahme zum Gesetz (PDF).

„Flächendeckende Verfolgung aller Menschen im digitalen Raum“

Die schwarz-rote Koalition plant in ihrem „Sicherheitspaket“ einerseits eine biometrische Massenfahndung im Internet zu erlauben sowie andererseits die Zusammenführung und Auswertung polizeilicher Daten mittels automatisierter Datenbankanalyse. Die Stellungnahme der Nichtregierungsorganisation fokussiert sich auf die biometrische Fahndung.

Diese biometrische Internetfahndung sieht die NGO sehr kritisch:

Der biometrische Abgleich ermöglicht die Identifizierung von Personen im öffentlichen Raum und im Internet auf Basis biometrischer Merkmale und schafft somit die technischen Voraussetzungen für eine flächendeckende Verfolgung aller Menschen im (digitalen) öffentlichen Raum.

Laut AlgorithmWatch berührt die Überwachungsmaßnahme zwangsläufig die Grundrechte aller Menschen, sie sei weder erforderlich noch verhältnismäßig. Betroffen seien dabei insbesondere die Grundrechte auf informationelle Selbstbestimmung und freie Meinungsäußerung.

Rückschlüsse auf politische Einstellungen

Die NGO kritisiert, dass die Maßnahme heimlich erfolgt und eine extrem hohe Streubreite hat: Es seien einfach alle Menschen betroffen, deren Gesichtsbilder im Internet zu finden sind. Das ist heute ein großer Teil der Bevölkerung. Zudem gebe es erhebliche Diskriminierungsrisiken, wenn sensible Daten erfasst und verarbeitet werden, wie Aufnahmen von Demonstrationen, Parteiveranstaltungen, Pride-Events, Gewerkschaftskundgebungen oder Gottesdiensten. Solche Aufnahmen lassen Rückschlüsse zu auf politische Haltungen, Parteizugehörigkeit, sexuelle oder religiöse Einstellungen.

Darüber hinaus könnten durch die biometrische Internetfahndung auch Bilder aus dem Kernbereich privater Lebensführung ausgewertet werden wie etwa Kindergeburtstage oder private Familienfeiern. Dieser Kernbereich ist verfassungsrechtlich besonders geschützt. Die öffentliche Verfügbarkeit der Daten, die für einen Abgleich herangezogen werden, ändere nichts daran, dass Schutzbereiche der Grundrechte berührt sind.

In der Stellungnahme verweist AlgorithmWatch darauf, dass das Bundesverfassungsgericht bei Kfz-Kennzeichen, die deutlich weniger sensibel als biometrische Merkmale seien, hohe verfassungsrechtliche Anforderungen aufgestellt habe.

Auch seien die Anforderungen für die geplante massenhafte Verarbeitung biometrischer Daten zu unspezifisch sowie die Einsatzzwecke und Tatbestandsmerkmale zu breit und nicht gewichtig genug, als dass eine grundrechtskonforme Anwendung realistisch erscheine. Hier verweist die Organisation auf den Straftatenkatalog des § 100a Abs. 2 StPO , der regelmäßig erweitert und angepasst werde und sich deshalb nicht zur klaren Begrenzung der Maßnahmen auf schwerwiegende Straftaten eigne. Diese Kritik hatte auch die GFF geäußert.

Technische Ausgestaltung unklar

Der Gesetzentwurf lege außerdem „völlig unzureichend“ dar, wie die Überwachungsmaßnahme technisch vonstattengehen soll. Einerseits sollen die die im Rahmen des biometrischen Abgleichs erhobenen und verarbeiteten Daten nach dessen Durchführung „unverzüglich” gelöscht werden, auf der anderen Seite bleibe der Gesetzentwurf schuldig, wie die Sache technisch funktionieren soll.

Klar ist: Für einen biometrischen Abgleich braucht es eine Datenbank, die mit einem gesuchten Bild verglichen werden muss. Bisherige Systeme von privaten Firmen zur Gesichtssuche im Internet wie beispielsweise PimEyes funktionieren so, dass sie meist illegal alle möglichen Gesichtsbilder aus dem Internet sammeln, auswerten und die biometrischen Merkmale sowie die Fundstellen und Metadaten und Zusatzinformationen dieser Bilder in einer Datenbank hinterlegen. Suche ich nun nach einem Gesicht, werden die biometrischen Merkmale dieses Gesichts mit den in der Datenbank hinterlegten Daten abgeglichen – und die jeweiligen Ergebnisse ausgespuckt.

Bundesregierung will biometrische Fotofahndung im Netz

Ein durch AlgorithmWatch beauftragtes Gutachten hat festgestellt, dass ein biometrischer Abgleich zwischen Bildern gesuchter Personen und im Internet verfügbaren Fotos ohne Verwendung einer Datenbank nicht sinnvoll umsetzbar ist. Für die NGO ist damit klar, dass das Vorhaben verboten ist, weil die KI-Verordnung der EU eine mittels Künstlicher Intelligenz erstellte Gesichterdatenbank verbieten würde.

Ein Gutachten der Wissenschaftlichen Dienste des Deutschen Bundestages kommt allerdings zu einem leicht anderen Schluss. Demnach verbiete die KI-Verordnung nicht den Aufbau einer Datenbank, sondern nur das „ungezielte Auslesen von Gesichtsbildern mittels KI […], da es die Privatsphäre und den Datenschutz der Betroffenen erheblich beeinträchtigt und das Gefühl ständiger Überwachung erzeugt“.

Das in der KI-Verordnung festgelegte Verbot gelte demnach nur dann, wenn die Strafverfolgungsbehörden die Datenbanken mit Hilfe von KI-Systemen erstellen. Werden dafür keine solchen Systeme verwendet, greife die Verordnung nicht. Genau dieses Schlupfloch könnte die Bundesregierung nutzen wollen, sie lässt aber offen, wie das technisch funktionieren soll.

Auslagerung an Private als Schlupfloch?

AlgorithmWatch kritisiert, dass der Gesetzentwurf eine Art Auslagerungsbefugnis enthalte, für den Fall, dass Polizei- und Strafverfolgungsbehörden den Abgleich technisch nicht selbst durchführen können. Sie erlaubt ausdrücklich eine Übermittlung von Daten zum Zweck eines biometrischen Abgleichs an öffentliche Stellen und private Anbieter sowohl im Inland als auch im Ausland sowie innerhalb wie außerhalb der Europäischen Union.

Auch das könnte ein Schlupfloch sein. Die NGO sagt dazu: „Eine Erlaubnis für solch eine Auslagerung des biometrischen Abgleichs ins (Nicht-EU-)Ausland führt sämtliche durch die Gesetzestexte eingeführten Beschränkungen ad absurdum.“ Damit würde  der in den Gesetzentwürfen beschriebene Vorgang des Löschens aller verarbeiteten Daten nach jeder einzelnen Suchanfrage zur theoretischen Fassade, heißt es in der Stellungnahme. „Aus diesem Grund, so die Vermutung, wird auf die Übermittlung von Daten an Dritte verwiesen, welche den Abgleich im Auftrag deutscher Behörden durchführen würden. Ins Spiel kommen könnten dann solche Anbieter wie PimEyes oder Clearview AI.

Der Staat dürfe aber, so die Stellungnahme, selbst keine rechtswidrigen Angebote Dritter nutzen. „Ein Delegieren der Umsetzung ins Ausland stellt entsprechend keine europa- und grundrechtskonforme Lösung dar.“ Dazu komme, dass derart  schwerwiegende Grundrechtseingriffe nicht an private Unternehmen oder öffentliche Stellen in Drittstaaten ausgelagert werden dürften.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Studie der Medienanstalten: Debattenkultur im Netz erodiert

Von: Denis Glismann

Die Bereitschaft, sich an Debatten in Sozialen Medien und in Online-Kommentarbereichen zu beteiligen, sinkt. Ein zentraler Grund dafür ist die Diskursqualität, die zunehmend als negativ wahrgenommen wird, so das Ergebnis einer Studie der Medienanstalten.

Zwei brennende Streichhölzer brüllen sich gegenseitig an.
In Online-Debatten fliegen oft die Funken. – Alle Rechte vorbehalten IMAGO / Dreamstime

Plattformen-Nutzer:innen und Social-Media-Redakteur:innen sind sich offenbar gleichermaßen einig: Die Debattenkultur im digitalen Raum verschlechtert sich zunehmend. Zu diesem Ergebnis kommt die „Transparenz-Check“-Studie der Medienanstalten. Konstruktive Debatten seien online demnach „kaum noch möglich“ und würden zum Teil gar als unwillkommen wahrgenommen. Dennoch wünsche sich eine deutliche Mehrheit der Befragten einen konstruktiven Austausch.

Mit der als negativ wahrgenommenen Diskursqualität sinkt offenbar auch die Bereitschaft, in den Kommentarspalten mitzudiskutieren. Der häufigste Grund dafür sei die aggressive Stimmung. Dementsprechend werde der respektvolle Umgang miteinander als zentral dafür angesehen, sich mehr zu beteiligen.

Zur Meinungsfreiheit im digitalen Raum liegen bei den Befragten zwei gegensätzliche Wahrnehmungen vor. Eine Gruppe versteht darunter, ohne Sorge vor Hass und Abwertung sprechen zu können. Die andere Gruppe will dagegen grundsätzlich alles ungehindert sagen dürfen. Besonders Menschen, die der AfD zuneigten, hätten das Gefühl, in ihrer Meinungsäußerung eingeschränkt zu sein. Wähler:innen der Linken oder der Grünen gaben dagegen häufiger an, frei artikulieren zu können.

Vertrauen in Soziale Medien ist sehr gering

Der Studie nach gibt es zwischen den Plattformen große Unterschiede. Im Vergleich zu Instagram würden Facebook und Twitter/X als wesentlich problematischer wahrgenommen – insbesondere von ehemaligen Nutzenden der Plattformen. Die schlechte Diskursqualität dort sei demnach einer der Gründe, warum Nutzende den Plattformen den Rücken kehren.

Facebook sei die Plattform, die am zweithäufigsten genutzt werde. Gleichzeitig ist sie die meistgenutzte Plattform, auf der Nutzende journalistische Beiträge lesen und kommentieren. Trotz Klarnamen werde die Atmosphäre dort aber als „toxisch“ wahrgenommen.

Das Vertrauen in die Sozialen Medien fällt insgesamt sehr gering aus. Dennoch gibt etwa ein Drittel der Befragten an, in den Kommentaren unter journalistischen Beiträgen bei Facebook, Instagram und YouTube mitzulesen.

„Vertrauen und Laune sinken nach dem Lesen von Kommentaren“

Ein Viertel derer, die aktiv kommentieren, wollen zumeist nur ihre Meinung äußern; knapp ein Viertel von ihnen will andere überzeugen und etwa jede achte Person möchte lediglich ihren Ärger kundtun. „Insgesamt überwiegen die negativen Auswirkungen von Diskursen in den Sozialen Medien“, so ein Fazit der Studie. „Extreme Meinungen überwiegen, Vertrauen und Laune sinken nach dem Lesen von Kommentaren.“

Allerdings zeigten die durchgeführten Experimente, dass eine erkennbare Moderation entscheidend dafür sein kann, dass die Diskursqualität positiver wahrgenommen wird. Je strenger moderiert wird und je konstruktiver der Austausch ist, desto respektvoller und ausgewogener wird der Diskurs wahrgenommen. Allerdings sind die Ressourcen für ein konstruktives Community-Management oftmals knapp.

Bei den Befragten bleibt unterm Strich eine Grundskepsis: Sie bezweifeln, dass Online-Diskurse überhaupt funktionieren und Kommentare zu neue Perspektiven führen können. Eine Mehrheit hat laut Studie das Gefühl, dass Online-Diskussionen spalten.

Desinformation und Bots

Die Anforderungen an das Community-Management sind in den vergangenen Jahren gewachsen. Verantwortlich dafür sind die steigende Zahl an Kommentaren und der zunehmend raue Tonfall. Zudem nehme der Anteil an Desinformation und Fake News zu.

Auch die Bedeutung von Bots hat die Studie unter die Lupe genommen. Insgesamt wurden vier Prozent der Kommentare als „wahrscheinliche Bot-Kommentare“ klassifiziert. Bei kontroversen Themen seien deutlich höhere Werte zu verzeichnen.

Eine Mehrheit der Befragten ist der Ansicht, aufgrund der Bot-Aktivität könnten sie sich im Netz inzwischen kaum noch mit echten Menschen austauschen.

Eine noch größere Rolle als die Bots spielen Trolle, Fake-Accounts und koordinierte Kommentar-Ströme. Diese würden laut den befragten Moderator:innen dazu genutzt, um den Verlauf von Diskussionen in Kommentarspalten gezielt zu beeinflussen.

Vorgehen der Studie

Der „Transparenz-Check“ der Medienanstalten ist dreistufig aufgebaut: Inhaltsanalyse, qualitative Tiefeninterviews und quantitative repräsentative Befragung.

Die Inhaltsanalyse zur Ermittlung der Rolle von Bots beruht auf Tausenden von Kommentaren unter insgesamt 39 Beiträgen von Bild, Der Spiegel, Süddeutsche Zeitung, Die Zeit sowie auf den Plattformen Facebook, Instagram und YouTube.

Elf Tiefeninterviews haben die Forschenden mit Personen aus Social-Media-Redaktionen, aus dem Community-Management sowie mit weiteren Expert:innen durchgeführt. Die quantitative repräsentative Befragung fand mit mehr als 3000 Internetnutzenden statt.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Hype um Prediction Markets: Wetten, dass Jesus vor 2027 zurückkehren wird

Von: Denis Glismann

Prediction Markets sind in vielen Ländern illegal. Das Wetten auf zukünftige politische und gesellschaftliche Ereignisse wird aber immer populärer. Dabei sind die Wetten manipulationsanfällig und ethisch teilweise höchst fragwürdig.

Eine Jesus-Figur rollt mit den Augen.
Ob er darüber mit den Augen rollen würde? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Jose Manuel Esp

„Die langfristige Vision ist, alles zu finanzialisieren und aus jeder Meinungsverschiedenheit ein Handelsgut zu machen“, sagt Tarek Mansour, Mitbegründer und Geschäftsführer von Kalshi. Plattformen wie Polymarket und Kalshi ermöglichen potenziell das Wetten auf jedes zukünftige Ereignis.

Laut Schätzungen von Similarweb verzeichnete Polymarket im März 2026 etwa 45,3 Millionen Besuche. Die zunehmende Popularität gilt mitunter den Ereigniswetten, also dem Wetten auf den Eintritt oder eben das Ausbleiben jener Ereignisse.

Die Nutzer:innen entscheiden selbst, auf welche Ereignisse sie wetten möchten. „Wird Jesus Christus vor 2027 zurückkehren?“ – die Chance steht laut Polymarket bei vier Prozent.

„Dystopischer Todesmarkt“

In letzter Zeit häufen sich jedoch Berichte über weniger harmlose Wettangebote. Ereigniswetten betreffen beispielsweise auch den Beginn und das Ende von Kriegen – oder sogar den detaillierten Verlauf und konkrete Menschenleben.

„Ekelhaft“ nennt dies Seth Moulton, US-Kongressabgeordneter der Demokratischen Partei: Nachdem Iran ein US-Kampfflugzeug abgeschossen hatte und die Suche nach dem zweiten Piloten anhielt, hatten Nutzer:innen von Polymarket Wetten auf den genauen Tag seiner Bergung abgeschlossen. Polymarket hat das Wettangebot wenig später aufgrund von „Integritätsstandards“ zwar deaktiviert, doch Moulton konterte, es seien auf der Plattform weiterhin Hunderte solcher „Kriegswetten“ aktiv und Polymarket sei ein „dystopischer Todesmarkt“.

Das Wetten auf Raketeneinschläge ist ein Routine-Angebot auf Polymarket. Mitunter geht es um hohe Beträge. Die Wettenden gewinnen oder verlieren, wenn eine Rakete nicht abgefangen wird oder eben trifft. Das ist die definitorische Voraussetzung in der Rubrik „Militärschläge“: Es muss ein Treffer sein. Als Basis der Überprüfung dient, was in der Presse steht.

Emanuel Fabian, Journalist der Times of Israel, erfuhr dies auf unangenehme Weise. Er hatte im Laufe des 10. März 2026 ein „relativ unwichtiges Update“ zu einem bestätigten Raketentreffer veröffentlicht, sagt er dem Guardian. Kurz darauf erhielt er etliche Drohungen: „Dir bleiben noch 90 Minuten die Lüge zu korrigieren.“ Eine andere Person drohte laut dem Bericht: „Nachdem du uns 900.000 Dollar Verlust beschert hast, werden wir mindestens denselben Betrag investieren, um dich fertigzumachen.“

Die Spur der Drohungen führt auf Polymarket: Die Wetteinsätze für Raketeneinschläge, über die Fabian berichtete, beliefen sich am 10. März auf rund 23 Millionen US-Dollar. Drohungen dieser Art lassen laut Fabian die Prognose zu, dass Journalist:innen bald häufiger unter dem Druck stehen könnten, ihre Berichterstattung an das gewünschte Ergebnis von Wetten anzupassen. Denkbar ist, dass eine Beteiligung an Wetten eine falsche oder verzerrende Berichterstattung befördern könnte.

Manipulation und Insiderhandel schwer verhinderbar

„Gesellschaftswetten“ haben analog zum klassischen Finanzmarkt aber nicht nur das Problem ethischer Grundsätze, sondern auch von Insiderhandel. Darunter versteht man, dass Menschen mit Vor- oder Insiderwissen dieses am Markt gezielt ausnutzen, um Gewinne zu machen.

Am Tag vor den ersten Angriffen der USA und Israels auf den Iran platzieren mehr als 150 Polymarket-Accounts hohe Wetten, mit denen sie den Angriff noch wenige Stunden vorher richtig „vorhersagen“. Ein besonders auffälliger Account konnte über den Verlauf mehrerer Wetten 93 Prozent der unangekündigten US-Militärschläge korrekt prognostizieren. Kurz vor Beginn des Waffenstillstandes zwischen den USA und Iran wiederholte sich das Muster: Mindestens 50 neu erstellte Polymarket-Accounts wetteten mit hohen Einsätzen, nur wenige Stunden davor. Ein ähnlicher Vorgang hatte sich bereits im Januar kurz vor der US-Militäraktion in Venezuela zugetragen. Ein Account „antizipierte“ die Gefangennahme Maduros und konnte damit innerhalb weniger Stunden mehr als 400.000 US-Dollar Gewinn einfahren.

In einem anders gelagerten Fall hat ein Account eine Million US-Dollar durch das Wetten auf Googles „Year in Search 2025“ gewonnen. Die Erfolgsrate dabei: 22 von 23 Malen richtig „geraten“. Auf die Wallet dieses Accounts wurden vorher drei Millionen US-Dollar eingezahlt und sofort hohe Wettsummen platziert. Auch Googles Freigabedatum von Gemini 3.0 Flash hatte derselbe Account zuvor richtig prognostiziert.

Wer diese mutmaßlichen Insider:innen sind, ist nur schwer nachverfolgbar. Alle Polymarket-Accounts können anonym betrieben werden. Zudem laufen sämtliche Trades über die Plattform-eigene Kryptowährung. Geldflüsse lassen sich auf diese Weise offenbar leicht verschleiern. Dennoch sah sich die Trump-Regierung dazu genötigt, eigene Mitarbeiter:innen vor Insider Trading zu warnen, berichtet das Wall Street Journal.

llustration der Polymarket Webseite und Logo.
Polymarket – Der größte Prediction Market operiert mit seinem umstrittenen Wettangebot „offshore“. - Alle Rechte vorbehalten IMAGO / Charpaud Christopher / ABACA

Wir haben sowohl Polymarket als auch Kalshi Presseanfragen geschickt, auf die beide Unternehmen allerdings nicht reagiert haben.

In Deutschland verboten, in den USA Graubereich

In Deutschland sind sogenannte Gesellschaftswetten prinzipiell verboten, die Gemeinsame Glückspielbehörde der Länder (GGL) warnt vor der Teilnahme. In einer Mitteilung der Behörde heißt es:

Aufgrund der hohen Manipulationsgefahr sind solche Wetten laut § 3 Abs. 1 Satz 4 in Verbindung mit § 4 Abs. 5 des Glücksspielstaatsvertrags 2021 (GlüStV 2021) nicht genehmigungsfähig.

Wer bei Polymarket oder anderen Plattformen wettet, macht sich somit strafbar. Polymarket bietet ein deutsches User-Interface an, mit einer deutschen IP-Adresse lassen sich dort keine Wetten platzieren. Solches Geoblocking lässt sich allerdings technisch recht einfach umgehen.

In den USA ist die Rechtslage unübersichtlich. Die US-Aufsichtsbehörde „Commodity Futures Trading Commission“ (CFTC) untersagt im Prinzip das Wetten in Bezug auf Krieg, Terror und Attentate. Die US-basierte Plattform Kalshi hält sich daran, bei Polymarket zeigt sich jedoch ein anderes Bild. Die Wetten auf Kriegsereignisse laufen dort nicht über das US-Geschäft, sondern über die internationale Sparte des Anbieters. Sogenanntes „Offshore Trading“ macht es möglich.

Indes haben US-Kongressabgeordnete, darunter Chris Murphy (Demokratische Partei), neue Gesetzesvorschläge eingebracht. Das Wetten auf Regierungshandeln, Krieg, Terror und ähnliche Ereignisse soll demnach auf gesetzlicher Ebene verboten werden. Auch Ereignisse, die sich von Einzelnen leicht manipulieren lassen, sollen darunter fallen – beispielsweise, ob Trump im April das Wort „RINO“ verwenden wird.

Prinzipiell soll das gesetzliche Verbot von Insider Trading auf die Prediction Markets ausgeweitet werden. Eine Abgeordnetengruppe forderte die CFTC zudem dazu auf, bis zum 15. April eine Reihe von Fragen zu ihrer Aufsichtsrolle zu beantworten. Darunter auch, warum die Behörde nicht gegen kriegsbezogene Wetten vorgeht und ob es Interessenkonflikte zwischen Finanzmarkt-Akteuren und hochrangigen Regierungsmitgliedern gibt.

Aktuell ist jedoch mit wenig Gegenwind von US-Behörden zu rechnen. Während die Biden-Administration gerichtlich gegen Prediction Markets vorging, hat die Trump-Regierung die Untersuchungen gegen Polymarket einstellen lassen. Michael Selig, Vorsitzender der CFTC, sagte gar, unter seiner Leitung sei es den Predictions Markets möglich, in den USA „aufzublühen“.

Familie Trump will mitmischen

Indes hat die Familie Trump Pläne für eine eigene Prognoseplattform: „Truth Predict“. Donald Trump Jr. ist zudem nicht nur als Berater für Polymarket und Kalshi tätig, sondern hat mit seiner Investmentfirma 1789 Capital auch direkt in Polymarket investiert.

Da die neuen Online-Plattformen auch im Sportwettengeschäft regulärer Wettanbieter mitmischen und wenig reguliert sind, seien klassische Sportwettenanbieter laut CNN besorgt. Eine anonym bleibende Person aus der Branche sagte demnach, die Beteiligung der Familie Trump an Prognosemärkten sei ein „entscheidender Faktor in dieser politischen Angelegenheit“.

Abgeordnete der Republikanischen Partei zögerten offenbar, sich in Washington in einen Streit einzumischen, der dem Geschäft der Familie Trump schaden könnte.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Widerstand gegen Big Tech: „KI wollen wir in unserer befreiten Welt nicht haben“

Von: Timur Vorkul

KI sei verfänglich für faschistische Ideologien und gehe mit autoritären Machtzentren einher. Große Plattformen wie ImmobilienScout24 und Doctolib machen Profit mit Grundbedürfnissen der Menschen. Zwei Aktivist*innen schlagen im Interview konkrete Schritte hin zu einer demokratischen digitalen Teilhabe vor.

Deutsche Politiker*innen stechen mit Spaten symbolisch in einen Sandhaufen.
Milliardär und Gründer von Lidl und Kaufland Dieter Schwarz lässt in Heilbronn einen „Innovationspark für Künstliche Intelligenz“ bauen. (Archivbild) – Alle Rechte vorbehalten IMAGO / Arnulf Hettrich

Künstliche Intelligenz ist in aller Munde. Ihr wird nachgesagt, nicht nur Arbeitsprozesse zu vereinfachen und zu beschleunigen. Sie soll auch der Wirtschaft zu neuem Aufschwung verhelfen. Doch immer mehr kritische Stimmen greifen in die Debatte ein und beziehen eine klare Haltung gegen diese Technologie. Zwei von ihnen sind die Digitalexpert*innen Aline Blankertz und Malte Engeler.

Anlässlich der Konferenz „Cables of Resistance. Bewegungskonferenz gegen Big Tech“, die am Wochenende in Berlin stattfindet und mögliche Widerstandsstrategien gegen KI und große Plattformen ausloten möchte, haben wir mit ihnen gesprochen. Aline Blankertz ist angewandte Ökonomin und setzt sich für die demokratische Ausgestaltung von Wirtschaft ein, unter anderem im digitalpolitischen Kollektiv „Structural Integrity“. Sie ist an der Organisation der Konferenz beteiligt. Malte Engeler ist Jurist und Mitbegründer des digitalpolitischen Kollektivs.

Im Interview erklären sie, warum sogenannte KI besonders gut verfänglich für autoritäre Politiken ist, wie ihre Sabotage aussehen kann und wie die Gesellschaft wieder mehr demokratische Kontrolle über große Plattformen erreichen kann. Sie plädieren für eine politische Organisierung und die Vergesellschaftung von Plattformen, die solch essenzielle Bereiche der Daseinsvorsorge wie Wohnungssuche oder Arztterminbuchungen strukturieren.

„Künstliche Gebärmutter“ und KI haben den gleichen ideologischen Ursprung

netzpolitik.org: Was ist eigentlich eine „künstliche Gebärmutter“? Im Manifest der Konferenz ist die Rede davon.

Aline Blankertz: Die künstliche Gebärmutter ist eine Figur, die immer mal wieder rund um Elon Musk auftaucht. Dieser Idee des selektiven Pronatalismus liegt zugrunde, dass man stärker steuern möchte, wer Kinder bekommen darf. Die künstliche Gebärmutter ist das Mittel, um sich letztlich vom „weiblichen Körper“ lösen zu können. Es geht darum, aus einer weißen cis-männlichen Perspektive technisch steuern zu können, wohin es mit der Menschheit geht. Mein Verständnis ist, dass es diese künstliche Gebärmütter noch nicht technisch ausgereift gibt. Aber es laufen Forschungsprojekte, die das aktiv vorantreiben. Daneben existieren viele andere transhumanistische Projekte, wie zum Beispiel „Neuralink“, um menschliche Gehirne und Maschinen stärker miteinander zu verbinden.

In Europa ist es subtiler, aber viele dieser Entwicklungen hin zu solchen transhumanistischen Ideen ‒ also wie können Menschen mit technischen Upgrades besser gemacht werden ‒ sehen wir auch hier. Die künstliche Gebärmutter und die Brain-Computer-Interfaces unterscheiden sich zwar von KI, weil sie unmittelbarer auf die Ebene von Hardware und menschlichen Körpern setzen. Doch auch der KI-Diskurs hat den gleichen ideologischen Ursprung und wird technisch von denselben Menschen vorangetrieben.

„Diese Infrastrukturen kann niemand bei sich im Keller haben“

netzpolitik.org: Ist das der Grund warum ihr KI fundamental ablehnt? Und was versteht ihr unter KI genau?

Malte Engeler: Wenn wir von KI reden, dann meinen wir die in der Gesellschaft aktuell sehr präsente Form von KI: große Datenmodelle, die aus vorhandenen Datenquellen zukünftige oder neue Ergebnisse berechnen. Wir meinen maschinelles Lernen, das Menschen dazu nutzen, um neue Texte, Bilder, Videos oder Ton zu erstellen. Die Modelle werden auch in sozialen Situationen eingesetzt, um neue Entscheidungspunkte zu generieren. Zum Beispiel in militärischen Aktionen, in Verwaltungsentscheidungen oder zur Benotung im Bildungswesen. Es geht also um eine Technologie, die auf Basis einer immensen Datenmenge Muster erlernt und neue Ergebnisse mit diesen Mustern produziert. Wir reden hier von ganz großen Modellen.

Dieser Technologie ist inhärent, dass sie besonders für autoritäre und faschistische Kräfte anknüpfbar ist. Das ist also kein technischer Fehler, sondern die Technologie ist schlicht und einfach so gebaut. Dazu gehört, dass diese gigantischen Modelle eine große Zentralisierung mit sich bringen. Die Infrastrukturen, die zum Training und Erhalt der Modelle nötig sind, kann niemand bei sich im Keller haben. Diese riesigen Rechenzentren können eigentlich nur zentralisiert betrieben werden. Politisch anknüpfbar für faschistische Politiken sind diese Infrastrukturen deshalb, weil sie autoritäre Machtzentren stark bevorzugen.

Zum anderen ist da diese Mustererkennung, die immer auf Daten aus der Vergangenheit trainiert wird. Sie überträgt deshalb notwendigerweise diese Vergangenheit in die Zukunft und vereinheitlicht diese Zukunft statistisch auf einen weiß-patriarchal geprägten Mittelwert. Laut diversen Theorien steckt im Kern des Faschismus die Idee, dass es eine Wahrheit, eine tiefes völkisches, echtes Leben in der Gesellschaft gibt, das zum Erblühen gebracht werden soll. Und diese Idee von einer Wiedergeburt der nationalen Stärke findet sich im technischen Prinzip wieder, massenhaft Daten zu sammeln und das vermeintlich Wahre aus diesen Daten wieder extrapolieren zu können.

„Wünschenswert, wenn Menschen KI nicht auch noch freiwillig nutzen“

netzpolitik.org: Ist es aus antifaschistischer Sicht ein Problem, wenn Menschen ihre Suchanfragen nicht mehr in eine klassische Suchmaschine eingeben, sondern zum Beispiel in ChatGPT?

Aline Blankertz: Wir beschäftigen uns vor allem mit der kollektiven Dimension. Es ist nicht die einzelne Suchanfrage bei ChatGPT, die uns dem Faschismus näher bringt. Es sind eben die Zwänge, die an vielen Stellen bestehen. Beispielsweise, dass viele Menschen nun Dinge schneller machen müssen und es deswegen mit KI tun. Dass sie im Wettbewerb mit anderen stehen, um bessere Betriebsergebnisse hervorzubringen.

Es ist wünschenswert, wenn Menschen KI nicht auch noch freiwillig nutzen. Wenn sie es nur unterhaltsam finden, könnten sie sich eine andere Beschäftigung suchen, die weniger klimaschädlich ist und den KI-Hype nicht weiter am Leben hält. Aber das ist nicht das, womit wir antifaschistisch wirken können, indem wir einfach keine KI mehr verwenden.

„KI-Unternehmer*innen werden hierzulande glorifiziert“

netzpolitik.org: Welchen konkreten Schaden seht ihr in Europa und in Deutschland durch KI bereits?

Aline Blankertz: Aktuell läuft die Debatte, dass man in der Verwaltung großflächig KI einsetzen möchte, etwa nach dem Vorbild von DOGE aus den USA. Das wird zwangsläufig dazu führen, dass mehr Menschen diskriminiert werden und dafür wiederum weniger Verantwortung übernommen wird. Das kennen wir beispielsweise aus Amsterdam, wo ein Algorithmus zur Folge hatte, dass vor allem sozial schwachen Familien Betrugsvorwürfe gemacht wurden. Oder aus England, wo Abiturergebnisse während der Corona-Pandemie insbesondere von Schüler*innen aus ärmeren Gegenden abgewertet wurden.

Ein anderer Aspekt ist, dass auch hierzulande KI-Unternehmer*innen als Heilsbringende glorifiziert werden. Ein starkes Beispiel hierfür ist Dieter Schwarz, dem die Schwarz-Gruppe mit Lidl und Kaufland gehört. Neben vielen Rechenzentren baut er so etwas wie eine Privatstadt in Baden-Württemberg auf und wird dafür gefeiert. Die CEOs von SAP und Telekom werden ebenfalls häufig gefragt, was für eine Gesellschaft sie sich wünschen. Ganz so, als ob sie gesellschaftliche Interessen im Blick hätten.

Außerdem beschleunigt KI die gesellschaftliche Spaltung nicht nur im Mediendiskurs, indem plausibel klingende Outputs ohne Anspruch auf Wahrheit eine demokratische Diskussionsbasis untergraben. Sie entwertet schon jetzt Arbeit. Menschen haben Angst, von sogenannter KI ersetzt zu werden, die Gewerkschaften fahren ihre Forderungen zurück. Gleichzeitig erwirtschaften diejenigen, die in Aktien investiert haben, umso mehr Gewinne. Die ökonomische Ungleichheit wächst also noch stärker durch KI.

„In den USA zünden Menschen autonom fahrende Autos an“

netzpolitik.org: Was kann man dagegen tun?

Aline Blankertz: Wir können uns gegen KI wenden. Wir können uns verweigern. Wir können Trainingsdaten vergiften. Man kann auch so etwas wie Sabotage nach dem CIA-Sabotage-Manual betreiben. Es enthält einige inspirierende Ideen aus der Zeit des Zweiten Weltkriegs, wie Menschen den Faschismus verlangsamen können. Man kann Abläufe verringern, verlangsamen und weniger effizient machen. Man kann sich gegen Rechenzentren engagieren.

In den USA gibt es noch weitergehende Aktivitäten. Da zünden Menschen autonom fahrende Autos von Waymo an. Dort gibt es Roboter, die die Gehwege von Obdachlosen freihalten sollen. Menschen attackieren auch diese Roboter.

Um wirklich politisch wirksam sein zu können, müssen wir uns aber organisieren. Da führt kein Weg dran vorbei. Die Dienste im Individuellen zu wechseln reicht nicht. Zu sagen, „ich finde KI doof, reicht auch nicht“. Wir müssen uns politisch zusammenfinden und die Auswirkungen solcher digitalen Technologien stärker als Problem verstehen.

„Vergesellschaftung ist die Antwort“

netzpolitik.org: Auf der Konferenz gebt ihr einen Talk darüber, dass Regulierung und Open-Source-Alternativen nicht ausreichen, um gegen die Macht der Tech-Giganten anzukommen. Stattdessen schlagt ihr vor, große Tech-Plattformen zu vergesellschaften.

Malte Engeler: Aktuell erleben wir eine autoritäre Wende. In Zeiten von Kipppunkten wie diesen ist Abwehrkampf ein ganz wesentlicher Teil. Gegen etwas zu kämpfen ist nicht so motivierend wie für etwas. Ich kann das für mich persönlich ganz klar sagen: Mich motiviert nicht der Hass auf Big Tech. Mich motiviert der Wunsch nach einer besseren Welt. Wir brauchen konkrete Vorstellungen einer Realität, in der diese Technologien, die wir gerade bekämpfen, anders funktionieren. Und wie kommen wir dahin? Wie kann man eine Plattform, die uns jetzt ausbeutet und aus unseren Bedürfnissen Profit schlägt, in etwas Besseres verwandeln?

Die Antwort auf diese Fragen ist Vergesellschaftung: also die Überführung einer privatwirtschaftlich betriebenen kommerziellen Plattform in einen Zustand, in dem sie im Sinne des Gemeinwohls und der Bedürfnisbefriedung der Menschen demokratisch verwaltet wird.

„Mit kleineren Plattformen anfangen“

netzpolitik.org: Welche Plattformen würdet ihr gern vergesellschaften?

Malte Engeler: Sich allein diese Frage zu stellen, ist sehr spannend. Das führt dazu, dass auch linke und progressive Kräfte auf einmal anfangen, darüber nachzudenken: Was ist unsere Vision? Was ist unsere Idee von einer digitalen Wohnungsvermittlung oder von einem Portal, auf dem man sich Arzttermine klicken kann? Was würden wir mit diesen Infrastrukturen machen, wenn sie nicht nach kapitalistischen Prinzipien betrieben werden würden?

Auf der „Cables of Resistance“ gibt es auch einen Talk von der Redscout24-Gruppe, in der Aline und ich beteiligt sind. Das ist ein ganz konkreter Versuch zu zeigen, wie ImmobilienScout24 anders aussehen könnte. Aber das ist nur ein Beispiel von vielen. Doctolib wäre ein anderes.

Die Frage der Vergesellschaftung zwingt uns aber auch dazu, uns zu positionieren, welche Plattformen wir vielleicht gar nicht wollen. Man kann vergesellschaften, um dann nur abzuschalten. KI ist ein Beispiel für eine Technologie, die wir in unserer befreiten Welt nicht haben wollen.

Aline Blankertz: Konkret plädieren wir dafür, mit den kleineren Plattformen wie ImmoScout24 und Doctolib anzufangen. Denn über sie läuft aktuell der Zugang zu für alle Menschen wichtigen Bereichen der Daseinsvorsorge wie Wohnungen und Gesundheitsversorgung. So können wir erst einmal lernen, wie die Umstellung auf Bedürfnisorientierung funktioniert. Mittelfristig können wir dann unseren Blick stärker auf digitale Infrastrukturen wie Rechenzentren und globale Plattformen richten.

Was wir durch Vergesellschaftung gewinnen, ist, dass wir überhaupt wieder gesellschaftlich gestalten können. Im Moment läuft es danach, wie am meisten Geld für die Anteilseignenden herausspringt. Wenn wir an Demokratie glauben, müssen wir auch daran glauben, dass wir gesellschaftliche Infrastrukturen danach gestalten können.

Da kann man sich gut bei „Deutsche Wohnen & Co enteignen“ umsehen, die für ihre Anstalt öffentlichen Rechts ‒ so unsexy das auch klingen mag ‒ sehr detailliert ausbuchstabieren, welche Gruppen wie an Entscheidungsprozessen beteiligt werden sollen. Gleichermaßen wäre das auch bei einer digitalen Wohnungsvermittlungsplattform, die auf die Bedürfnisse von Menschen zugeschnitten ist.

„ImmoScout24 vom Markt verdrängen“

netzpolitik.org: Wie kann eine Bewegung oder ein Zusammenschluss von Bewegungen praktisch an ein Unternehmen wie ImmoScout24 herankommen?

Malte Engeler: Wir sollten nicht vergessen, dass es schon viele Strukturen gibt, die so organisiert sind. Man vergisst, dass wir das Rad nicht neu erfinden müssen. Bibliotheken zum Beispiel sind eine gut funktionierende öffentliche Infrastruktur. Sie haben einen gemeinsamen Datenbestand. Beispielsweise kann ich heute in der Staatsbibliothek Berlin ein Buch aus Heidelberg bestellen und es übermorgen abholen. Das sind auch keine privatwirtschaftlich betriebenen Informationszugangssysteme.

Es gibt verschiedene Wege zum Ziel. In einigen Gemeinden existieren noch kommunale Online-Plattformen zur Wohnungsverwaltung, auf denen sie den eigenen Wohnungsbestand anbieten. Sie stellen ihn nicht auf ImmoScout24 ein. Man könnte also festlegen: Wer Wohnraum hat und vermieten will, muss dafür die Plattform der Gemeinde nutzen. Bei einigen Infrastrukturen der Daseinsvorsorge wie Müllabfuhr oder Wasseranschluss gibt es schon ein ähnliches Prinzip, den sogenannten Anschluss- und Benutzungszwang.

Mit Aktivist*innen aus dem Fediverse, die viel Erfahrung mit dezentralen Strukturen haben, und Menschen, die solche Bibliotheken-Systeme bauen, könnte man ausloten, wie ein deutschlandweiter Katalog aussähe, mit dem man in jeder Kommune auf alle Wohnungen in Deutschland zugreifen kann.

Im Grunde verdrängt man ImmoScout24 auf diese Weise vom Markt und vergesellschaftet es gar nicht. Die Plattform wird so immer unwichtiger. Sie kann dann noch Eigentumswohnungen auf dem Land vermitteln, aber ist aus dem Mietraum raus. Das wäre bereits eine Errungenschaft.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Digitale Überwachungsbefugnisse: Schwarz-rotes Sicherheitspaket „zum Großteil verfassungswidrig“

Von: Markus Reuter

Die Kritik am Überwachungspaket der Bundesregierung reißt nicht ab. Die Gesellschaft für Freiheitsrechte warnt vor „Eingriffen in die Grundrechte aller Menschen“ und „mächtigen Überwachungsmaßnahmen“.

Gesichtserkennungsmuster im Gesicht einer Frau
Automatisierte Gesichtserkennung ist wegen ihrer Eingriffstiefe in Grundrechte hoch umstritten. (Symbolbild) – Alle Rechte vorbehalten IMAGO / Shotshop

Die Gesellschaft für Freiheitsrechte (GFF) nennt in ihrer aktuellen Stellungnahme zum Sicherheitspaket (PDF) die Gesetzesvorhaben der Bundesregierung zur biometrischen Fahndung im Internet und zur automatisierten Datenanalyse „zum Großteil verfassungswidrig“. Die Bürgerrechtsorganisation lehnt deshalb die Einführung der darin vorgeschlagenen Befugnisse und Änderungen fast rundweg ab.

Es handle sich bei den geplanten Befugnissen nicht nur um Werkzeuge, die zu schwerwiegenden Grundrechtseingriffen führen, sondern um „Instrumente zur potenziellen Massenüberwachung“, weil es sich eben nicht um gezielte Maßnahmen handle. Gleichzeitig würden keinerlei Nachweise vorliegen, dass diese Befugnisse tatsächlich zu einer effektiven Polizeiarbeit beitragen würden, so die GFF.

Staatliche Souveränität vollkommen ausgeblendet

Besonders besorgniserregend sei auch, dass die Referentenentwürfe staatliche digitale Souveränität vollkommen ausblenden würden, heißt es in der Stellungnahme. Das liege daran, dass der Gesetzentwurf vorsieht, dass biometrische Abgleiche im Internet auch von privaten Unternehmen im Ausland durchgeführt werden dürfen. Zu solchen Unternehmen gehört zum Beispiel das umstrittene PimEyes, über das netzpolitik.org oftmals berichtet hat. Solche Unternehmen haben die Gesichtsbiometrie von Millionen Menschen gegen alle Regeln des europäischen Datenschutzes erlangt, indem sie ohne zu fragen Gesichtsbilder im Internet ausgewertet und gespeichert haben.

Darüber hinaus ist laut der GFF auf Grundlage des Entwurfs auch der Einsatz von Softwaretools privater Anbieter für eine Datenanalyse möglich, wie etwa die Software Gotham des US-Unternehmens Palantir. Trotz dieser Möglichkeit sieht der Entwurf laut der GFF keinerlei Vorgaben vor, die sensibelste Polizeidaten vor Fehlern, Datenlecks, unberechtigtem Zugriff, missbräuchlicher Nutzung oder Manipulation schützen. Sogar zum Training von KI-Systemen dürften polizeiliche Daten an private Unternehmen übermittelt werden.

Zivilgesellschaft warnt vor Plänen für KI-Fahndung

„Eingriffe in die Grundrechte aller Menschen“

Der biometrische Abgleich mit Daten aus dem Internet ermögliche „schwerwiegende Eingriffe in das Recht auf informationelle Selbstbestimmung“ – und das bei einer enormen Streubreite. Das ermächtige die Bundespolizei zu Eingriffen in die Grundrechte potenziell aller Menschen, kritisiert die GFF. Denn diese könnten nur begrenzt beeinflussen, ob zum Beispiel Bild- und Videomaterial oder Tonaufnahmen von ihnen gegen ihren Willen im Internet veröffentlicht werden.

Außerdem könnten durch den Abgleich Rückschlüsse auf besonders sensible Daten wie politische Einstellungen und sexuelle oder religiöse Orientierung gezogen werden, z.B. bei Aufnahmen von Demos, Veranstaltungen oder Gottesdiensten.

Das Internet mache mittlerweile einen erheblichen Teil des öffentlichen Raumes aus. Mit den neuen Befugnissen werde die Anonymität in diesem digitalen öffentlichen Raum faktisch unmöglich gemacht. Das sei mit enormen Abschreckungseffekten verbunden und habe erhebliche Auswirkungen auf die Ausübung von Grundrechten, kritisiert die GFF.

Kritik haben die Bürgerrechtler:innen auch an der Eingriffsschwelle für die Nutzung der Instrumente, die laut der schwarz-roten Koalition ab „erheblichen Straftaten“ gelten soll. Doch diese genügten nicht dem verfassungsrechtlich notwendigen Gewicht einer besonders schweren Straftat. Zudem würden die erfassten Straftaten im Gesetzentwurf nicht hinreichend konkretisiert.

„Mächtige Überwachungsmaßnahmen“ mit Palantir & Co.

Bei der automatisierten Datenanalyse, wie sie etwa Palantir durchführt, sollen große Mengen auch bislang ungefilterter oder getrennt gespeicherter Daten mit weiteren Daten verbunden und verarbeitet werden. Die Polizei erhofft sich durch die Zusammenführung neue Erkenntnisse.

„Dabei besteht die Gefahr, dass aufgrund von Fehlern im Analyseprogramm, insbesondere aufgrund diskriminierender Algorithmen, Menschen fälschlicherweise ins Visier der Sicherheits- und Strafverfolgungsbehörden geraten, obwohl sie dafür keinen Anlass geboten haben“, kritisiert die GFF. Sie warnt zudem vor Einschüchterungseffekten und davor, dass aufgrund des Ausbaus der Überwachung immer mehr sensible Daten bei den Behörden gespeichert werden dürfen. „Automatisierte Datenanalysen sind mächtige Überwachungsmaßnahmen“, folgert die Organisation. Deswegen seien strenge Beschränkungen zum Schutz der Grundrechte nötig.

Die GFF fordert deswegen:

Die Datenanalyse sollte dabei insbesondere ausdrücklich auf einfach-automatisierte Abgleiche und reine Suchvorgänge begrenzt werden. Algorithmische Sachverhaltsbewertungen, Profiling und KI-basierte Analysen müssen ausgeschlossen werden. Die Menge der einbezogenen Daten ist stark zu begrenzen. Die Eingriffsschwellen für automatisierte Datenanalysen müssen erhöht und Schutzmaßnahmen gegen Fehler, Diskriminierung und Intransparenz aufgenommen werden.

In der 30 Seiten starken Stellungnahme, welche die GFF im Rahmen der Verbändebeteiligung abgegeben hat, sind zahlreiche weitere Bedenken hinsichtlich der Verfassungsmäßigkeit der Überwachungspläne der Bundesregierung gelistet. Auch andere Organisationen aus der Zivilgesellschaft wie Amnesty International oder der Chaos Computer Club haben massive Kritik an dem Vorhaben der Bundesregierung.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Gesetzentwurf: So will Gesundheitsministerin Warken ihre Digitalstrategie umsetzen

Von: Daniel Leisegang

Das Bundesgesundheitsministerium will die Digitalisierung im Gesundheitswesen rasch voranbringen. Ein Gesetzentwurf definiert dafür die Rolle der elektronischen Patientenakte um, weitet die Nutzung von Gesundheitsdaten erheblich aus und gibt der Gematik neue weitreichende Befugnisse. Wir veröffentlichen den Gesetzentwurf.

Ministerin Nina Warken mit Merkel-Raute vor einer blauen Wand.
Nina Warken hat unser aller Gesundheitsdaten fest im Blick. – Alle Rechte vorbehalten IMAGO / dts Nachrichtenagentur

Bundesgesundheitsministerin Nina Warken (CDU) hat einen ersten Entwurf für das „Gesetz für Daten und digitale Innovation im Gesundheitswesen“ (GeDIG) vorgelegt. Das rund 200-seitige Dokument soll die Weichen für eine digital gestützte Gesundheitsversorgung stellen und wird derzeit zwischen den Bundesministerien abgestimmt. Wir veröffentlichen den Entwurf (PDF).

Das Fundament für das Gesetz hatte Warken bereits Mitte Februar mit ihrer Digitalisierungsstrategie gebaut. Darin formuliert die Ministerin das Ziel, die elektronische Patientenakte (ePA) nicht nur zum „zentralen Dreh- und Angelpunkt“ der ärztlichen Versorgung zu machen, sondern auch zur „Gesundheits(daten)plattform“ auszubauen.

Dementsprechend soll das GeDIG unter anderem die Grundlagen für ein „digitales Primärversorgungssystem“ schaffen, indem es die Rolle der ePA erheblich erweitert. Außerdem will das Ministerium mehr Gesundheitsdaten für die Forschung bereitstellen und die Befugnisse der Gematik umfassend ausbauen.

Die elektronische Patientenakte als erste Anlaufstelle

Die ePA-App soll den Versicherten künftig einen „digitalen Versorgungseinstieg“ ermöglichen. Sie wäre dann nicht mehr nur ein digitaler Dokumentenspeicher, sondern die erste digitale Anlaufstelle für die gesundheitliche Grundversorgung.

Mit Hilfe der App sollen Versicherte künftig zunächst eine Ersteinschätzung einholen. Diese Einschätzung soll spätestens ab dem 1. Februar 2028 nach einheitlichen Standards durch die Terminservicestellen der Kassenärztlichen Vereinigungen erfolgen. Versicherte sollen dann über die ePA-App direkt an deren standardisierte Ersteinschätzungsverfahren weitergeleitet werden. Wird dabei ein Behandlungsbedarf festgestellt, können die Versicherten über die App digital einen Termin für eine ärztliche Behandlung buchen. Damit der Prozess möglichst reibungsfrei abläuft, müssen Arztpraxen ab dem 1. September 2029 die elektronische Überweisung anbieten.

Bei der Terminvergabe sollen ebenfalls einheitliche Standards gelten. Buchungsplattformen wie Doctolib müssen sich laut Gesetzentwurf auf strengere Vorgaben einstellen, die die Kassenärztliche Bundesvereinigung (KBV) und der GKV-Spitzenverband festlegen. Sie sollen unter anderem sicherstellen, dass Dritte den Terminbuchungsprozess nicht kommerziell nutzen.

Krankenkassen sollen Gesundheitsdaten auswerten dürfen

Das GeDIG zielt außerdem darauf ab, dass im Gesundheitswesen mehr Daten für „Versorgung, Forschung und Innovation“ bereitstehen.

Dafür sollen die Krankenkassen deutlich mehr Befugnisse erhalten, um bei ihren Versicherten individuelle Gesundheitsrisiken auszumachen. Mit Zustimmung der Versicherten sollen sie auf Daten zugreifen dürfen, die in der ePA hinterlegt sind. Zudem sollen sie selbst Gesundheitsdaten erheben können, die unter anderem „Ernährungsgewohnheiten“, den „Raucherstatus“ oder das Körpergewicht der Versicherten erfassen. Mit den gewonnenen Informationen dürfen die Versicherungen dann auf „gesunde Lebensverhältnisse“ laut Gesetzentwurf bei ihren Versicherten hinwirken.

Darüber hinaus sollen die Kassen personenbezogene Sozialdaten, die ihnen vorliegen, anonymisieren und auswerten dürfen. Nach der Anonymisierung weisen die Daten keinen Personenbezug mehr auf. Aus Datenschutzsicht dürfen sie damit „zur Erfüllung gesetzlicher Aufgaben“ weiterverarbeitet und an Dritte übermittelt werden.

Auch mit nicht-anonymisierten Daten sollen die Kassen hantieren dürfen. Eine neue Experimentierklausel soll es ihnen ermöglichen, sogenannte Reallabore einzurichten. Hier können die Versicherungen zeitlich befristet die „innovative Nutzung von personenbezogenen Daten“ erproben, etwa um eine „bessere Einschätzung von Erkrankungsrisiken (z. B. Demenz, Herzerkrankungen)“ zu erhalten.

Damit kommt der Gesetzentwurf den Erwartungen der Krankenkassen weitgehend entgegen. Ende vergangenen Jahres hatte der GKV-Spitzenverband gefordert, die Präventionsangebote der Kassen „durch den Ausbau der datengestützten Früherkennung von Krankheiten“ ausbauen zu dürfen. Die Ärzteschaft hatte vor einem solchen Schritt gewarnt, weil sie die Aushöhlung des Patientengeheimnisses und der ärztlichen Schweigepflicht befürchtet. Offenkundig setzt sich das BMG über derlei Bedenken nun tendenziell hinweg.

So umfassend will Warken die Gesundheitsdaten aller Versicherten verknüpfen

Eine Forschungskennziffer gegen Datensilos und für Widerspruchsrechte

Damit auch die Forschung von den Gesundheitsdaten profitiert, sieht der Gesetzentwurf die Einführung einer „eindeutigen Forschungskennziffer“ vor. Diese pseudonyme Kennziffer wird aus dem unveränderlichen Teil der Krankenversichertennummer (KVNR) abgeleitet und soll „die Verknüpfung von Daten verschiedener Datensilos“ ermöglichen.

Damit will das BMG zugleich die Umsetzung der EU-Verordnung über den Europäischen Gesundheitsdatenraum) (EHDS) vorbereiten. Die Verordnung trat im März 2025 in Kraft und findet in den kommenden Jahren sukzessive Anwendung. Der EHDS wird der erste sektorenspezifische Datenraum in der EU sein und soll als Blaupause für weitere sogenannte Datenräume dienen. Künftig sollen hier die Gesundheitsdaten von rund 450 Millionen EU-Bürger:innen zusammenlaufen und grenzüberschreitend ausgetauscht werden.

Auch Forschende und Behörden sollen diese Daten unter bestimmten Voraussetzungen nutzen dürfen. Möchten Versicherte das nicht, können sie von ihrem Widerspruchsrecht (Opt-out) Gebrauch machen. Die Forschungskennziffer soll laut BMG als technischer Schlüssel dienen, um die entsprechenden Datensätze gezielt herauszufiltern.

„Trotz der Funktion als ‚unique identifier‘ ist es gerade nicht das Ziel der Forschungskennziffer, einer Identifizierung von Einzelpersonen zu ermöglichen“, betont das BMG in dem Gesetzentwurf. „Im Gegenteil dient die Forschungskennziffer gerade dazu, bei der Zurverfügungstellung von Daten solche Merkmale zu ersetzen, über die Betroffene leichter re-identifiziert werden können.“

Fachleute weisen jedoch darauf hin, dass eine derartige Pseudonymisierung insbesondere bei Gesundheitsdaten keinen ausreichenden Schutz vor Re-Identifikation biete. Das Risiko steige zudem an, wenn ein Datensatz mit weiteren Datensätzen zusammengeführt wird, die weitere personenbezogene Daten der gleichen Person enthalten.

Gematik erhält deutlich mehr Befugnisse

Um das „hohe Tempo bei der Digitalisierung im Gesundheitswesen und der Pflege […] aufrecht zu erhalten“ ist laut BMG auch „die Fortentwicklung der Gesellschaft für Telematik (gematik) erforderlich“. Die Gematik ist in Deutschland für die technischen Vorgaben bei der Digitalisierung des Gesundheitswesens verantwortlich. Betrieben wird die Firma gemeinschaftlich von Ministerien wie dem BMG sowie privaten Organisationen aus dem Gesundheitsbereich, darunter Krankenkassen-Verbände oder die Bundesärztekammer. Der Gesetzentwurf sieht vor, dass die Gematik neue Befugnisse erhält.

Das Ministerium verfolgt damit insbesondere das Ziel, die Betriebsstabilität der Telematikinfrastruktur (TI) zu verbessern. Die TI ist das digitale Netzwerk des deutschen Gesundheitswesens, über das Arztpraxen, Kliniken, Apotheken und Krankenkassen Informationen austauschen. Sie erwies sich in den vergangenen Jahren allerdings als überaus instabil. Unter anderem KBV-Vorstandsmitglied Sibylle Steiner hatte zu Jahresbeginn gefordert, dass die Technik „geräuschlos und reibungslos im Hintergrund laufen“ müsse. „Das muss 2026 das Ziel sein“, so Steiner.

Um das zu erreichen, will das BMG die Gematik von einer Zulassungsbehörde zu einer aktiv steuernden Digitalagentur mit Durchsetzungsbefugnissen ausbauen. Das wäre ein erheblicher Machtzuwachs für die vielfach kritisierte Gematik, ohne dass das Gesetz eine entsprechende unabhängige Kontrolle vorsieht – zumal das BMG nicht nur Auftraggeber, sondern auch Gesellschafter der gematik ist.

Laut Gesetzentwurf soll die Gematik kritische Kernkomponenten der Telematikinfrastruktur künftig selbst beschaffen und bereitstellen. Bislang verkaufen Anbieter ihre Komponenten eigenständig an Arztpraxen und Kliniken, nachdem die Digitalagentur diese zugelassen hat. Nach Einschätzung des Ministeriums hat das jedoch zu hoher Komplexität, schlechter Betriebsstabilität und mangelnder Servicequalität geführt. Um Störungen und Sicherheitsprobleme zu beseitigen, soll die Digitalagentur außerdem zusätzliche Durchgriffsrechte erhalten.

Auf diesem Wege will das Gesundheitsministerium auch mehr Interoperabilität im Gesundheitswesen erreichen. Verschiedene IT-Systeme, Programme und Plattformen sollen nahtlos zusammenarbeiten und untereinander Daten austauschen können, auch wenn sie von unterschiedlichen Herstellern stammen.

Als konkreter Anwendungsfall soll hier die digitale Impfdokumentation als Vorstufe des digitalisierten Impfprozesses eingeführt werden. Der sogenannte digitale Impfpass soll als eine „nutzenstiftende Mehrwert-Anwendung“ auch dazu beitragen, dass mehr Versicherte die ePA aktiv nutzen. Bislang tut das nämlich nur ein sehr kleiner Teil der Versicherten.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇GNU/Linux.ch

Zum Wochenende: Mama wurde rückfällig

Von: Astrid
Wie Gewohnheiten sich ändern und was das mit freier Software, freier Gesellschaft und dem di.day zu tun hat.

✇netzpolitik.org

Polizeigesetz Niedersachsen: Verfassungsrechtliche Bedenken bei geplanten Überwachungsmaßnahmen

Von: Martin Schwarzbeck

Der Landesdatenschutzbeauftragte und Polizeirechtler*innen sehen grundlegende Probleme in dem Entwurf des neuen Polizeigesetzes von Niedersachsen. Das wurde gestern bei einer Anhörung im Innenausschuss deutlich.

Denis Lehmkemper.
Die Sci-Fi-Systeme aus dem geplanten niedersächsischen Polizeigesetz sieht Denis Lehmkemper „auf der kritischen Grenze zwischen verbotenen KI-Praktiken und Hochrisiko-KI-Systemen“. – Alle Rechte vorbehalten Daniel George

Die rot-grüne Landesregierung von Niedersachsen will ihrer Polizei vier verschiedene Arten KI-gestützter Überwachung erlauben. Der Landesdatenschutzbeauftragte Denis Lehmkemper bezog nun öffentlich dazu Position. Er schreibt, dass diese Befugnisse die Eingriffsintensität in die Grundrechte gegenüber bisherigen Maßnahmen „erheblich erhöhen“. Sie würden sich auf der kritischen Grenze zwischen verbotenen KI-Praktiken und Hochrisiko-KI-Systemen bewegen. Es bestünde die Gefahr, „dass die Regelungen aufgrund ihrer Eingriffstiefe einer verfassungsrechtlichen Bewertung nicht standhalten.“

Gestern nahmen Lehmkemper und weitere Expert*innen im Innenausschuss des Landtags Stellung zum aktuellen Entwurf des niedersächsischen Polizeigesetzes. In einer Presseerklärung, die er danach versandte, zweifelt Lehmkemper daran, dass der Entwurf die Grundrechte im Blick behält.

Als besonders eingriffsintensiv benennt er die Maßnahmen mit sogenannter Künstlicher Intelligenz, wie sie sich derzeit in etlichen umstrittenen deutschen Polizeigesetzentwürfen finden: „intelligente“ Videoüberwachung, biometrische Echtzeit-Fernidentifizierung, Abgleich mit öffentlich zugänglichen Daten und automatisierte Datenanalyse. In diesen Bereichen sieht Lehmkemper „erheblichen Nachbesserungsbedarf“ an den Regelungen.

„Ein Paradigmenwechsel“

„Aus unserer Sicht sind europäische Datenschutz- und KI-Vorgaben noch nicht ausreichend berücksichtigt, damit riskiert man Rechtsunsicherheit“, schreibt er netzpolitik.org zu dem Entwurf.

Die Landesregierung will mit dem Entwurf auch Datenanalysen ermöglichen, wie sie der Konzern Palantir anbietet und die US-Einwanderungsbehörde gerade zur Jagd auf Migrant*innen nutzt. Lehmkemper sieht hier einen tiefen Eingriff in die Bürgerrechte, sogar einen Paradigmenwechsel. Während Daten von Zeugen und Opfern bislang nur zweckgebunden und vorgangsbezogen erhoben wurden, wäre es danach möglich, eine Datenbank zu betreiben, die nicht nur nach polizeilichen Vorgängen, sondern auch nach Zeugen und Opfern, also gezielt nach Personen, durchsucht werden kann.

Die Landesregierung hat bereits bekundet, keine Software von Palantir einsetzen, sondern auf eine europäische Alternative warten zu wollen. Der Datenschutzbeauftragte fordert, „völlig unabhängig davon, welches Software-System dafür eingesetzt werden soll, eine klare Begrenzung auf anlassbezogene Analysen, kürzere Speicherfristen, umfassende Betroffenenrechte und eine eindeutige Definition des Einsatzes von Künstlicher Intelligenz im Sinne der KI-Verordnung.“

„Verstoß gegen Verfassungsrecht“

Kristin Pfeffer, Professorin an der Hochschule der Polizei Hamburg, hat ebenfalls gestern im Innenausschuss das Polizeigesetz eingeordnet. In einer schriftlichen Stellungnahme, die sie dazu eingereicht hat, kritisiert sie vor allem die Befugnisse zur Datenanalyse nach Palantir-Art. Sie sieht einen Verstoß gegen das Verfassungsrecht, weil die Politik der Polizei zur Nutzung des Tools zu wenige Regeln auferlegt.

Die Big-Data-Analyse sei „äußerst eingriffsintensiv“, deshalb brauche es, wenn man sie einführen wolle, Regelungen, die die Eingriffstiefe der Maßnahme abmildern. Die gäbe es kaum. Die Art der Daten, die einbezogen werden könnten, sei kaum limitiert. Die Polizei darf dem Entwurf nach „Vorgangsdaten, Falldaten, Daten aus den polizeilichen Auskunftssystemen, Verkehrsdaten, Telekommunikationsdaten, Daten aus Asservaten und Daten aus dem polizeilichen Informationsaustausch“ nutzen.

Vorgangsdaten umfassen dabei, so Pfeffer, „Anzeigen, Ermittlungsberichte und Vermerke, die nicht nur Daten zu Verdächtigen, Beschuldigten oder sonstigen Anlasspersonen enthalten, […] sondern etwa auch Daten zu Anzeigeerstattern, Hinweisgebern oder Zeugen.“ Falldaten würden zudem „Beziehungen zwischen Personen, Institutionen, Objekten und Sachen“ sichtbar machen.

Dazu kommen „Datensätze aus gezielten Abfragen in gesondert geführten staatlichen Registern sowie einzelne gesondert gespeicherte Datensätze aus Internetquellen.“ Solche Register können laut Pfeffer Melde- oder Waffenregister oder das zentrale Verkehrsinformationssystem (ZEVIS) sein. Zudem sei die Verarbeitung von Daten, die durch besonders schwere Grundrechtseingriffe erlangt wurden, zum Beispiel durch die Wohnraumüberwachung oder den Einsatz verdeckter Ermittler*innen, nicht ausgeschlossen, sondern nur eingeschränkt.

Eine Superdatenbank

Die Politik habe es bislang auch verpasst, so Pfeffer, die Eingriffstiefe durch die Beschränkung auf inländische Quellen zu beschränken. Nach der aktuellen Fassung könnten auch Daten verarbeitet werden, die ausländische Sicherheitsbehörden erhoben haben.

Der Polizeigesetzentwurf ermöglicht es zudem, eine „Superdatenbank“ anzulegen. Pfeffer sähe eine solche aber unvereinbar mit dem aktuellen Verfassungsrecht. „Sollte das Anlegen einer vorsorglichen Datenbank gar nicht beabsichtigt sein, müsste dies in der Norm noch klargestellt werden“, schreibt sie.

Pfeffer kritisiert auch die Eingriffsschwelle für die Datenanalyse: Die liegt bereits im Vorfeld einer Gefahr für eine terroristische Straftat. Das Tool darf demnach genutzt werden, noch bevor eine Gefahr konkret wird.

Racial Profiling ist für Rot-Grün kein Thema

Matthias Fischer, Professor an der Hessischen Hochschule für öffentliches Management und Sicherheit, wurde ebenfalls gestern im Innenausschuss angehört und schreibt in einer schriftlichen Stellungnahme dazu: „Als eine besonders auffällige Leerstelle erweist sich die Thematik „Racial Profiling“.“

Zahlreiche Landesgesetzgeber hätten sich in den vergangenen Jahren bei den Novellierungen ihrer Polizeigesetze dieses Themas angenommen. „Sie haben erkannt, dass rechtswidriges oder als rechtswidrig erlebtes Polizeihandeln zu nachhaltigen Vertrauensverlusten in die Institution Polizei führen kann“, schreibt Fischer. In der Diskussion über den Reformbedarf des niedersächsischen Polizeigesetzes habe Racial Profiling aber offenbar trotzdem keine Rolle gespielt.

„Wer mit dem Anspruch antritt, das modernste Polizeigesetz Deutschlands vorlegen zu wollen, darf das Thema diskriminierender Kontrollen nicht ausblenden“, schreibt Fischer. Um der Gefahr von Racial Profiling zu begegnen, empfiehlt er eine Pflicht für Polizist*innen, Personenkontrollen vor deren Beginn zu begründen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Polizeirechtsnovelle in Sachsen: Mit minimalen Anpassungen in Richtung Überwachungsstaat

Von: Leonhard Pitz

Trotz scharfer Kritik hält die sächsische Regierung am ihrem Vorhaben fest, die Polizei mit erheblich erweiterten Überwachungsbefugnissen auszustatten. Den bisherigen Gesetzesentwurf hat sie nach internen Verhandlungen nur kosmetisch angepasst. Kritiker:innen bezweifeln die Vereinbarkeit mit geltendem EU-Recht und warnen vor dystopischen Verhältnissen.

Zwei alte Männer schauen sich in die Augen und lächeln.
Diese zwei dürften sich freuen, wenn das neue Polizeigesetz in Sachsen in Kraft tritt: Armin Schuster, Innenminister von Sachsen, und Jörg Kubiessa, Polizeipräsident von Sachsen. – Alle Rechte vorbehalten IMAGO / EHL Media

Die sächsische Polizei soll Bilder im Internet biometrisch auswerten dürfen – zumindest wenn es nach dem Willen der sächsischen Regierung geht. Und das ist lange nicht die einzige massive Befugniserweiterung der Polizei, die die Regierung plant. Auch Verhaltensscanner, verdeckte Kennzeichenerkennung und eine automatisierte Datenanalyse sollen kommen. Lediglich bei zwei problematischen Plänen machte das Innenministerium einen Rückzieher. Unter Zeitdruck muss nun der sächsische Landtag entscheiden.

Geringfügige Änderungen für eine „rechtsstaatlich sehr hohe Qualität“

Am Dienstag beschloss das Kabinett den Gesetzentwurf für das Sächsische Polizeivollzugsdienstgesetz (SächsPVDG). Dieser fällt in Teilen weniger scharf aus als die ursprünglich geplante Novelle. Wenn man den sächsischen Innenminister Armin Schuster (CDU) fragt, sogar ein gutes Stück zurückhaltender. Sein Referentenentwurf aus dem Herbst war auf viel Kritik gestoßen, auch die mitregierende SPD kritisierte einige der geplanten Befugniserweiterungen.

Im Vergleich dazu enthielten die neuen Pläne „sehr viele grundrechtssichernde Bestimmungen“, so Schuster. Er verweist auf Richtervorbehalte, Lösch- und Berichtspflichten. „Für Polizisten ist dieses Gesetz eine Herausforde­rung“, sagte der Innenminister auf einer Pressekonferenz am Dienstag nach der Kabinettssitzung. Der Entwurf habe nun eine „rechtsstaat­lich sehr hohe Qualität“, betonte er.

Tatsächlich gibt es bei den meisten Bestimmungen des Entwurfs, wenn überhaupt, geringfügige Änderun­gen und Konkretisierungen. So ist der präventive Staatstrojaner-Einsatz zur Quellen-Telekommuni­kationsüberwachung nach wie vor enthalten, ebenso Verhaltensscanner, die gesetzlichen Grund­lagen für eine Datenanalyse-Plattform sowie der biometrische Abgleich von Gesichtern und Stim­men mit dem Internet.

Kein Palantir, keine Drohnen gegen Handy-Sünder:innen

Gestrichen wurde vor allem das Filmen in Autos, um Handy-Nutzer:innen am Steuer zu erwi­schen. Diese Vorschrift sollte laut dem ursprünglichen Entwurf sogar mit Drohnen umgesetzt wer­den.

Die sächsische Datenschutzbeauftragte Juliane Hundert hielt das für „offensichtlich verfas­sungswidrig“ und sprach von einer „auf der Hand liegenden Unverhältnismäßigkeit“. Ihrer Empfeh­lung nach einer ersatzlosen Streichung folgte die sächsische Regierung offenbar.

Außerdem setzte die SPD durch, dass Palantir keinen sächsischen Auftrag für eine polizeiliche Da­tenanalyse-Plattform bekommt. Der Verzicht wird vom sächsischen Innenminister bedauert: „Der Vorsprung der Firma Palantir ist mit Händen greifbar“, sagte Schuster. Man führe Gespräche mit anderen Anbietern. Laut Kostenplanung im Entwurf rechnet die Staatsregierung mit einer zentralen Bereitstellung durch den Bund, an der man sich dann finanziell beteiligt.

Das 3-Stufen-Modell der polizeilichen Datenanalyse

Weiterhin enthalten ist die Vorschrift, die ermöglichen soll, dass die Polizei eine Plattform zur automatisierten Datenanalyse nutzt. Inzwischen findet sich im Entwurf dafür ein 3-Stufen-Modell.

Auf der ersten Stufe steht ein einfacher Datenabgleich, bei dem jede:r Polizist:in personenbezogene Daten in den Beständen der Polizei Sachsen suchen kann. Ausgenommen sind Biometrie-Daten, personenbezogene Da­ten von Unbeteiligten aus der Vorgangsbearbeitung sowie Daten aus der Wohnraumüberwachung.

Auf der nächsten Stufe folgt die Befugnis, Daten zur Gewinnung neuer Erkenntnisse automatisiert zusammenzuführen und auszuwerten. Voraussetzung ist ein drohender erheblicher Angriff auf den Staat oder Leib, Leben oder Freiheit einer Person. Für drohende terroristische Straftaten liegt die Gefahrenschwelle niedriger. Anordnen dürfen diese Art der Datenanalyse nur hochrangige Polizist:innen, wie etwa die Präsidentin einer Polizeidi­rektion.

Polizeidaten fürs KI-Training – auch ohne Pseudonymisierung

Nur bei der dritten und letzten Stufe muss die Polizei eine richterliche Erlaubnis einholen. Diese Stufe umfasst den Einsatz von „selbstler­nender KI“ sowie die Bildung von Verhaltensprofilen.

Nach wie vor plant die Staatsregierung, der Polizei auch das Training und Testen von eigenen KI-Anwen­dungen mit echten Polizeidaten zu erlauben. Erlaubt ist außerdem die Weiter­gabe personenbezogener Daten an Drittanbieter, die mit der Polizei zusammenarbeiten.

Vorausset­zung dafür ist, dass die Anonymisierung und Pseudonymisierung sowie die Verarbeitung bei der Polizei „nur mit unverhältnismäßigen Aufwand möglich“ ist. Auch diese Vorschrift wurde, trotz Kritik von der SPD-Fraktion und der Opposition, im Vergleich zum letzten Entwurf aus dem Herbst kaum angepasst.

Gesichtersuche im Netz – im Einklang mit der KI-Verordnung?

Auch der „Klette-Paragraf“, wie ihn Armin Schuster nennt, hat im Gesetzesentwurf weiterhin Bestand. Die RAF-Terro­ristin Daniela Klette war bis zu ihrer Festnahme 2024 mehrere Jahrzehnte untergetaucht. Den­noch fanden zwei Journalisten im Dezember 2023 Hinweise auf Klettes Aufenthaltsort über die Ge­sichtersuchmaschine PimEyes. „Diese Blamage darf so nie wieder passieren“, betonte Schuster in der Pressekonferenz.

Dieser biometrische Abgleich von Gesichtern und Stimmen mit Internetdaten wurde trotz viel Kritik kaum angepasst. Die Polizei soll nun lediglich nach Opfern und potenziellen Täter:innen suchen dürfen.

Doch es gibt Zweifel, ob die von Innenminister Armin Schuster als „Klette-Paragraf“ bezeichnete Vorschrift grundsätzlich mit der KI-Verordung der EU in Einklang zu bringen ist.

Laut einem Gutachten von AlgorithmWatch ist es technisch nicht umsetzbar, frei verfügbare Bilder aus dem Internet für einen Abgleich praktikabel durchsuchbar zu machen, ohne eine Datenbank die­ser Bilder zu erstellen. Das verbietet die KI-Verordnung.

Das sächsische Innenministerium rechtfertigt die Pläne auf Anfrage von netzpolitik.org damit, dass das Gutachten auf die Erstellung einer anlassunabhängigen Datenbank abziele, das vorgeschlagene Gesetz aber „auf den anlassbezogenen Auftragsbereich der Gefahrenabwehr“ fokussiere.

Das Innenministerium schreibt weiter:

Zu OSINT-Recherchen werden sowohl Sachbearbeiter als auch Tools eingesetzt, die sich der grundsätzlichen Datenbankstruktur des Internets bedienen und keine polizeieigene Datenbank für alle Informationen des Internets erstellen. Die Methodik hält sich an die von den Informationsan­bietern gesetzten Grenzen. OSINT-Recherchen sind für einen anlassbe­zogenen Lichtbildvergleich mit Bildern aus dem Internet rechtmäßig unter Wahrung der DSGVO sowie europäischen Datenschutzrichtlinien.

Tatsächlich aber ist es laut KI-Verordnung unerheblich, ob die Polizei selbst eine anlassunabhängige Datenbank mit allen Bildern erstellt oder eine von Drittanbietern nutzt. Konkret verbietet die Verordnung in Ar­tikel 5 (1e) „das Inverkehrbringen, die Inbetriebnahme […] oder die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern“.

Videoüberwachung mit Mustererkennung

Auch Verhaltensscanner und Gesichtserkennung in der Videoüberwachung sind weiterhin vorge­sehen. Die Verhaltensscanner sollen Beamt:innen alarmieren, wenn die Software auf den Kamerabildern Bewegungsmuster erkennt, die auf Waffen, gefährliche Gegenstände oder die Begehung einer Straftat hindeuten. Die Beamt:innen sollen dann überprüfen, ob die Software zurecht angeschlagen hat. Sie können daraufhin auch eine auto­matisierte Nachverfolgung des vermeintlich gefährlichen Menschen durch die verschiedenen Kame­ras in die Wege leiten.

Diese Form der Überwachung soll prinzipiell nicht nur an allen Kriminalitätsschwerpunkten möglich sein, sondern etwa auch in Straßenbahnen und Bus­sen, wenn die Polizei annimmt, dass dort künftig Straftaten begangen werden.

Obwohl die SPD-Fraktion sich explizit gegen diese Vorschrift aussprach, ist auch die Möglichkeit eines Live-Gesichtsscans im Gesetzentwurf enthalten. Eingeschränkt wurde hier nur die Menge an Menschen, nach denen die Po­lizei suchen darf, nämlich nach Terrorverdächtigen sowie vermissten Menschen und Opfern von Entführungen und Menschenhandel.

Diese „Echtzeit-biometrische Fernidentifizierung“ muss von Richter:innen angeordnet werden, die auch Umfang und Dauer der Maßnahme absegnen müssen. Obwohl also prinzipiell alle gescannt werden, die durch das Kamerabild laufen, soll die Software nur nach einzelnen Menschen suchen.

Völlig unverändert: Staatstrojaner, Kennzeichenscan und Bodycams

Bei anderen Befugniserweiterungen hat sich nichts verändert.

Der Bodycam-Einsatz in Wohnungen soll weiterhin erlaubt werden. Auch der Einsatz von Staats­trojanern zur Gefahrenabwehr im Rahmen der Quellen-TKÜ soll möglich sein. Der Innenminister wollte zudem die verdeckte Online-Durchsuchung von Computern einführen, hat das aber nicht „durchgekriegt“, wie er bei der Presse­konferenz freimütig zugab. Auch die CDU-Fraktion macht Druck.

Nach wie vor ist das verdeckte automatisierte Scannen von Auto-Kennzeichen geplant. Diese Überwachungsmaßnahme soll in grenznahen Regionen erfolgen. Das Innenministerium begründet die Maßnahme explizit mit der Su­che nach Autodieben und gestohlenen Fahrzeugen. Der verdeckte Scan ist bis zu 30 Kilometer vor der Grenze zu Tschechien oder Polen erlaubt. Das entspricht etwa der Hälfte der Fläche Sach­sens.

Bei den Tasern gibt es einen Kompromiss. SPD- und BSW-Fraktion plädierten auf eine gestaffelte Einführung. Die Staatsregierung schafft nun zwar die Rechts­grundlage, um alle Polizist:innen damit auszustatten. Über die nächsten drei Jahre sollen allerdings nur 120 Stück angeschafft werden. Außerdem ist eine verpflichtende Evaluation im Jahr 2029 vorgesehen.

Minority Report und chinesische Verhältnisse

Auch wenn die Minderheitskoalition den Entwurf im Vergleich zur vorherigen Version in Details verändert hat, bleibt es bei einer massiven Erweiterung der Polizeibefugnisse. Der Dresdener Chaos Computer Club (C3D2) kriti­siert das: „Die Landesregierung will klassische Mittel der Strafverfolgung auf Landesebene einfüh­ren und verschiebt damit die rechtliche Grenze der behördlichen Befugnisse: Gefahrenabwehr ist Sache des Landes, Strafverfolgung des Bundes.“ Als Beispiel nennen sie die Staatstrojaner, deren Einsatz bundesweit durch die Strafprozessordnung geregelt ist.

Der Verein erinnert in seiner Mitteilung an dystopische Welten wie „Minority Report“, in denen Predictive-Policing die Unschuldsvermutung ersetzt. „Sicherheitsbehörden bauen derzeit solche Systeme aus, ungeachtet der juristischen Grenzen und gesellschaftlichen Folgen für die Demokratie und individuelle Freiheiten.“

Der C3D2 warnt insbesondere vor der Einführung ei­ner Plattform zur automatischen Datenanalyse. Diese sei „moderne Rasterfahndung mit Vorhersage­funktion“, so die Sprecherin weiter. „Ob es Palantir wird oder eine andere vergleichbare Lösung, ist letztendlich egal. Solche Systeme funktionieren in der Regel nur, wenn sie an möglichst viele Sensoren und Datenbanken an­geschlossen sind“, heißt es in der Mitteilung. Die Einführung einer solchen Software öffne die Büchse der Pandora.

„Der Chaos Computer Club sieht die Novelle des Sächsischen Polizeigesetzes als einen erneuten Angriff auf die informationelle Selbstbestimmung, die rechtsstaatlich gebotene Gewaltenteilung sowie als Gefahr für eine offene und demokratische Gesellschaft.“

Aus dem Landtag kommt die schärfste Reaktion von der Fraktion Bündnis 90/Die Grünen: „Der massive Einsatz von KI zu Überwachungszwecken, die intelligente Videoüberwachung und die Möglichkeit des Daten­abgriffs aus dem Internet sind keine Lappalien, sondern schwerwiegende Eingriffe in die Bürger­rechte aller Menschen in Sachsen“, sagte der innenpolitische Sprecher der Grünen-Fraktion, Va­lentin Lippmann. Er wiederholte seine Kritik aus dem Herbst, wonach sich der Entwurf eher an chinesischen Überwachungsfantasien orientiere als an dem Grundgesetz.

Grüne und Linke scheiden als Mehrheitsbeschaffer aus

Die Linksfraktion äußerte sich in einer ersten Mitteilung zurückhaltender und verwies darauf, den aktuellen Entwurf noch nicht zu kennen. In der Vergangenheit hatte auch sie die geplanten Befugnisse für die automatisierte Datenanalyse, verdeckte Kennzeichenerkennung und biometrische Suche im Internet zurückgewiesen.

Aufgrund der Mehrheitsverhältnisse im Landtag und die klare Ablehnung der Grünen ist die Positi­on der Linken für die Staatsregierung aber nicht entscheidend. Der schwarz-roten Minder­heitskoalition fehlen zehn Stimmen. AfD (40) und Bündnis Sahra Wagenknecht (15) können den Entwurf durch ihre alleinige Zustimmung über die Ziellinie bringen, Grüne (7) und Linke (6) müssten hingegen gemeinsam mit der Minderheitskoalition votieren.

AfD nicht konstruktiv, BSW sieht noch Änderungsbedarf

Eine Zusammenarbeit mit der AfD haben CDU und SPD in ihrem Koalitionsvertrag ausgeschlossen. Die AfD hat keine Stellungnahme im Konsultationsprozess abgegeben. Als einzig verbleibende Option bleibt der Koalition damit das BSW.

Dessen innenpolitischer Sprecher Bernd Rudolph kündigte Anpassungen im parlamentarischen Ver­fahren an. Besonders bei den Themen automatisierte Datenanalyse, Training von KI-Systemen mit Polizeidaten und Tasern sieht die BSW-Fraktion noch Änderungsbedarf. „Der vorliegende Gesetz-Entwurf enthält sinnvolle Modernisierungen, aber auch gefährliche Überdehnungen.“ Man wolle ein Polizeigesetz, das wirksam schützt, aber nicht überwacht.

Die Uhr tickt

Viel Zeit für Änderungen im Parlament bleibt indes nicht mehr. Wegen eines Urteils des Verfassungsge­richtshofs laufen einige Polizeibefugnisse aus dem aktuellen sächsischen Polizeigesetz bald aus. Grüne und Linke hatten gegen das Gesetz geklagt, der sächsische Verfassungsgerichtshof gab ihnen in Teilen recht und setzte für manche Polizeibefugnisse eine Frist: Bis zum 30. Juni braucht es eine neue Regelung, sonst laufen sie aus.

Den Fraktionen verbleiben damit noch gut vier Monate für den ge­samten parlamentarischen Prozess.

Grüne und Linke kritisie­ren die Regierung für den engen Zeitplan. Selbst Innenminister Schuster räumt ein, dass der Land­tag „jetzt nicht komfortabel“, aber ausreichend Zeit habe. Man habe das durchgerechnet, versicherte Schuster.

Geplant ist, das Gesetz am 24. Juni im Plenum zu beschließen. Damit das alles zeitlich klappt, wurde eine Sondersitzung des Innenausschusses angesetzt. Bereits am 27. März steht die Sachver­ständigenanhörung im Landtag an.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Niedersächsisches Polizeigesetz: Diese KI soll prüfen, ob du artig bist – und dich identifizieren, wenn nicht

Von: Martin Schwarzbeck

Niedersachsen folgt dem bundesweiten Trend in Richtung Sci-Fi-Überwachung. Im neuen Polizeigesetz sind neben der Datenanalyse nach Palantir-Art auch Verhaltensscanner und Live-Gesichtserkennung vorgesehen. Heute findet eine Anhörung im Innenausschuss zu dem massiven Überwachungsausbau statt.

Zwei Menschen bei einer Schlägerei, ihre Körper sind von bunten Strichmännchen überlagert.
So sieht es aus, wenn ein Verhaltensscanner analysiert, was Menschen tun. – Alle Rechte vorbehalten Polizeipräsidium Mannheim, Fraunhofer IOSB

Niedersachsen will der Polizei Datenanalyse nach Palantir-Art erlauben. Sie soll künftig Informationen zu verschiedenen Fällen verknüpfen und mit sogenannter KI aufbereiten können. In die Analyse dürfte auch einfließen, wer mit wem wann von wo aus kommuniziert. Außerdem der Inhalt von beschlagnahmten oder mit Staatstrojanern infizierten Telefonen sowie Audio- und Video-Material, das heimlich in Wohnungen aufgenommen wurde.

Die entsprechende Novelle des niedersächsischen Polizeigesetzes beinhaltet noch weitere tief invasive Überwachungsbefugnisse. Sie würde die polizeiliche Kontrolle in dem Bundesland drastisch verschärfen. Heute findet dazu eine Anhörung im Innenausschuss des Landtages statt.

Die Regierungskoalition aus SPD und Grünen hat dabei so ziemlich alles auf dem Wunschzettel, was nach futuristischer Polizeiarbeit klingt. Neben den Datenanalysen beispielsweise auch Live-Gesichtserkennung wie sie derzeit in Frankfurt am Main erprobt wird, oder den Verhaltensscanner, den Mannheim und Hamburg gerade trainieren. Zudem im Gesetz enthalten: der Abgleich biometrischer Daten wie Gesichtsbilder oder Stimmproben mit öffentlich zugänglichen Informationen aus dem Internet.

Unausgereifte Überwachungsmaßnahmen

Bislang wird eine derartige Gesichtersuchmaschine noch von keiner deutschen Behörde eingesetzt, wohl auch, weil der EU-AI-Act die dafür nötige Datenbank eigentlich verbietet. Auch der Verhaltensscanner ist noch nicht ausgereift. Die Mannheimer Polizei kann keinen einzigen Fall nennen, in dem er zu einem Ermittlungserfolg führte. Und die Frankfurter Gesichtserkennung hat bislang scheinbar nur einen anekdotischen Erfolg abgeworfen.

Niedersachsen will die Tools dennoch erlauben. Die Stadt Delmenhorst hat bereits angekündigt, KI-gestützte Videoüberwachung einführen zu wollen.

Laut Gesetzentwurf ist es auch nicht ausgeschlossen, die drei unterschiedlichen Systeme zusammenzuführen: Demnach ist es möglich, dass in Niedersachsen bald eine sogenannte KI die Bilder von Überwachungskameras in Echtzeit daraufhin untersucht, ob gerade eine mutmaßliche Straftat zu sehen ist, beispielsweise Körperverletzung oder ein Drogendeal. Wird eine vermutete Straftat gesichtet, könnte eine Software daraufhin die tatverdächtige Person identifizieren. Und zwar nicht nur mit Hilfe von Polizeidatenbanken, sondern auch anhand von Bildern oder Videos, die Menschen ins Netz gestellt haben, beispielsweise auf eine Social-Media-Plattform oder eine Nachrichtenseite.

Das in der Polizeigesetznovelle beschriebene multiple KI-System ermöglicht eine Strafverfolgung, die Polizeibeamt*innen eigentlich nur noch für die Festnahme braucht. Es gewährt der Technologie extremen Einfluss auf die Schicksale von Menschen. Betroffen von dem massiven Grundrechtseingriff, der damit einhergeht, sind nicht nur mutmaßliche Täter*innen, sondern alle Passant*innen, weil die KI alle Bewegungen und alle Gesichter analysiert, um die von der Polizei gesuchten herauszufiltern.

Die Hürden sind niedrig

Die Hürden für eine Videoüberwachung und darauf aufbauende KI-Systeme sind in Niedersachsen bereits heute relativ niedrig. Dass Kameras dauerhaft öffentlich zugängliche Straßen und Plätze filmen, ist dann erlaubt, wenn in einem Areal wiederholt Straftaten oder „nicht geringfügige Ordnungswidrigkeiten“ begangen werden. Das heißt, es braucht nicht wie in anderen Bundesländern eine hohe Kriminalitätsbelastung, sondern es reicht theoretisch, wenn dort wenige Fälle erfasst werden, damit ein Areal dauerhaft videoüberwacht werden kann. Bei der Videoüberwachung von Veranstaltungen reicht schon die Prognose möglicher Straftaten zur Legitimation.

Mit der Live-Gesichtserkennung dürfte die Polizei dem Gesetzentwurf zufolge nicht nur nach Straftätern fahnden, sondern auch nach Menschen, bei denen die Polizei annimmt, dass sie die körperliche Unversehrtheit anderer gefährden könnten. Zudem darf das System auch auf vermisste Personen sowie Opfer von sexueller Ausbeutung, Entführung oder Menschenhandel angesetzt werden. Normalerweise muss die Polizei jedes Mal einen Richter fragen, ob sie eine bestimmte Person zur automatisierten Fahndung ausschreiben darf, bei „Gefahr im Verzug“ allerdings nicht.

Der Verhaltensscanner dürfte derweil nicht nur Straftaten erkennen, sondern auch Muster, die auf Unglücksfälle hindeuten. Der Gesetzentwurf erlaubt also automatisierte Warnhinweise, wenn im Bild jemand liegt. Damit werden obdachlose Menschen einem erhöhten, diskriminierenden Überwachungsdruck ausgesetzt.

Verhaltens-Erkennung von der Drohne aus

Die Drastik des Polizeigesetz-Entwurfs wird noch dadurch erhöht, dass die Polizei demnach nicht nur stationäre Überwachungskameras, sondern auch Drohnen zur Videoüberwachung einsetzen darf. Diese Drohnen könnten dann auch Bilder für den Verhaltensscanner und die Live-Gesichtserkennung liefern. So könnten bei Großveranstaltungen auch Überblicksaufnahmen nach verdächtigen Bewegungsabläufen und den Gesichtern von Gesuchten durchforstet werden.

Eigentlich muss auf die Überwachung – beispielsweise mit Schildern – hingewiesen werden. Bei Drohneneinsätzen dürfte das schwierig sein, wodurch wohl viele Menschen ohne ihr Wissen zu Betroffenen derartiger Überwachungsmaßnahmen würden. Drohnen soll die niedersächsische Polizei künftig auch zum Luftkampf gegen andere, „feindliche“ Drohnen einsetzen dürfen, zur Telekommunikationsüberwachung und Standortermittlung und auch, um heimlich in Wohnungen zu filmen oder diese abzuhören.

Außerdem will die Landesregierung mit dem Gesetzentwurf Systeme erlauben, die in Videobildern nach bestimmten Gegenständen wie zum Beispiel Waffen suchen. Dabei ist das Land bislang mit der Erlaubnis von Staatstrojanern, Kennzeichenscannern, IMSI-Catchern zur Lokalisierung und Zuordnung von Telefonen, Bodycams für Polizist*innen und elektronischen Fußfesseln für potentielle Terrorist*innen alles andere als schwach aufgestellt, was digitale Maßnahmen zur Einschränkung von Grund- und Freiheitsrechten angeht.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Gesellschaft für Freiheitsrechte: Klage gegen zentrale Speicherung von Gesundheitsdaten geht weiter

Von: Daniel Leisegang

Beim Forschungsdatenzentrum Gesundheit sollen die Gesundheitsdaten aller gesetzlich Versicherten zusammenlaufen. Ein Gerichtsverfahren dagegen wird nun fortgesetzt. Dessen Ausgang könnte Pläne von Gesundheitsministerin Nina Warken durchkreuzen.

Zwei Menschen vor blauem Hintergrund
Karl Broich und Nina Warken auf der Pressekonferenz zur Eröffnung des Forschungsdatenzentrums Gesundheit im Oktober 2025. – Alle Rechte vorbehalten IMAGO / dts Nachrichtenagentur

Drei Jahre lang herrschte Stillstand. Nun geht ein Gerichtsverfahren weiter, das sich gegen die zentrale Speicherung von Gesundheitsdaten aller gesetzlich Versicherten im Forschungsdatenzentrum Gesundheit (FDZ) richtet.

Die Klage hatte die Gesellschaft für Freiheitsrechte (GFF) gemeinsam mit Constanze Kurz, netzpolitik.org-Redakteurin und Sprecherin des Chaos Computer Club (CCC), sowie einem weiteren anonymen Kläger im Mai 2022 eingereicht. Weil das FDZ aber jahrelang nicht arbeitsfähig war und kein IT-Sicherheitskonzept vorlegen konnte, ruhte das Verfahren seit Februar 2023. Im vergangenem Herbst wurde das FDZ offiziell eröffnet, weshalb die GFF das Verfahren nun nach eigenen Angaben fortsetzt und weitere Schriftsätze eingereicht hat.

Der Ausgang der Klage könnte weitreichende Folgen haben. Denn es geht um die Forschung mit Gesundheitsdaten, eine zentrale Säule der erst vor wenigen Wochen vorgestellten Digitalisierungsstrategie von Bundesgesundheitsministerin Nina Warken (CDU). Sollte das Gericht zugunsten der Klagenden entscheiden, könnten wichtige Vorhaben ihres Ministeriums ins Wanken geraten.

Kläger:innen fordern effektiven Widerspruch und besseren Schutz

Die Klagenden werden von dem Rechtswissenschaftler Matthias Bäcker vor dem Sozialgericht Berlin und dem Sozialgericht Frankfurt vertreten. Aus ihrer Sicht verstößt die zentrale Sammlung hochsensibler Gesundheitsinformationen beim FDZ zum einen gegen das Grundrecht der Versicherten, selbst über die eigenen Daten zu bestimmen, sowie gegen das Datenschutzrecht der Europäischen Union.

Zum anderen seien die gespeicherten Daten nicht ausreichend geschützt. Für deren Übermittlung werden nur Namen, Geburtstag und -monat der Versicherten entfernt. Ein von der GFF in Auftrag gegebenes Gutachten des Kryptographie-Professors Dominique Schröder kommt zu dem Schluss, dass eine solche Pseudonymisierung die Versicherten nicht ausreichend schützt. Durch den Abgleich mit anderen Datensätzen ließen sich Betroffene ohne großen Aufwand re-identifizieren.

Die GFF fordert daher für alle Versicherten ein „voraussetzungsloses Widerspruchsrecht“, dass ihre eigenen Gesundheitsdaten für Forschung und andere Zwecke weitergenutzt werden. „Gesundheitsdaten gehören zu den sensibelsten Informationen überhaupt und sind ein lukratives Ziel für Kriminelle“, sagt Jürgen Bering, Jurist bei der GFF. „Forschung darf daher nur unter ausreichenden Schutzmaßnahmen stattfinden.“

Auf dem Weg zu „einem der größten Daten-Hubs“

Gesundheitsministerin Warken sieht das Forschungsdatenzentrum als „Innovationsmotor“ der Gesundheitsforschung. Die Einrichtung ist beim Bundesamt für Arzneimittel und Medizinprodukte (BfArM) in Bonn angesiedelt. Seit 2022 werden dort Gesundheitsdaten zu allen gesetzlich Versicherten in einer zentralen Datenbank zusammengeführt und für die Dauer von bis zu 100 Jahren gespeichert. Forschende müssen sich bei diesem Zentrum registrieren, um mit den Daten arbeiten zu können.

Bislang übermitteln die gesetzlichen Krankenkassen nur die Abrechnungsdaten all ihrer Versicherten an das FDZ. Diese Daten geben Auskunft darüber, welche Leistungen die Versicherungen in Rechnung gestellt bekommen haben und mit welchen Diagnosen diese versehen sind.

Ab dem vierten Quartal dieses Jahres sollen dann nach und nach die Behandlungsdaten aus der elektronischen Patientenakte hinzukommen. BfArM-Chef Karl Broich geht davon aus, dass seine Behörde in zehn Jahren bundesweit „einer der großen Daten-Hubs“ ist.

„Gesundheitsdaten brauchen zwingend angemessene Sicherheitsmaßnahmen“

Sollte die GFF mit ihrer Klage Erfolg haben, könnte dieses Ziel verfehlt werden. Denn bislang ist vorgesehen, dass die ePA-Daten automatisch an das FDZ gehen – sofern Versicherte dem nicht aktiv widersprechen. Dieser Automatismus müsste dann möglicherweise einer aktiven Einwilligung der Versicherten weichen.

Aus Sicht der Klagenden wäre dies zu begrüßen. „Es wird höchste Zeit, dass das Verfahren fortgeführt wird“, sagt Constanze Kurz. „Denn es braucht Klarheit zur Sicherheit und zum Widerspruchsrecht, schon weil inzwischen der Kreis der nutzungsberechtigten Stellen ganz erheblich erweitert wurde.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Niedersächsisches Psychisch-Kranken-Hilfe-Gesetz: Wann Daten bei der Polizei landen können, sollen oder müssen

Von: Anna Biselli

Ein geplantes Gesetz zum Umgang mit psychisch erkrankten Menschen in Niedersachsen hatte viel Gegenwind bekommen. Nun hat die niedersächsische Landesregierung ihren Erstentwurf überarbeitet und Regeln zum Datenaustausch konkretisiert. Doch Fachleute wünschen sich weitere Anpassungen.

Ein Bild von Murmeln, der Großteil in Graustufen, nur ein dreieckiger Ausschnitt zeigt rot gefärbte Murmeln
Der Gesetzenwurf versucht, „unvorhersehbare“ Gefahren abzuschätzen. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Baibhav Kumar, Bearbeitung: netzpolitik.org

Im November 2024 hatte die rot-grüne niedersächsische Landesregierung sich auf ein neues Psychisch-Kranken-Gesetz geeinigt. Solche Gesetze gibt es in allen Bundesländern, sie regeln neben Hilfen für erkrankte Menschen unter anderem, wann sie unfreiwillig in eine psychiatrische Klinik eingewiesen werden können und welche Voraussetzungen für Zwangsmaßnahmen gelten. Die Details unterscheiden sich in den Ländern, Niedersachsen will nun – wie Hessen zuvor – in seinem neuen Gesetz regeln, wie und wann Daten zu Menschen sowohl mit Behörden als auch mit der Polizei ausgetauscht werden können.

Am Erstentwurf der Landesregierung gab es zahlreiche Kritik. Kliniken sollten dazu verpflichtet werden, Zwangseingewiesene dem zuständigen sozialpsychiatrischen Dienst und der örtlichen Polizeibehörde zu melden, „sofern der betroffene Mensch festgelegte Merkmale aufweist, die einen Verdacht für die Gefährdung Dritter vermuten lassen“.

Das mutmaßliche Gewaltrisiko sollte auf Basis einer öffentlichen Verwaltungsvorschrift ermittelt werden. Diese Regelung hat die Landesregierung nach einer Verbändeanhörung überarbeitet. Den neuen Entwurf hat sie mittlerweile in den niedersächsischen Landtag eingebracht.

Niedersachsens Gesundheitsminister Andreas Philippi (SPD) hatte betont: „Keinesfalls wollen wir ein Register für psychisch Kranke.“ Doch auch wenn der Register-Begriff von Politiker:innen mittlerweile nach zahlreicher öffentlicher Kritik gemieden wird, bleibt das Problem einer Datenerfassung über psychisch erkrankte Menschen bestehen.

Drei Stufen zur Datenübermittlung

Zu den Datenübermittlungen zwischen Kliniken, sozialpsychiatrischen Diensten und Polizei schreibt die Regierung im neuen Gesetzesentwurf: „Um die kritischen Stellungnahmen aus der Verbandsanhörung aufzugreifen, wurden diese Regelungen in einen gesonderten Paragraphen aufgenommen.“ Die seien „klarer strukturiert, die übermittlungsfähigen Daten konkret definiert und insbesondere die Kriterien für eine psychiatrische Gefährdungseinschätzung ausdrücklich im Gesetz festgelegt“.

Dabei herausgekommen ist ein dreistufiges Modell, nach dem Kliniken und sozialpsychiatrische Dienste Daten an die örtliche Polizei übermitteln können, sollen oder in der letzten Stufe müssen.

Die Kann-Vorschrift wird wirksam, wenn von einem Menschen ohne Behandlung „eine erhebliche Gefahr für das Leben, die Gesundheit oder andere hochrangige Rechtsgüter Dritter ausgehen könnte“ und erwartet wird, dass die Person sich nicht in eine als notwendig erachtete Behandlung begibt. Die Soll-Vorschrift kommt zum Tragen, wenn der entsprechende Mensch in den zwölf Monaten zuvor bereits „wegen erheblicher Fremdgefährdung untergebracht“ war. Und die Pflicht zur Datenübermittlung tritt in Kraft, wenn es zusätzlich im zurückliegenden Jahr „zu einer Schädigung Dritter“ gekommen ist. Eine Datenübermittlung kann jedoch, so sieht es der Entwurf vor, nicht nur in Richtung der Polizei, sondern auch umgekehrt von dieser zu Kliniken und sozialpsychiatrischen Diensten geschehen, etwa wenn die Zwangseinweisung auf einem „polizeilich aufgenommenen Sachverhalt“ basiert.

Der Entwurf versucht hier, die Datenübermittlung an nachvollziehbare und überprüfbare Bedingungen zu knüpfen. An anderer Stelle im Entwurf fehlt das, etwa wenn es darum geht, wann eine Person zwangseingewiesen werden kann. Denn das soll künftig nicht mehr – wie in der aktuellen Gesetzesfassung – bei akuter Selbst- oder Fremdgefährdung der Fall sein. Sondern auch, wenn eine Gefahr für Leib oder Leben Dritter „zwar unvorhersehbar, aber wegen besonderer Umstände des Einzelfalls jederzeit zu erwarten ist“. Eine Schwelle, die noch schwammig formuliert ist, etwa als „drohende“ Gefahr – ein Begriff, der in den letzten Jahren zunehmend Einzug in die Polizeigesetze gehalten und zu einer Vorverlagerung von Befugnissen geführt hat.

Der überwiegende Teil psychisch erkrankter Menschen hat kein höheres Gewaltpotenzial als Menschen ohne entsprechende Diagnosen. Das Risiko erhöhen können zwar Faktoren wie der Einfluss von Alkohol und anderen Substanzen oder teilweilse nicht angemessen behandelte psychotische Zustände. Fachleute weisen immer wieder darauf hin, dass Gewalt multifaktoriell ist. Sie fordern, dass auch andere Faktoren betrachtet werden müssen, wenn es zu Gewalttaten kommt. So schreibt etwa die Psychotherapeutenkammer Niedersachsen: „Gesamtgesellschaftlich muss Gewalt begünstigenden Faktoren ebenso begegnet werden, unter anderem durch Maßnahmen zum Abbau von Wohnungslosigkeit und verhältnispräventiven Maßnahmen im Bereich Suchtmittelkonsum.“

Besser, aber noch nicht ausreichend

Prof. Dr. Euphrosyne Gouzoulis-Mayfrank, Präsidentin der Deutschen Gesellschaft für Psychiatrie und Psychotherapie, Psychosomatik und Nervenheilkunde (DGPPN), begrüßt die Änderungen im überarbeiteten Gesetzesvorschlag. „Insgesamt ist der Entwurf deutlich verbessert, optimal ist er aber noch nicht“, so die Psychiaterin und Neurologin. Der Entwurf begrenze nun klarer, welche Informationen überhaupt weitergegeben werden dürfen. Im neuen Entwurf ist festgelegt, dass nur Daten zur Identifizierung einer Person und zur „Beschreibung der von ihm ausgehenden Gefahr“ übermittelt werden dürfen. „Daten zum Gesundheitszustand und zum Krankheitsbild des betroffenen Menschen, zum Behandlungsverlauf sowie zu Behandlungsinhalten dürfen nur weitergegeben werden, soweit dies zur Gefahrenabwehr erforderlich ist“, heißt es dort weiter.

Gouzoulis-Mayfrank wünscht sich hier eine noch klarere Formulierung, „dass dies nur bei ‚unabdingbarer‘ Notwendigkeit zulässig ist“. Denn auch wenn es eine Verbesserung darstelle: „Die abgestufte Regelung zur Weitergabe von Daten an die Polizei ist erkennbar ein politischer Kompromiss“, so Gouzoulis-Mayfrank. „Die Voraussetzungen sind enger als im ersten Entwurf, bleiben aus fachlicher Sicht aber hinter dem zurück, was wir für angemessen halten.“ Die Ärztin sieht die Gefahr, dass dennoch bei einer Gefährdungseinschätzung „mehr Informationen über die Erkrankungen preisgegeben werden, als zur konkreten Gefahrenabwehr zwingend erforderlich wären“.

Neben den Regeln zur Datenübermittlung enthält das niedersächsische Psychisch-Kranken-Gesetz, das nach der Änderung Psychisch-Kranken-Hilfe-Gesetz heißen soll, weitere Neuerungen. So sollen etwa die sozialpsychiatrischen Dienste, die Menschen mit psychischen Erkrankungen wohnortnah beraten und begleiten, gestärkt werden. Sie sollen etwa Stellen zur Krisenkoordination einrichten, die auch außerhalb regulärer Öffnungszeiten erreichbar sind.

Die sozialpsychiatrischen Dienste sollen auch an Fallkonferenzen teilnehmen, wenn sie selbst, eine behandelnde Klinik, die Wohnsitzgemeinde des betroffenen Menschen oder die Polizei von einem „erheblichen Fremdgefährdungspotenzial“ ausgehen. Nach Ansicht von Gouzoulis-Mayfrank sollten derartige Fallkonferenzen „nicht generell, sondern anlassbezogen und hochschwellig einberufen werden“. Die DGPPN-Präsidentin weist außerdem darauf hin, dass eine Begleitung durch die sozialpsychiatrischen Dienste einen wirksamen Präventionsbeitrag leisten könne. Die Dienste müssten dann jedoch finanziell und personell entsprechend ausgestattet sein.

„Ärztliche Schweigepflicht steht auf dem Spiel“

Der Vorstand des Vereins „Bundesarbeitsgemeinschaft Psychiatrie-Erfahrener“ hat sich nun, da der Entwurf im Landtag diskutiert wird, in einem offenen Brief an die Abgeordneten des niedersächsischen Landesparlaments gewandt. Der Verein engagiert sich für die Abschaffung von Zwangsmaßnahmen, kritisiert aber auch die geplanten Datenübermittlungsbefugnisse. Die neuen Regelungen würden „Betroffene diskriminieren, indem Krisen als Sicherheitsrisiko statt als Probleme im Leben durch die Polizei und Psychiatrie behandelt werden“. So stehe unter anderem das Vertrauen in die Medizin mit der Schweigepflicht auf dem Spiel, „ein Grundpfeiler jeder Behandlung“.

Der Grünen-Abgeordnete Nicolas Mülbrecht Breer ist Sprecher für Psychiatrie seiner Landtagsfraktion und begrüßt es, dass „sich die Eingaben der Fachwelt im überarbeiteten Entwurf des NPsychKHG wiederfinden“ würden. In einem Positionspapier zur Psychiatrie der niedersächsischen Grünen aus dem November 2025 heißt es unter anderem: „Keine zentrale Erfassung von Erkrankten, Einbindung von Sicherheitsbehörden nur in Einzelfällen“.

Mülbrecht Breer setzt auch im weiteren parlamentarischen Verfahren „auf eine konstruktive Zusammenarbeit mit den jeweiligen Akteur*innen“. Nachdem sich am 5. Februar der Gesundheitsausschuss zum ersten Mal mit dem geplanten Gesetz beschäftigt hat, soll am 16. April dazu eine Sachverständigenanhörung stattfinden. Ziel der rot-grünen Regierungskoalition ist erklärtermaßen, dass das Gesetz bis Juli dieses Jahres in Kraft treten soll.

Der Entwurf für eine Änderung des Landesgesetzes ist nicht die einzige Initiative Niedersachsens für mehr Datenaustausch zu psychisch erkrankten Menschen. Im Januar beschloss der Bundesrat einen Antrag auf Initiative des Landes, der die Bundesregierung auffordert, „insbesondere den Austausch von Gesundheitsdaten und den Erkenntnissen der Gefahrenabwehrbehörden unter datenschutzrechtlichen Vorgaben zu prüfen“ und Gesetze anzupassen. Es soll demnach eine bessere Vernetzung der „Erkenntnisse zwischen Sicherheits-, Gesundheits-, Waffen- und gegebenenfalls anderen relevanten Behörden“ geben.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

KI-gestützte Videoüberwachung: Bremen führt Verhaltensscanner im Nahverkehr ein

Von: Martin Schwarzbeck

Der Bremer ÖPNV plant KI-gestützte Videoüberwachung in allen Trams und Bussen. Auch die Polizei hat schon ein Auge auf die Technologie geworfen. Zunächst soll ihr aber heimliches Filmen mit Kameradrohnen erlaubt werden.

Eine Kuppelkamera an der Decke einer Bahn.
In Bremer Bahnen und Bussen wird die Videoüberwachung an eine KI angeschlossen (Symbolbild). – Alle Rechte vorbehalten IMAGO / Peter Endig

In Bremen läuft in 14 Tram-Bahnen KI-gestützte Videoüberwachung, ab April soll das System auf die übrigen Bahnen und Busse ausgerollt werden. Das haben die Verkehrsbetriebe (BSAG) vergangene Woche im Rahmen einer Projektvorstellung bekannt gemacht. Das System versucht zu erkennen, wie die abgebildeten Menschen handeln, um so aggressives Verhalten zu detektieren.

80 Prozent der Kosten von 10.000 Euro je Bahn zahlt das Bundesverkehrsministerium, das hier offenbar ein Leuchtturmprojekt sieht. Laut der Verkehrsbetriebe ist Bremen damit das erste Bundesland mit KI-Überwachung im öffentlichen Nahverkehr. Die Bremer Polizei hat ebenfalls Interesse an der Technologie angemeldet, die sie im öffentlichen Raum einsetzen möchte. Zahlreiche Bundesländer bohren dafür gerade ihre Polizeigesetze auf.

Die für die KI-Analyse nötige Videoüberwachung stünde in Bremen bereit. An 40 Standorten wird der öffentliche Raum mit Kameras kontrolliert. Doch die Bremer Polizei wird noch warten müssen. Am Mittwoch soll eine Novelle des Polizeigesetzes in der Bremischen Bürgerschaft debattiert werden. Die Erlaubnis, Verhaltensscanner zu nutzen, beinhaltet sie nicht. Dafür erlaubt der Gesetzentwurf der Polizei aber den heimlichen Einsatz von Videodrohnen.

Bremer Polizei soll heimlich Überwachungsdrohnen einsetzen

Die Überwachung mit Videodrohnen soll in drei Stufen stattfinden: Livestream zur Lagebeurteilung, Aufzeichnung, verdeckter Einsatz – mit jeweils immer höheren Eingriffsschwellen. Dem verdeckten Einsatz muss beispielsweise ein Richter zustimmen – außer es liegt eine Gefahr für „Leib, Leben oder Freiheit“ einer Person vor. Dann darf die Polizei auch freihändig agieren.

Die Entwicklung ist besonders interessant, da Bremen seit 2007 von einer Koalition aus SPD, Grünen und Linken regiert wird, die sich eigentlich ein besonders liberales Polizeigesetz gegeben hatte. In Bremen kann man etwa nach einer Polizeikontrolle eine Quittung verlangen, die den Grund für die Kontrolle verrät und die Polizist*innen im Land tragen eine individuelle Kennzeichnung.

Nun folgt also auch dieses Land zumindest ein Stück weit dem bundesweiten Trend zur Verschärfung der Polizeigesetze. So soll beispielsweise mit dem neuen Polizeigesetz ein Satz wegfallen, der Zivilpolizist*innen im Rahmen einer Maßnahme dazu verpflichtet, sich unaufgefordert auszuweisen.

Präventiver Einsatz von elektronischen Fußfesseln

Primär geht es in dem Entwurf um den Schutz von Opfern häuslicher Gewalt. Dazu soll der Aufenthaltsort der Täter*innen mit elektronischen Fußfesseln überwacht werden. Nach dem „Spanischen Modell“ sollen sich auch die Opfer freiwillig überwachen lassen können, um bei einer Annäherung des Täters gewarnt zu werden.

Das GPS-Tracking darf nicht nur gegen Ausübende häuslicher Gewalt eingesetzt werden, sondern auch gegen Menschen, denen die Polizei zutraut, dass sie einen Terroranschlag begehen. Der Einsatz ist präventiv möglich, ohne dass es vorher zu einer Straftat gekommen sein muss.

Mit dem neuen Polizeigesetz will Bremen auch die Hürden für Videoüberwachung des öffentlichen Raums senken. Während bislang noch eine erhöhte Kriminalitätsbelastung nötig ist, damit ein bestimmtes Areal überwacht werden kann, soll es künftig reichen, dass die örtlichen Verhältnisse Straftaten erwartbar machen. Dann reicht die Annahme, dass dort irgendwann mal etwas passiert, um ein Areal zu überwachen. Das bringt die Legitimation der Videoüberwachung von einer faktischen, zahlenbasierten Grundlage in die freihändige Einschätzung der zuständigen Polizeikräfte.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇GNU/Linux.ch

Die Naivität der Gutgläubigen

Von: Lioh Möller
Sind wir in Zeiten in denen wir alles in Frage stellen müssen zu gutgläubig? Und wie können wir dennoch unseren Werten treu bleiben wenn uns Vertrauen wichtig ist?

✇GNU/Linux.ch

Zum Wochenende: Wenn die Welt zu schwierig wird

Von: Ralf Hersel
Die zunehmende Komplexität des Lebens befördert Schwurbler und Populisten. Warum das so ist, und wie man dem entgegentritt, lest ihr in diesem Artikel zum Wochenende.

✇netzpolitik.org

Digitale Gewalt: „Hass im Netz führt dazu, dass Frauen eher leise auftreten“

Von: Chris Köver

In ihrem neuen Buch „Feindbild Frau“ zeigt Ingrid Brodnig, wie Politiker*innen auf die systematischen Bedrohungen und Beleidigungen reagieren, die sie im Netz erleben. Im Interview spricht sie über dickes Fell, Durchsetzungslücken und Doppelstandards, die es Frauen schwer machen, sich dagegen zu wehren.

Mensch steht mit gekreuzten Armen vor einer Wand
Es ist leicht, ein dickes Fell einzufordern, wenn man nicht weiß, was Frauen im Netz erleben, sagt Journalistin Ingrid Brodnig. – Alle Rechte vorbehalten Gianmaria GAva

Ingrid Brodnig beobachtet seit Jahren die Debattenkultur im Netz, wenn man diese so bezeichnen kann. Die österreichische Journalistin hat sich spezialisiert auf Bücher und Beiträge zu Falschinformationen und digitaler Gewalt. Während der Corona-Pandemie galt sie als gefragte Expertin, um Verschwörungstheorien rund um die Pandemie einzuordnen. Noch länger beschäftigt sich Brodnig mit dem, was oftmals unter „Hass im Netz“ gefasst wird: Hetzkampagnen, gezielten Bedrohungen und Beleidigungen im digitalen Raum, die oft unterhalb der Schwelle zur Straftat liegen und doch große Wirkung entfalten.

Sechs Sachbücher hat Brodnig bislang veröffentlicht – unter anderem zu den Auswirkungen des Onlineseins auf die Gesellschaft, Falschnachrichten, Anonymität und zur Macht der großen Plattformen. Jetzt folgt ein weiteres. Für die Recherche hat sie mit Abgeordneten und Politikerinnen aus Deutschland und Österreich über ihre Erfahrungen mit Alltagsgewalt im Internet gesprochen, darunter Renate Künast und Anke Domscheit-Berg.

„Eine substanzielle Aufarbeitung erfolgt kaum“

netzpolitik.org: Dass Politikerinnen im Netz besonders häufig bedroht und massiv beleidigt werden, ist kein neues Phänomen. Warum greifen Sie das Thema erneut auf?

Ingrid Brodnig: Wir sehen diese Fälle in den Medien. Da geht es jedes Jahr um eine andere Person: Renate Künast, Ricarda Lang, Heidi Reichinnek. Eine substanzielle Aufarbeitung erfolgt aber kaum.

Wir beschäftigen uns kurz damit und freuen uns, dass Renate Künast einen juristischen Erfolg erzielt. Aber die Geschichte endet ja damit nicht.Ich wollte von den Politikerinnen erfahren: Wie erfahren sie die Anfeindungen? Und welche wiederkehrenden Muster lassen sich darin erkennen?

netzpolitik.org: Was haben Sie erfahren?

Ingrid Brodnig: Ich mache das an einem Beispiel fest. Vor ein paar Jahren gab es eine schreckliche Massenvergewaltigung in einem Bus in Indien, die Frau starb. Zu dieser Zeit schrieb jemand auf Twitter einer Politikerin, er würde ihr gerne eine Busfahrt durch Indien spendieren.

Das ist eine verklausulierte Vergewaltigungsdrohung, die aus juristischer Sicht womöglich nicht als Vergewaltigungsdrohung eingestuft wird. Denn es wird keine Absicht formuliert im Sinne von: „Ich werde dich vergewaltigen.“ Die Frau sagte dazu: Es macht keinen Unterschied, ob das verklausuliert ist oder nicht, der Effekt ist der gleiche. Das reicht bis hin zu körperlichen Folgen, Herzzustände, Schlaflosigkeit, Zittern plötzlich vor einem TV-Auftritt.

netzpolitik.org: Sie wollen, dass die Menschen so mehr über die Folgen der Gewalt erfahren?

Ingrid Brodnig: Es gibt ein großes Bewusstsein dafür, dass Hass im Netz gegen Frauen existiert, aber die Debatte verpufft schnell an dieser Erkenntnis. Wenn man diese digitale Gewalt genauer beschreibt, dann wird viel klarer, was die Betroffenen erleben und was es auslöst.

„Es ist schlimmer geworden in den vergangenen 10 Jahren“

netzpolitik.org: Sie haben bereits vor zehn Jahren ein Buch mit dem Titel “Hass im Netz” geschrieben, das sich auch mit der Gewalt gegen Politikerinnen befasst. Was hat sich seitdem verändert?

Ingrid Brodnig: Es ist schlimmer geworden. Ich habe zur Vorbereitung das alte Buch nochmal zur Hand genommen und gemerkt: Vieles darin würde ich heute nicht einmal mehr zitieren, weil es mir zu harmlos erscheint.

Es gab eine Verrohung und auch Zermürbung in diesen zehn Jahren. Wir haben uns als Gesellschaft an vieles gewöhnt. Was vor zehn Jahren noch für eine aufgeregte Offline-Debatte gesorgt hätte, empfinden wir heute schon als Business as Usual.

Gleichzeitig haben auch die Plattformen wesentliche Rückschritte gemacht. Dort konnte man eine Phase des Einlenkens beobachten, speziell nach der US-Präsidentschaftswahl im Jahr 2016. Damals wurde klar, wie stark Facebook und andere Plattformen für Propaganda genutzt wurden. Auch die EU schaute streng auf die Plattformen.

Dieser Eindruck ist mit der Wiederwahl von Donald Trump komplett gekippt. Meta hat seine Richtlinien in vielen Punkten aufgeweicht. Formen der Beleidigung und Herabwürdigung gegen Frauen oder LGBTIQ-Personen sind jetzt explizit erlaubt. Man darf LGBTIQ-Personen auf Facebook und Instagram jetzt als “psychisch krank oder anormal” bezeichnen.

„Frausein an sich ist eine Gefahr“

netzpolitik.org: Sie schreiben, die Erfahrungen dieser Politiker*innen seien für sie ein Symbol für den Zustand der Demokratie. Was meinen sie damit?

Ingrid Brodnig: Ich habe zehn Typen von wiederkehrenden geschlechtsspezifischen Beleidigungen und Bedrohungen herausgearbeitet. Ein Typus besteht in der Abwertung, die auf einer sexuellen Verwertungslogik basiert. Das wäre so ein Kommentar wie: “Niemand will dich ficken.” Frauen stehen also besonders im Fokus.

Politikerinnen sind Frauen und sie sind sehr sichtbar. Beides ist eine Gefahrensituation im Internet. Mit Sichtbarkeit steigt die Wahrscheinlichkeit, dass Communitys auf mich aufmerksam werden, die für gänzlich andere Werte eintreten oder an mir ein Exempel statuieren wollen.

Und Frausein an sich ist eine Gefahr, weil wir eine sehr starke maskulinistische Szene im Netz haben, deren Mitglieder moderne, selbstbewusste Frauen als zentrales Problem ansehen.

Demokratie baut darauf auf, dass die unterschiedlichsten Bevölkerungsgruppen gleichwertig an der politischen Debatte teilhaben können. Das wurde hart erkämpft. Ich glaube, dass derzeit die Gefahr besteht, dass wir hier auf verschiedenen Ebenen Rückschritte machen.

netzpolitik.org: Ein gängiger Einwand lautet, wer in der Öffentlichkeit steht, müsse eben mehr aushalten, auch wenn es mal unfair zugeht.

Ingrid Brodnig: Renate Künast sagte zu mir, als Politikerin hätten die meisten ein bisschen Hornhaut auf der Seele. Für ihr Team seien die Hasskommentare gegen sie anfangs schwerer auszuhalten gewesen als für sie selbst.

Mir macht das Sorge, wenn Menschen in öffentlichen Debatten in einer Demokratie Hornhaut auf der Seele brauchen, um hier überhaupt mitmachen zu können. Es ist immer leichter, eine solche dicke Haut einzufordern, wenn man nicht weiß, was Menschen erleben. Und bei Frauen ist der Verdacht natürlich besonders groß, dass sie einfach zu feinfühlig seien.

Das fehlt beim Schutz vor digitaler Gewalt

netzpolitik.org: Ziehen Frauen sich tatsächlich schneller zurück nach solchen Erfahrungen?

Ingrid Brodnig: Hass im Netz führt tatsächlich dazu, dass Frauen eher leise auftreten oder gar verstummen. 42 Prozent der Frauen, die hasserfüllte Kommentare erhalten, werden vorsichtiger beim Formulieren ihrer Meinung. Bei Männern sind es 16 Prozent, ergab eine norwegische Studie. Das ist ein demokratisches Alarmsignal!

Aber das bedeutet nicht, das Frauen zu schwach sind. Alle Geschlechter erleben digitale Gewalt. Und in jedem einzelnen Fall ist das falsch.

Bei Frauen gibt es allerdings diese spezielle sexualisierte Komponente. Und die hat zum einen eine besonders einschüchternde Wirkung. Zum anderen bekommen Frauen von klein auf gesagt, sie müssten sich vor Gefahren schützen. Es ist oft Teil ihrer Sozialisation, dass sie lernen, den Raum lieber zu verlassen, als zu riskieren, dass die Situation sich weiter zuspitzt.

„Wir haben eine Zweiklassensituation“

netzpolitik.org: In Deutschland wird seit Jahren über Ansätze debattiert, um die Rechte von Betroffene zu stärken. Das Bundesjustizministerium arbeitet an einem „digitalen Gewaltschutzgesetz“. Betroffene sollen damit leichter auf dem Privatklageweg erfahren, wer hinter einem anonymen Account steckt. Was halten Sie davon?

Ingrid Brodnig: Das erscheint mir sinnvoll. Derzeit sind sehr häufig die Kosten einer Privatklage ein hohes Hindernis. Wir haben eine Zweiklassensituation, wo diejenigen, die es sich leisten können, leichter gegen digitale Gewalt vorgehen können als andere. Alles, was dazu beiträgt, das Kostenhindernis zu verringern, ist gut.

netzpolitik.org: Die Pläne für das Gesetz sehen außerdem vor, dass Accounts künftig nach wiederholten Rechtsverletzungen per Gerichtsbeschluss gesperrt werden. Ist das angemessen?

Ingrid Brodnig: Wir müssen eine Lösung finden für Personen, die fortwährend andere Menschen verletzen oder falsche Informationen verbreiten. Wir müssen dann aber auch die Frage nach der Resozialisierung stellen. Wann wird einem Menschen beispielsweise wieder zugesprochen, dass er oder sie wieder posten darf? Bei vielen dieser Nachschärfungen gilt: Der Teufel liegt im Detail. Es bleibt Feinstarbeit.

„Die EU präsentiert sich gerne als Champions der digitalen Grundrechte“

netzpolitik.org: Auf EU-Ebene soll seit 2024 der Digital Services Act die Rechte von Nutzer*innen auf den großen Plattformen stärken. Meta, TikTok und Co. müssen etwa Meldeverfahren anbieten, die “leicht zugänglich und benutzerfreundlich” sind. Hat das zu einer Verbesserung beigetragen?

Ingrid Brodnig: Ohne den Digital Services Act wären wir derzeit sicher schlechter dran in Zeiten, in denen die großen Tech-Plattformen den Schulterschluss mit der Trump-Regierung üben. Der DSA ermöglicht es, hohe Geldbußen zu verhängen, wenn Unternehmen systemisch Risiken ignorieren oder Meldefunktionen fehlen. Aber diese Regeln müssen auch durchgesetzt werden. Bisher gab es aber nur eine negative Entscheidung aus Sicht der Plattformen, nämlich die 120 Millionen Euro Geldbuße für X.

Die EU-Kommission und die EU als Ganzes präsentieren sich gerne als Champions der digitalen Grundrechte. Und auf dem Papier hat die EU auch gute Regeln geschaffen. Aber erst die nächsten ein, zwei Jahre werden zeigen, ob sie dieses Versprechen auch einlöst. Ob ich genügend geschützt werde, wenn Falsches über mich verbreitet wird, wenn ich fertig gemacht werde, wenn ich eingeschränkt werde.

Kann die EU-Kommission die großen Plattformen kontrollieren? Kann sie potenziell rechtswidrige Kommentare auch ernsthaft und rasch prüfen? Und kann sie genügend gegen systemische Risiken unternehmen? An all diesen Fragen wird sich zeigen, wie mutig und selbstbewusst die EU auftritt – auch und gerade gegen die Konzerne in den USA.

„Jede einzelne Anzeige, die leichter erfolgt, ist schon ein Fortschritt“

netzpolitik.org: Was könnte die Bundesregierung konkret tun, um die von Ihnen beschriebene Gewalt einzudämmen?

Ingrid Brodnig: Ich sehe einige konkrete Stellschrauben. Deutschland kann als Staat einige Rechtslücken schließen oder bürokratische Hürden nehmen. Zum Beispiel die Kostenreduktion. Oder auch bildbasierte digitale Gewalt stärker ahnden, zum Beispiel sexualisierte Deepfakes. Das löst das Problem nicht als Ganzes. Aber jede einzelne Anzeige, die leichter erfolgt, ist schon ein Fortschritt. Und die Regierung muss auf europäischer Ebene den Druck erhöhen, damit die eigentlich sinnvollen Regeln auch umgesetzt werden.

netzpolitik.org: Was können Einzelpersonen in dieser Situation beitragen?

Ingrid Brodnig: In der Tat, es gibt eine dritte Ebene: die Persönliche. Ich habe auch mit der Psychotherapeutin und Psychologin Dorothee Scholz gesprochen, die mit Betroffenen digitaler Gewalt zusammenarbeitet. Aus ihrer Sicht kann es die Weltwahrnehmung sehr verändern, wenn Menschen den ganzen Tag nur Hasskommentare lesen.

Das heißt aber auch: Ich kann den Betroffenen solcher Vorfälle schreiben – öffentlich oder privat – und ihnen sagen: Das hast du nicht verdient, lass dich nicht unterkriegen oder du leistest wichtige Arbeit. Auch das hilft.

Feindbild Frau. Wie Politikerinnen im Netz bedroht, beleidigt und verdrängt werden – und was wir alle dagegen tun können“ von Ingrid Brodnig erscheint am 25. Februar 2026 im Brandstätter Verlag. Die Autorin hält am 23.2. und am 16.3. Lesungen in Wien sowie am 26.2. eine Lesung in Berlin.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

❌