🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
✇netzpolitik.org

FinTech und Datenschutz: PayPal sammelt die sexuellen Vorlieben von Kunden

Von: Martin Schwarzbeck

PayPal ist im Frühjahr ins Werbegeschäft eingestiegen. Der Finanzdienstleister hortet umfangreiche persönliche Informationen über Menschen, die ihn nutzen, und stellt solche Daten Werbetreibenden zur Verfügung. Ein juristisches Gutachten zeigt nun, dass das illegal ist.

Schauspieler Will Ferrell steht auf einem Flohmakrt vor einem Jungen und hält eine Actionfigur in der Hand.
Schauspieler Will Ferrell nutzt PayPal angeblich sogar auf dem Flohmarkt – weil er seine Daten bei dem Unternehmen sicher verwahrt glaubt, so eine Werbekampagne. – Alle Rechte vorbehalten Screenshot aus PayPal-Werbevideo

Mit Paypal kann man jetzt auch in Geschäften zahlen – und sogar auf dem Flohmarkt, wie Schauspieler Will Ferrell in einer Werbekampagne zeigt. In der deutschen Version sagt er zu einem kleinen Jungen, der ihn beim Kauf einer Actionfigur über den Tisch zieht: „Wenigstens meine Daten sind sicher vor euch Abzockern.“ Doch die Aussage ist nicht wahr.

Die Finanztransaktionsplattform PayPal positioniert sich in einer Werbekampagne als Alternative zum Bargeld. Dabei gibt es einen drastischen Unterschied zwischen beiden Zahlungsmitteln. Bargeld wird zwar auch getrackt, aber die Daten, die Paypal erhebt – und an Werbetreibende verkauft – sind viel umfassender als nur die Info, welche Summe von wo nach wo wandert.

Das Netzwerk Datenschutzexpertise hat die Datenschutzpraxis von Paypal im Rahmen eines juristischen Gutachtens untersucht und kommt zu einem vernichtenden Ergebnis. Das Unternehmen erfasst, was du zu welchem Preis kaufst, von welchem Unternehmen du es erwirbst, und wohin du es liefern lässt. Es speichert Standortdaten, die Liste der Apps auf deinem Telefon, welches Gerät und welchen Browser du benutzt und welche Websites du besuchst.

PayPal speichert teils sogar die sexuelle Orientierung

Das Unternehmen erlaubt sich laut Datenschutzerklärung auch, deinen Fingerabdruck zu erfassen, dein Einkommen, deine Telefon- und Steuernummer, deinen Beruf, dein Alter, dein Geschlecht, deine Kreditwürdigkeit und deine finanzielle Situation. In dem Datensatz, den der Konzern über dich anlegt, sind – so die Datenschutzerklärung – womöglich auch religiöse Überzeugungen, politische oder philosophische Ansichten, Behinderungen und die sexuelle Orientierung vermerkt, sowie „Daten aus den von Ihnen verknüpften Drittkonten“.

PayPal kann laut dem Gutachten extrem sensible Informationen sammeln, weil auch Zahlungen an Gesundheitseinrichtungen oder Anwält*innen, sowie Spenden an politische Parteien und religiöse Institutionen über die Plattform abgewickelt werden. PayPal speichert die Daten, so lange das Konto existiert und zehn Jahre darüber hinaus.

Seit dem Frühjahr ist PayPal auch im Werbe-Business

Paypal ist im Internet das populärste Zahlungsmittel. Im Frühjahr 2025 – kurz vor dem Start der Webekampagne mit Will Ferrell – ist der Konzern auch ins Werbegeschäft eingestiegen. Er nutzt dabei Zahlungsdaten, um Werbung zu personalisieren.

Das Netzwerk Datenschutzexpertise schreibt in seinem Gutachten: „Die hohe Aussagekraft der Finanztransaktionsdaten begründet ein hohes Nutzungs- und auch ein hohes Missbrauchspotenzial“. So sei damit beispielsweise manipulative Werbung möglich und auch eine diskriminierende Preisgestaltung.

Dabei muss Zahlungsverkehr in Deutschland und Europa eigentlich anonym ablaufen. Ausnahmen von der Regel sind nur erlaubt, wenn sie eindeutig nötig und gut begründet sind.

PayPal speichert sensible Daten ohne explizite Einwilligung

Laut des Gutachtens informiert PayPal seine Kund*innen nicht hinreichend darüber, wofür, an wen und auf welcher Rechtsgrundlage Daten weitergegeben werden und speichert die Daten unerlaubt lange. Zudem geht das Unternehmen davon aus, dass Menschen mit der Nutzung des Dienstes in die Datenverarbeitung einwilligen. Dabei muss diese Einwilligung – spätestens, wenn es um sensitive Daten, Marketing- und Werbezwecke oder die Weitergabe von Daten geht – tatsächlich bewusst, informiert, genau definiert und unabhängig von der Verfügbarkeit des Dienstes gegeben werden, um rechtmäßig zu sein. Die Kund*innen müssen wissen, wozu sie da eigentlich zustimmen.

Der Konzern bietet Unternehmen die personenbezogenen Informationen laut dem Gutachten in aggregierter Form an. Die Firmen können dann über PayPal auf Webseiten, Apps und Smart-TVs Werbung platzieren, die angeblich die Zielgruppe sehr genau erreicht. Auch der direkte Verkauf der Daten an Werbefirmen war zumindest mal geplant. Über die aktuelle Umsetzung dieses Projekts in Europa ist dem Netzwerk Datenschutzexpertise nichts bekannt.

Einen Teil der Informationen sammelt PayPal angeblich, um betrügerische Kontozugriffe zu verhindern. Im August 2025 waren die Anmeldedaten zu 15 Millionen PayPal-Konten im Darknet aufgetaucht, woraufhin die Zahl der Betrugsversuche massiv in die Höhe ging.

Die Liste der Datenempfänger umfasst 600 Unternehmen

PayPal behält sich vor, die erfassten Daten weiterzugeben, beispielsweise an Behörden, andere Finanzinstitute, Inkassobüros, Auftragsverarbeiter und Partnerunternehmen. Eine Liste mit möglichen Datenempfängern umfasst 600 Firmen aus vielen Staaten der Welt.

Die Datenschutzerklärung, die 7.000 Wörter umfasst, lässt „nicht erkennen, mit welchen Daten auf welcher Rechtsgrundlage welche Zwecke verfolgt werden“, so das Netzwerk Datenschutzanalyse. Problematisch sei, dass sowohl die Kategorien der Daten als auch die Arten der Verarbeitung nur beispielhaft und nicht abschließend aufgeführt werden.

Auch die AGB seien ausgesprochen nutzerunfreundlich. Sie umfassen 17 Dokumente, wobei für Kund*innen nicht ersichtlich sei, welche für sie relevant sind. Hinzu kommen 20.000 Wörter Nutzungsbedingungen ohne Inhaltsverzeichnis. Mit der Eröffnung eines Kontos erklären sich Nutzer*innen mit all diesen Bedingungen einverstanden.

So widerspricht man der Datennutzung zu Werbezwecken

Die Nutzung der Daten zu Werbezwecken ist in PayPal-Konten voreingestellt. Wer das abschalten möchte, muss auf der Website erst auf „Daten und Datenschutz“ und dann auf „personalisierte Angebote und Werbung“ klicken. Dort lässt sich ein Regler zwischen einem grauen und einem schwarzen Feld hin- und herbewegen. Welche die datenschutzfreundliche Option ist, wird nicht erklärt. Mit Entwicklertools lässt sich im Browser allerdings die Antwort von PayPal auf verschiedene Einstellungen auslesen. Regler links, Feld grau hinterlegt, gibt als Response: DENY_CONSENT. Diese Einstellung verweigert also wohl die Zustimmung zur Werbenutzung. Der mögliche Opt-Out steht im Widerspruch zur Datenschutzgrundverordnung, wonach die Voreinstellung eine möglichst geringe Datenverarbeitung („Privacy by Default“) vorsehen muss.

Als besonders problematisch sieht das Netzwerk Datenschutzexpertise, dass die personenbezogenen Daten auch nach außerhalb der EU übermittelt werden. Der Hauptsitz von PayPal ist in den USA, dort sind die Daten deutlich schlechter geschützt als in Europa. Zudem ist das Unternehmen gezwungen, Daten an US-Behörden herauszugeben, wenn diese sie anfordern.

Die Datenschutzexpert*innen sehen ihre Analyse der Datenschutzpraxis von PayPal nur als exemplarischen Fall. „Es ist zu vermuten, dass die bei PayPal festgestellten Mängel in ähnlicher Form bei anderen Unternehmen in diesem Bereich bestehen“, schreiben sie. BigTech-Unternehmen würden zunehmend versuchen, auf Finanztransaktionsdaten zuzugreifen, um diese mit Daten aus anderen Anwendungen zu kombinieren und kommerziell zu nutzen. Deshalb fordern die Datenschutz-Expert*innen, die Nutzung von Finanzdaten für Werbezwecke generell zu verbieten.

Laut Heise Online prüft Paypal das Gutachten derzeit. Es lässt sich wie folgt zitieren: „Die Einhaltung der EU-Datenschutzanforderungen ist für uns sowohl für die Entwicklung als auch den Betrieb unserer Produkte von zentraler Bedeutung, um ein qualitativ hochwertiges Erlebnis und Sicherheit im Zahlungsverkehr für unsere Kund:innen sicherzustellen.“

Update, 13.12.2025, 14.08 Uhr: Erklärung hinzugefügt, welche Reglerstellung die Nutzung von Daten für Werbung untersagt.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Neues Polizeigesetz: Berlin wirft die Freiheit weg

Von: Martin Schwarzbeck

Heute wurde in Berlin eine Novelle des Polizeigesetzes verabschiedet. Sie erlaubt so ziemlich alles, was an digitaler Überwachung möglich ist: Verhaltensscanner, Gesichtersuche, Palantir-artige Datenanalysen, Staatstrojaner. Ein Kommentar.

Eine Stabkamera mit Beleuchtung.
Auf Demonstrationen (wie hier am 1. Mai) filmt die Berliner Polizei bereits fleißig mit. Künftig darf sie auch festinstallierte Kameras betreiben, die Bilder per KI auswerten und vieles mehr. – Alle Rechte vorbehalten IMAGO / Achille Abboud

Die Schulen sind marode, die Wohnungen knapp und die Brücken brechen bald zusammen. Um Berlin steht es lausig. Doch statt diese täglich spürbaren Probleme anzugehen, wirft die Berliner Landesregierung ohne Not die legendäre freiheitlich orientierte Ausrichtung der Stadt auf den Müll.

Es wirkt wie hektischer Aktionismus, was die schwarz-rote Koalition sich da ins Polizeigesetz zusammenkopiert hat. Als wolle man anderen Bundesländern, die derartige Maßnahmen bereits erlaubt haben, in nichts nachstehen. Heute hat Berlin eine Sicherheitsarchitektur aufgesetzt, die in dieser Stadt lange undenkbar war. Es ist ein Tabubruch, eine Zeitenwende, was da im Abgeordnetenhaus beschlossen wurde.

Bislang durfte die Berliner Polizei den öffentlichen Raum nicht dauerhaft überwachen – und jetzt sollen in manchen Gebieten nicht nur Kameras aufgestellt, sondern diese auch gleich noch an sogenannte Künstliche Intelligenzen angeschlossen werden. Auch Videoüberwachung mit Drohnen ist für die Berliner Polizei künftig explizit erlaubt.

Verhaltensscanner und Gesichtersuchmaschine

Die geplante Kamera-KI soll automatisch erkennen, was die Überwachten gerade tun. Diese Verhaltensscanner werden aktuell in Mannheim und in Hamburg getestet und sind noch weit von einem sinnvollen Praxiseinsatz entfernt. Die Begehrlichkeiten von sicherheitsfanatischen Politiker*innen haben sie anscheinend bereits geweckt.

Die ersten dieser Kameras werden wohl im und um den Görlitzer Park errichtet. Dieses beliebte Erholungsgebiet, in dem traditionell auch Rauschmittel gehandelt werden, hat von Berlins Ober-Sheriff Kai Wegner, CDU, bereits einen Zaun spendiert bekommen, es ist künftig nur noch tagsüber geöffnet. Sollte die Kamera-KI dann dort jemanden erkennen, der jemand anderem etwas zusteckt, folgt vermutlich der Zugriff durch die Polizei. Auch wenn es sich bei dem klandestin übergebenen Objekt um beispielsweise Verhütungs- oder Hygieneartikel handeln sollte. Das Gefühl von Freiheit, das auch von diesem Park aus einst den Ruhm Berlins begründete, vertrocknet unter dem starren Blick der „intelligenten“ Kameras.

Entdeckt die Berliner Polizei auf den Videobildern einen Menschen, den sie gerne näher begutachten möchte, kann sie künftig zudem das Internet nach Bildern durchsuchen, die dem Menschen ähnlich sind, um ihn zu identifizieren oder mehr über ihn zu erfahren. Dafür muss die Person nicht einmal einer Straftat oder deren Vorbereitung verdächtig sein, es reicht, Kontakt mit jemandem zu haben, der verdächtig ist.

Big-Data-Analyse und Staatstrojaner

Die Informationen, wer mit wem hantierte und welches Insta-Profil zu welchem Gesicht gehört, darf in einer Superdatenbank mit Bewegungsprofilen, Verhaltensmustern und Sozialkontaktanalysen gespeichert werden. Mit den dort beinhalteten Bildern, Videos und anderen personenbezogenen Daten kann dann auch eine kommerzielle KI trainiert werden, wie sie beispielsweise Palantir verkauft.

Und wenn sich eine verdächtige Person besonders undurchsichtig zeigt, gibt es in Berlin künftig immer noch die Möglichkeit, per Staatstrojaner ihren Telefonspeicher und die laufende Kommunikation auszulesen. Um solche Schadsoftware zu installieren, darf die Berliner Polizei dann auch heimlich in Wohnungen einbrechen.

Halleluja. Schöne neue Welt.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Instagram, Whatsapp, Facebook: Meta hört bald zu, wenn du dich mit der KI unterhältst

Von: Martin Schwarzbeck · Paula Clamor

Tech-Gigant Meta will Daten, die Nutzer*innen in seinen Chatbot eingeben, künftig auslesen und speichern. Damit sollen Anzeigen treffsicherer personalisiert werden. Es gibt nur einen Weg, sich der Datensammlung zu entziehen.

Eine Hand hält ein Handy, auf dem der Meta Chatbot aktiv ist, vor ein Meta AI Logo
Unterhaltungen mit dem Meta-Chatbot sind nicht privat – Alle Rechte vorbehalten IMAGO / NurPhoto

Den Meta-Chatbot können Menschen über Instagram, Whatsapp und Facebook ansprechen. Laut Meta nutzen ihn monatlich mehr als eine Milliarde Menschen. Viele davon teilen intime Informationen mit der Software.

Die Gespräche, die Menschen mit der sogenannten Künstlichen Intelligenz führen, will Meta künftig auslesen und speichern. Damit sollen Anzeigen treffsicherer personalisiert werden und die Daten sollen auch beeinflussen, welche Posts Nutzer*innen in den Sozialen Netzwerken angezeigt bekommen. Das erklärte Meta gestern in einem Blogpost. Der Konzern behält sich dabei vor, die Informationen aus den Gesprächen in allen seinen Produkten zu nutzen.

Ein Beispiel nannte der Konzern direkt: Wer sich mit der KI etwa übers Wandern unterhalte, bekomme danach womöglich Empfehlungen für Wandergruppen, Wanderstrecken von Bekannten und Werbung für Wanderschuhe angezeigt.

Auch sensible Konversationen werden ausgelesen

Meta gibt zwar an, sensible Konversationen über religiöse Ansichten, die sexuelle Orientierung, politische Meinungen, Gesundheit und ethnische Herkunft nicht für personalisierte Werbung nutzen zu wollen, die Daten werden aber dennoch mit ausgelesen.

Die neue Regelung will Meta ab dem 16. Dezember umsetzen, allerdings zunächst nicht in der EU und Großbritannien. Dort solle das Feature später ausgerollt werden, weil die hiesigen Datenschutzbestimmungen strenger seien. Für das KI-Training werden die Chatprotokolle in Europa wohl schon genutzt.

Seit Juni ist bereits bekannt, dass Meta mit Hilfe von KI Anzeigen erstellen will. Werbetreibende müssen dann nur ein Produktbild und ein Budget vorgeben. Meta möchte durch diese Investitionen die größte Einnahmequelle Werbung noch rentabler machen. Hier bieten sich auch Spielräume für individuelle Personalisierung von Anzeigen – anhand der mit dem Chatbot erhobenen Daten.

Nutzer*innen teilten unbewusst Chatprotokolle

Meta hat den Chatbot für seine Messenger erst vor wenigen Monaten in Europa eingeführt. Er stand schon mehrfach in der Kritik, etwa weil ihm erlaubt war, „sinnliche“ und „romantische“ Konversationen mit Minderjährigen zu führen. Ein anderes Mal, weil viele Nutzer*innen ihre teils sehr persönlichen Chatprotokolle scheinbar unbewusst veröffentlicht hatten.

Die Nutzer*innen können einstellen, in welchem Ausmaß die ihnen ausgespielte Werbung personalisiert werden soll, aber es gibt keine Möglichkeit, sich gegen die Datenerfassung zur Personalisierung zu wehren – außer, den Chatbot nicht zu nutzen. In Whatsapp kann es allerdings sein, dass andere Nutzer*innen ihn zu einer Konversation hinzuziehen. Das lässt sich mit der Funktion „erweiterter Chat-Datenschutz“ verhindern. Oder mit dem Verzicht auf die datensammelwütige App zugunsten von datensparsamen Alternativen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Neues Polizeigesetz in Berlin: „Abkehr von der grundrechtsfreundlichen Politik“

Von: Markus Reuter · Martin Schwarzbeck

Die schwarz-rote Berliner Landesregierung bastelt an einem neuen Polizeigesetz, das mehr Videoüberwachung, Staatstrojaner und viele weitere Befugnisse für die Polizei bereit hält. Dafür gab es massive Kritik – sowohl auf der Straße als auch bei der parlamentarischen Anhörung.

Zwei Polizeifahrzeuge, Sonnenuntergang, im Hintergrund der Fernsehturm.
Nach dem Willen von CDU und SPD soll die Berliner Polizei massiv mit neuen Befugnissen ausgestattet werden. – Alle Rechte vorbehalten IMAGO / A. Friedrichs

Die Berliner schwarz-rote Koalition will ein neues Polizeigesetz beschließen, das in Berlin unter dem Namen Allgemeines Sicherheits- und Ordnungsgesetz (ASOG) firmiert. Berlin folgt damit einer ganzen Reihe von Bundesländern, die ihre Polizeigesetze in den letzten Jahren verschärft haben. An der Berliner Gesetzesnovelle gibt es breite Kritik sowohl von der demokratischen Opposition im Parlament wie auch von der Berliner Datenschutzbeauftragten und Menschenrechtsorganisationen wie der GFF.

Anlässlich der Sachverständigenanhörung am Montag protestieren vor dem Roten Rathaus Lilly und Kiki. Sie verteilen Flyer mit der Aufschrift „Nein zu Massenüberwachung und der Kriminalisierung von Protesten“. Sie sind Teil eines Bündnisses zivilgesellschaftlicher Gruppen wie Amnesty International oder dem Komitee für Grundrechte und Demokratie.

„Überall werden Gelder gekürzt, aber für Videoüberwachung ist dann plötzlich Geld da. Dabei verhindert die keine Straftaten, sondern kriminalisiert marginalisierte Gruppen und spaltet den öffentlichen Raum“, sagt Lilly. Dass die Unverletzlichkeit der Wohnung durch die Gesetzesnovelle eingeschränkt wird, sehen die beiden ebenso kritisch.

„Abkehr von der grundrechtsfreundlichen Politik“

Auch in der Sachverständigen-Anhörung hagelt es Kritik für den Entwurf. So sieht die Berliner Datenschutzbeauftragte Meike Kamp eine Vielzahl neuer Datenverarbeitungsermächtigungen und eine erhebliche Ausweitung der Befugnisse der Polizei. Aufgrund der Detailtiefe – die Gesetzesnovelle ist 700 Seiten stark – habe ihre Behörde nicht einmal alle Vorschriften analysieren können.

Das Volumen der geplanten Änderungen kritisiert auch Innenpolitiker Niklas Schrader von der Linken. Denn so umfangreich wie der Gesetzentwurf sei auch der Überarbeitungsbedarf: „Ich bin mir nicht sicher, ob das in dem kurzen Zeitplan, den Sie uns gegeben haben, schaffbar ist“, sagt er bei der Anhörung.

Eine „Abkehr von der grundrechtsfreundlichen Politik“ in Berlin beklagte der Jurist David Werdermann von der GFF sowohl in seiner Stellungnahme (PDF) wie auch in der Anhörung. Zwar versuche der Entwurf die Rechtsprechung des Bundesverfassungsgerichts nachzuzeichnen, das gelinge allerdings nicht immer.

Ein Hauptkritikfeld an dem Gesetz ist laut Werdermann das Festhalten am Konstrukt der „krininalitätsbelasteten Orte“. An diesen dürfen in Zukunft nicht nur anlasslose Kontrollen durchgeführt werden, sondern auch Videoüberwachungsmaßnahmen. Das Gesetz erlaube zudem die Videoüberwachung von öffentlichen Veranstaltungen und die Auswertung des Videomaterials mit sogenannter KI. Werdermann warnt hier vor einem höheren Überwachungsdruck auf Menschen mit atypischen Verhalten wie beispielsweise Wohnungslosen oder Personen mit körperlichen Einschränkungen.

Berliner Senat will Verhaltenscanner gegen Bevölkerung einsetzen

Kritik hat die GFF auch am Einsatz von Staatstrojanern und daran, dass die Polizeibehörden in Zukunft heimlich Wohnungen betreten dürfen, um diese zu installieren. „Ich habe da große Bauchschmerzen mit“, sagt Werdermann. Insgesamt wird durch das neue ASOG die Schwelle zum Einsatz der Staatstrojaner und zur Überwachung von Wohnungen deutlich herabgesetzt.

Ebenso kritisch sieht Werdermann den nachträglichen biometrischen Abgleich mit öffentlich zugänglichen Daten: „Jedes Foto, das möglicherweise ohne das Wissen und Einverständnis der betroffenen Person ins Netz gestellt wird, kann zu Überwachungszwecken genutzt werden“, sagt Werdermann. Es sei nach der neuen Gesetzeslage nicht mehr möglich, an einer Versammlung teilzunehmen, ohne damit rechnen zu müssen, dass Fotos, die beispielsweise von der Presse veröffentlicht werden, anschließend von der Polizei für einen Abgleich genutzt würden.

„Freifahrtschein für Massenüberwachung“

„Die Vorschrift schließt zudem weder den Aufbau einer biometrischen Referenzdatenbanken auf Vorrat noch die Nutzung von kommerziellen Datenbanken aus“, schreibt Werdermann in seiner Stellungnahme. Beides sei jedoch mit der KI-Verordnung und dem Recht auf informationelle Selbstbestimmung nicht vereinbar.

Werdermann verweist in der Stellungnahme darauf, dass der Aufbau einer umfassenden biometrischen Referenzdatenbank – bestehend aus öffentlich zugänglichen Lichtbildern, Videos und Tonaufnahmen aus dem Internet – unverhältnismäßig in Grundrechte eingreift. Das Bundesverfassungsgericht habe mehrfach herausgestellt, dass biometrische Daten besonders schutzwürdig seien. „Durch den Aufbau einer Datenbank, um biometrische Daten vorzuhalten, wären Grundrechte von Millionen, wenn nicht Milliarden von unbeteiligten Personen betroffen, die keinen Anlass für polizeiliche Überwachung gegeben haben“, so Werdermann weiter.

Sachverständige bei Anhörung.
Von Seiten der Sachverständigen gab es teilweise massive Kritik. - CC-BY-SA 4.0 Martin Schwarzbeck / netzpolitik.org

Statt konsequent gegen rechtswidrige Angebote wie PimEyes vorzugehen, schaffe der Senat mit dem Entwurf eine Grundlage für biometrische Massenüberwachung durch die Berliner Polizei, schreibt Werdermann. Diese kritisiert auch die grüne Innenpolitikerin Gollaleh Ahmadi. Sie sieht in der Gesetzesnovelle einen „Freifahrtschein für Massenüberwachung“.

Berlins Datenschutzbeauftragte Meike Kamp kritisiert auch die Verarbeitung von Daten zum Training von KI-Systemen. Hier dürfe zuviel Material ohne Eingriffsschwelle und Löschfristen genutzt werden, sie gehe zudem davon aus, dass auch nicht-anonymisierte Klardaten verarbeitet würden. Daten, die einmal zum Training von Künstlicher Intelligenz genutzt wurden, ließen sich nicht mehr löschen, betont Kamp. Zudem vermute sie, dass solche Daten auch in automatisierten Analyseplattformen landen, deren Nutzung der Berliner Polizei künftig erlaubt sein soll. Zu solchen Plattformen gehört auch die Software „Gotham“ vom umstrittenen US-Unternehmen Palantir.

Präventive Funkzellenabfrage

Ebenso zu wenig geregelt seien die Funkzellenabfragen, wo die Eingriffsschwellen zu niedrig seien. Hier sei auch davon auszugehen, dass Funkzellendaten für KI-Training genutzt werden. „Durch die Verknüpfung der erhobenen Daten mit automatisierten Analyseplattformen lassen sich detaillierte Bewegungsprofile erstellen. Dies ermöglicht Rückschlüsse auf politische Aktivitäten, soziale Beziehungen und persönliche Gewohnheiten der Betroffenen“, schreibt die Berliner Datenschutzbeauftragte in ihrer Stellungnahme (PDF).

Der grüne Innenpolitiker Vasili Franco kritisiert, dass die Funkzellenabfragen in Zukunft auch gegen Personen gerichtet sein können, die nur vermutlich an einer Straftat teilnehmen werden. Damit verschiebt das neue Polizeigesetz die Funkzellenabfragen von der nachträglichen Ermittlung in den präventiven Raum.

Sowohl Sachverständige wie auch Oppositionspolitiker:innen verwiesen in der Anhörung darauf, dass man das verschärfte Polizeigesetz auch vor dem Hintergrund des Rechtsrucks sehen müsse – und dass man damit einer möglichen autoritären Regierung Werkzeuge in die Hand gebe.


Dokumente


Stellungnahmen von Sachverständigen zur Novelle des Berliner ASOG

 


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Neues Polizeigesetz: Berliner Senat will Verhaltenscanner gegen Bevölkerung einsetzen

Von: Martin Schwarzbeck

Siegeszug eines futuristischen Überwachungswerkzeugs: Die Überwachungs-KI, die in Mannheim und Hamburg das Verhalten von Passant*innen scannt, soll jetzt auch in Berlin zum Einsatz kommen. Das bestätigte der Berliner Senat heute in einer Anhörung im Innenausschuss.

Eine Menschenmenge im Görlitzer Park in Berlin
KI soll künftig dabei helfen, den Görlitzer Park zu überwachen. – Alle Rechte vorbehalten IMAGO / Jürgen Held

Diese Software erkennt, was du tust. Sie bestimmt anhand von Videobildern, was auf dem überwachten Areal gerade passiert. Sie untersucht, ob jemand steht, sitzt, kniet, läuft, rennt, tanzt, taumelt, liegt, kämpft, würgt, etwas trägt, zieht oder schiebt, Fahrrad- und Roller fährt, eine andere Person umarmt oder festhält. Und in Zukunft soll die Liste noch erweitert werden.

Die Technologie ist in Mannheim seit sieben Jahren und in Hamburg seit Anfang September im testweisen Einsatz und noch fern davon, wirklich praktischen Nutzen zu entfalten. Weiterhin müssen Menschen die Bildschirme kontrollieren und die Alarme der KI werden hauptsächlich zu ihrer Weiterentwicklung genutzt, so die Mannheimer Polizei auf netzpolitik.org-Anfrage.

Dennoch zieht das System deutschlandweit das Begehren zahlreicher Kommunen auf sich. Berlin will sich ebenfalls der Runde der testenden Städte anschließen, das bekannte der Senat gerade in einer Anhörung des Innenausschusses. Dort hieß es mit Bezug auf Mannheim und Hamburg: „Wir hoffen, in das Kooperationsprojekt einsteigen zu können, um das System mit den anderen Partnern zu entwickeln.“

KI-Kameras am Görlitzer Park

Dabei bieten die beteiligten Städte nur die Testumgebung und die Laborratten – meist arglose Passant*innen der Überwachungskameras. Entwickelt wird das System vom Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung. Dieses hat auch das alleinige Recht zur kommerziellen Vermarktung der Verhaltenserkennungs-KI, sich allerdings dazu bereit erklärt, vorläufig noch darauf zu verzichten.

Nach dem neuen Berliner Polizeigesetz, das unter anderem die rechtliche Grundlage für das KI-Training liefern und noch dieses Jahr im Abgeordnetenhaus beschlossen werden soll, kann die KI mit verschiedenen Arten von Videobildern gefüttert werden. Vor allem wären da Bilder von Überwachungskameras, die Berlin künftig an sogenannten kriminalitätsbelasteten Orten – wie zum Beispiel dem Görlitzer Park – erlauben will. Dazu können aber auch Videos von öffentlichen Veranstaltungen und Ansammlungen und Aufnahmen von gefährdeten Gebäuden und Objekten, sowie Übersichtsaufnahmen zur Vorbereitung, Lenkung und Leitung von Einsätzen, wie sie aktuell aus Hubschraubern und künftig auch aus Drohnen aufgenommen werden können, per Algorithmus nach bestimmten Verhaltensmustern durchsucht werden dürfen.

„Die Gefahr ist nicht von der Hand zu weisen, dass dann große Teile der Berliner Innenstadt nicht mehr unüberwacht passiert werden können“, sagte Meike Kamp, Berliner Datenschutzbeauftragte bei der Sachverständigenanhörung im Berliner Abgeordnetenhaus. David Werdermann, Jurist von der Gesellschaft für Freiheitsrechte (GFF) fügte hinzu: „Es ist zu befürchten, dass Menschen, die sich atypisch im öffentlichen Raum verhalten – wie wohnungslose oder körperlich eingeschränkte – von der Software als gefährlich erkannt werden und damit erhöhtem Überwachungsdruck ausgesetzt sind.“

„Lieber einmal zuviel“

Die Polizeipräsidentin Barbara Slowik Meisel verteidigte den geplanten KI-Einsatz. Ihr Hauptargument: Effizienz. Die Aufgaben der Polizei würden wachsen, während die Nachwuchsgewinnung schwierig sei. „Ohne technologische Unterstützung werden wir die Sicherheit der Stadt nur noch immer begrenzter gewährleisten können.“ Deshalb wünsche sie sich das „Mannheimer System“, „das bestimmte Szenarien erkennt um dann Internventionskräfte zu alarmieren. Das ist deutlich ressourcenschonender.“

Dabei übersieht Slowik Meisel, dass die Technologie in Mannheim aktuell keinerlei Arbeitserleichterung bringt, sondern eher Kräfte bindet. Slowik Meisel würde die KI zudem so kalibrieren, dass sie viele falschpositive Ergebnisse liefern, die dann gegebenenfalls zu erhöhtem Arbeitsaufwand und Überwachungsdruck auf Unschuldige führen. „Lieber kommen wir einmal zu viel, wenn das System zu schnell anschlägt, als einmal zu wenig“, sagte sie.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

KW 39: Die Woche, in der Trump die Antifa zur Terrorgruppe erklärte

Von: Martin Schwarzbeck

Die 39. Kalenderwoche geht zu Ende. Wir haben 12 neue Texte mit insgesamt 90.167 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

– Fraktal, generiert mit MandelBrowser von Tomasz Śmigielski

Liebe Leser*innen,

jetzt bin ich also Terrorist. Zumindest laut Donald Trump. Der hat nämlich diese Woche „die Antifa“ in den USA als terroristische Organisation eingestuft. Ungarns Ministerpräsident Viktor Orbán hat bereits angekündigt, dass dies auch in seinem Land gelten soll. Das niederländische Parlament will auf Antrag von Geert Wilders eine entsprechende Einstufung prüfen. Die AfD-Co-Vorsitzende Alice Weidel forderte sie 2024 auch für Deutschland.

Trump schwadroniert davon, dass die Antifa eine Organisation sei. Aber Antifa ist keine Organisation, schon gar keine nationale. Antifa ist eine internationale Bewegung, die alle umfasst, die sich gegen Faschismus einsetzen – antifaschistisch eben. Faschismus bezeichnet etwa nationalistische Bewegungen, die autoritäre Regimes errichten wollen, die nach innen Minderheiten verfolgen und nach außen militaristische Strategien.

Trump, Orbán und Weidel eint mindestens die nationalistische Orientierung und der Kampf gegen Minderheiten. Wohl deshalb sehen sie „die Antifa“ als Feind. Anti-Demokrat*innen haben in der Vergangenheit immer wieder gezeigt, dass sie am liebsten alle aus dem Weg schaffen würden, die sich ihren autoritären Träumen in den Weg stellen.

Antifa, das sind nicht nur die schwarzvermummten Demospitzen. Jeder Mensch, der Demokratie und Rechtsstaat liebt, sollte Antifa sein und sich dem aufkeimenden Faschismus entgegenstellen. 1932, vor 93 Jahren, gründeten Menschen die Antifaschistische Aktion, weil sie die Gräuel der Nazis vor deren Machtergreifung vorausahnten. Sie wollten den Aufstieg des Faschismus verhindern.

Antifa, das waren die Geschwister Scholl, die US-amerikanischen Soldaten, die in der Normandie landeten, und die Menschen, die Verfolgte versteckten und unterstützten. Antifa ist heute das Bundesverfassungsgericht, wenn es Grundrechte hochhält. Antifa ist nach Selbstaussage auch der Verfassungsschutz Niedersachsen und Antifa sind alle Menschen, die auf Anti-Nazi-Demos gehen. Antifa bin auch ich – weil ich verhindern will, dass den Rechtsextremen, falls sie an die Macht kommen, ein hochentwickelter Überwachungsapparat schlüsselfertig ausgehändigt wird.

Ich kämpfe gegen Videoüberwachung, Netzsperren und all die anderen Kontrollwerkzeuge nicht zuletzt deshalb, weil ich autoritären und totalitären Bestrebungen die Waffen nehmen oder gar nicht in die Hand geben will, die diese zur Kontrolle und Gleichschaltung der Bevölkerung benötigen. Weil ich eine offene und freie Gesellschaft will.

Was die historischen Nazis an Leid über die Welt gebracht haben, ist unfassbar. Das darf sich niemals wiederholen. Deshalb bin ich Antifaschist, deshalb bin ich Antifa.

Martin


Demonstrationen: Wie Lärmschutz die Versammlungsfreiheit beschränkt

Immer wieder machen Polizeien bei Demonstrationen Auflagen zur Lautstärke. Das greift tief in die Grundrechte ein. Die Berliner Polizei argumentiert neuerdings mit dem Arbeitsschutz der eingesetzten Polizisten, um Demos leiser zu drehen. Von Markus Reuter –
Artikel lesen

Ägyptischer Aktivist und Blogger: Alaa Abd el-Fattah begnadigt

Nach sechs Jahren Haft wird der prominenteste politische Gefangene Ägyptens begnadigt. Seit Jahren kämpfen seine Familie und eine internationale Kampagne für die Freilassung. Von Markus Reuter –
Artikel lesen

Opt-Out-Anleitung: So verhinderst du, dass LinkedIn mit deinen Daten KI trainiert

Das Karrierenetzwerk LinkedIn will mit Nutzer*innendaten generative KI-Werkzeuge trainieren. Wir zeigen, wie man das dem Unternehmen verbieten kann. Von Martin Schwarzbeck –
Artikel lesen

Automatisierte Datenanalyse: Palantir-Gesetze missachten Vorgaben aus Karlsruhe

Bundes- und Landesdatenschützer üben Kritik am Palantir-Einsatz und den Gesetzen, die automatisierte Polizeidatenanalysen erlauben. Sie verlangen eine verfassungskonforme Neuausrichtung. Jetzt sei der Moment gekommen, einen digital souveränen Weg einzuschlagen. Von Constanze –
Artikel lesen

Datenarbeiter:innen: Mit vereinten Kräften gegen die Ausbeutung durch Big Tech

In Berlin trafen sich vergangene Woche Arbeitskräfte zur Vernetzung, die für den Erfolg von KI-Anwendungen und Sozialen Medien unverzichtbar sind. Sie streiten für bessere Arbeitsbedingungen und fordern Politik und Gewerkschaften auf, sich endlich ihrer Sache anzuschließen. Von Ingo Dachwitz –
Artikel lesen

Internes Protokoll: Dänemark will Chatkontrolle durchdrücken

Dänemark will die Chatkontrolle in drei Wochen durchdrücken. Am Gesetz ändert die Ratspräsidentschaft nichts, stattdessen sollen Staaten ihre Meinung ändern. Die Position Deutschlands ist maßgeblich. Darüber entscheidet Innenminister Dobrindt. Wir veröffentlichen das eingestufte Verhandlungsprotokoll. Von Andre Meister –
Artikel lesen

Digital Networks Act: Kleine Anbieter, große Sorgen

Mit dem geplanten Digital Networks Act könnte sich der europäische Telekommarkt verändern – und die Wahlfreiheit für Verbraucher:innen stark schrumpfen. Vor allem kleine Netzbetreiber fürchten, dass manche in den Raum gestellte Regeln die Monopole stärken könnten. Von Tomas Rudl –
Artikel lesen

Geplante Gesetzesänderung: Baden-Württemberg will Hürden für Videoüberwachung senken

Seit sieben Jahren bereits wird in Mannheim Videoüberwachung mit automatisierter Verhaltenserkennung getestet. Nun will Baden-Württemberg die Hürden für die Installation von Kameras senken. Der Verfassungsschutz soll künftig auf private Aufnahmen zugreifen dürfen. Von Martin Schwarzbeck –
Artikel lesen

Bundesamt für Migration und Flüchtlinge: Asylbehörde liest kaum noch Datenträger aus

Nur noch in wenigen hundert Fällen las das BAMF in den letzten Monaten die Smartphones Geflüchteter aus. Das ist ein markanter Rückgang zu den fünfstelligen Zahlen aus früheren Jahren. Offenbar ist bei der Asylbehörde angekommen, dass der aufwändige und grundrechtsfeindliche Eingriff nichts bringt. Von Anna Biselli –
Artikel lesen

Stuttgart: Bündnis plant Demonstration gegen Palantir-Einsatz

Die Rasterfahndungssoftware von Palantir beschäftigt die Menschen in Baden-Württemberg. In Stuttgart drängt der Protest gegen die Software und den Trump-Getreuen Peter Thiel Anfang Oktober auf die Straße. Ein Bündnis will verhindern, dass die umstrittene Software bei der Polizei eingesetzt wird. Von Markus Reuter –
Artikel lesen

TikTok goes MAGA: Trumps TikTok-Deal ist ein Geschenk an ihn selbst

Donald Trump gibt TikTok in die Hände seiner treuen Milliardärs-Fans. Ellison, Murdoch & Co. bekommen so Zugang zu 170 Millionen US-Handys. Für die US-Öffentlichkeit heißt das: noch mehr Propaganda, noch weniger Vielfalt. Ein Kommentar. Von Chris Köver –
Artikel lesen

Neues aus dem Fernsehrat (113): Hass und Zusammenhalt

Erik Tuchtfeld ist der neue Vertreter des Internets im ZDF-Fernsehrat. In seiner ersten Sitzung ging es gleich um die großen Themen: Pressefreiheit, Demokratie und gesellschaftlichen Zusammenhalt. Von Erik Tuchtfeld –
Artikel lesen


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Geplante Gesetzesänderung: Baden-Württemberg will Hürden für Videoüberwachung senken

Von: Martin Schwarzbeck

Seit sieben Jahren bereits wird in Mannheim Videoüberwachung mit automatisierter Verhaltenserkennung getestet. Nun will Baden-Württemberg die Hürden für die Installation von Kameras senken. Der Verfassungsschutz soll künftig auf private Aufnahmen zugreifen dürfen.

Zwei Kameras an einem Mast vor einer Fassade
Videokameras in Mannheim. Allein hier betreibt die Polizei bereits 70 Stück. Nun soll die Videoüberwachung in Baden-Württemberg vereinfacht werden. – Public Domain Martin Schwarzbeck

Die grün-schwarze Landesregierung von Baden-Württemberg will mit einer Novelle des Landesdatenschutzgesetzes den Aufbau und Betrieb von Videoüberwachungssystemen erleichtern. Gleichzeitig sollen Behörden Bilder bis zu zwei Monate lang speichern dürfen.

Die Gesetzesänderung würde die sogenannte „Vorrangprüfung“ erleichtern und entsprechende Hürden senken. Gleichzeitig wird dabei dem Schutz von Leben und Gesundheit eine Art absoluter Wert zugeschrieben. Sie gelten künftig als „besonders wichtiges öffentliches Interesse“. Der Schutz der Privatsphäre wird in der Abwägung demnach häufig hintangestellt werden.

Vermutlich steht die geplante Gesetzesänderung auch im Zusammenhang mit dem Test von Verhaltenserkennungssoftware, der im baden-württembergischen Mannheim seit sieben Jahren läuft. Dort kommt es immer wieder vor, dass Areale, die die Stadt gerne überwachen würde, nicht oder nicht mehr als besonders kriminalitätsbelastet eingestuft sind. Das macht die Videoüberwachung nach geltendem Recht unmöglich.

Viele Kommunen wollen Videoüberwachung

Baden-Württembergs Innenminister Thomas Strobl (CDU) ist ein Fan der KI-gestützten Videoüberwachung. Er sagte bei der Vorstellung des Gesetzesbündels, dass sich viele Kommunen eine juristische Vereinfachung des Aufbaus von Videoüberwachungsanlagen gewünscht hätten. Demnach ist davon auszugehen, dass die Zahl der überwachten Areale in Baden-Württemberg künftig deutlich steigen wird.

In Heilbronn etwa ging im September dieses Jahres eine Videoüberwachungsanlage an den Start. Es gab jedoch Kritik daran, dass nach aktueller Gesetzeslage der Marktplatz nur zu bestimmten kriminalitätsintensiven Uhrzeiten überwacht werden darf. Auch war eine Ausweitung auf weitere Räume im Gespräch, die aber eben nicht dem Kriterium eines besonders kriminalitätsbelasteten Ortes genügten.

Zusammen mit der vereinfachten Videoüberwachung will die baden-württembergische Landesregierung dem Verfassungsschutz Zugriff auf private Kamerastreams gewähren. Damit könnte der Geheimdienst etwa Tiefgaragen oder Shoppingcenter videoüberwachen, ohne eigene Systeme aufbauen zu müssen. Ähnliches ist auch in Berlin geplant.

Update, 25.9.2025, 12.30 Uhr: Reihenfolge der Koalitionspartner korrigiert.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Opt-Out-Anleitung: So verhinderst du, dass LinkedIn mit deinen Daten KI trainiert

Von: Martin Schwarzbeck

Das Karrierenetzwerk LinkedIn will mit Nutzer*innendaten generative KI-Werkzeuge trainieren. Wir zeigen, wie man das dem Unternehmen verbieten kann.

Auf einem Telefon ist die LinkedIn-App angezeigt.
Die Erlaubnis zum KI-Training ist bei LinkedIn voreingestellt. – Alle Rechte vorbehalten IMAGO / Zoonar

Was steht im Lebenslauf, wer postet was, wer sucht schon wie lange einen Job? Die Social-Media-Plattform LinkedIn hat sehr aufschlussreiche Informationen über ihre Nutzer*innen. Normalerweise lässt sich einstellen, wer was sehen darf, aber eine Nutzerin bekommt demnächst Zugang zu vielen vorhandenen Datensätzen: die hauseigene Künstliche Intelligenz, die automatisiert Inhalte erstellen soll. Die wird ab dem 3. November mit Informationen der Nutzer*innen gefüttert.

Nicht zu diesen Informationen gehören laut einer Infoseite private Nachrichten oder Inhalte von minderjährigen Nutzenden. Wer volljährig ist und das KI-Training deaktivieren möchte, muss jetzt tätig werden. Dem Unternehmen diese Verwendung der eigenen Daten zu verbieten, geht so: Wer sich mit einem Browser in seinen Account einloggt, findet auf der Profilseite ganz unten den Link zu „Konto und Datenschutz verwalten“. Dort, in den Profileinstellungen, gibt es den Reiter „Datenschutz“ und unter „So verwendet LinkedIn Ihre Daten“ die Einstellung „Daten zur Verbesserung generativer KI“. Die ist standardmäßig auf „Ein“ gestellt, lässt sich aber mit einem Klick deaktivieren.

Noch mehr Wege, persönliche Informationen vor LinkedIn zu schützen

Die KI soll etwa Arbeitgeber*innen dabei unterstützen, mit Job-Kandidat*innen in Kontakt zu kommen und Nutzer*innen bei Profilaktualisierungen, Nachrichten und Beiträgen helfen. Sie lässt sich auch verwenden, wenn man LinkedIn die Erlaubnis zur Datennutzung zum KI-Training eintzogen hat.

LinkedIn beruft sich bei dem KI-Training auf ein berechtigtes Interesse nach DSGVO. Bei bestimmten Änderungen der Nutzungsbedingungen, beispielsweise wenn ein neues Produkt eingeführt wird, will LinkedIn die Nutzer*innen künftig nicht mehr vorab über die Änderung informieren. Gleichzeitig verkündete das Unternehmen auch, dass es zu Werbezwecken künftig mehr Daten an die Muttergesellschaft Microsoft weitergeben will. Unter dem Reiter „Anzeigendaten“ in den Profileinstellungen lässt sich angesichts verschiedener Datenarten festlegen, dass LinkedIn diese künftig nicht mehr zum Ausspielen personalisierter Werbung nutzen darf.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

KW 38: Die Woche, in der wir bemerkten, wie wir gehen

Von: Martin Schwarzbeck

Die 38. Kalenderwoche geht zu Ende. Wir haben 14 neue Texte mit insgesamt 147.076 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

– Fraktal, generiert mit MandelBrowser von Tomasz Śmigielski

Liebe Leser*innen,

diese Woche hat meine Kollegin Karoline einen Text darüber geschrieben, wie Menschen anhand ihrer Art zu gehen eindeutig identifiziert werden können. In Russland und China wird solche Gangerkennung schon lange eingesetzt, auch deutsche Polizeibehörden beschäftigen sich bereits mit dem Thema.

Amnesty International und AlgorithmWatch warnen davor, dass die Technologie das Ende der Anonymität im öffentlichen Raum bedeuten könnte. Denn gegen Gangerkennung hilft – anders als gegen Gesichtserkennung – keine Maskierung. Vor der Technologie kann man sich nicht verstecken.

KI, die menschliche Bewegungen analysiert, wird in Mannheim seit sieben Jahren getestet. Das ist die technologische Grundlage, die zur Gangerkennung nötig ist. Seit 1. September wird sie auch in Hamburg eingesetzt. Zahlreiche weitere Länder und Städte haben Interesse angemeldet. Die Technologie ist dazu gedacht, Straftaten zu detektieren, etwa Schlagen oder Treten. Die Erkennung weiterer Bewegungsabfolgen, etwa derer, die bei einem Drogendeal ausgeführt werden, ist geplant. Von da ist es nur ein kleiner Schritt bis zur Analyse der jeweils persönlichen Art zu gehen.

Die Technologie wird als besonders privatsphärenfreundlich beworben, weil sie die Bilder der betroffenen Menschen zu Strichzeichnungen abstrahiert. Weder Gesicht noch Statur spielen dabei eine Rolle. Doch wie der Text von Karoline zeigt, können genau solche Strichmännchen und die persönliche Art, die Glieder zu bewegen, Menschen eben doch eindeutig identifizieren.

Das ist ein Problem. Denn mit dem Argument, dass die Verhaltenserkennung ja so privatsphärenfreundlich sei, wird der Aufbau neuer Überwachungskameras deutlich erleichtert. Wenn die dann aber doch zur Identifikation von Personen eingesetzt werden können, schlägt der versprochene Privatsphärenvorteil ins Gegenteil um.

Viel Spaß beim Lesen!

Martin


Degitalisierung: Die Abkürzung

Gerade wenn ein Problem rein technisch erscheint, lohnt es sich, eine Frage zu stellen: Was macht das mit den Menschen? Das könnte einigen Schaden verhindern, bevor etwas wild drauf los digitalisiert wird, findet unsere Kolumnistin Bianca Kastl. Von Bianca Kastl –
Artikel lesen

Kommentar: Nach Musks Aufruf zur Gewalt muss die Bundesregierung X verlassen

Elon Musk hat am Samstag als Sprecher einer Großdemonstration zu Gewalt aufgerufen. Doch die Bundesregierung und viele Medien sind weiterhin auf seiner Plattform X. Was muss eigentlich noch passieren, bis sie diesem gewaltbereiten Rechtsradikalen den Rücken kehren? Ein Kommentar. Von Markus Reuter –
Artikel lesen

Überwachung von Journalist:innen: Reporter ohne Grenzen verklagt BND wegen Staatstrojanern

Der Einsatz von Staatstrojanern durch den BND gefährdet den journalistischen Quellenschutz. Reporter ohne Grenzen zieht deshalb nun vor den Europäischen Gerichtshof für Menschenrechte. Es geht auch darum, dass die Betroffenen mangels Informationspflichten gar keine Chance haben, sich zu wehren. Von Markus Reuter –
Artikel lesen

Berliner Verfassungsschutzgesetz: Der Spion im Einkaufszentrum

Der Berliner Verfassungsschutz soll neue Regeln bekommen. Ginge es nach dem schwarz-roten Senat, dürfte er künftig live auf Videoüberwachung von Einkaufszentren oder Krankenhauseingängen zugreifen, um Menschen zu observieren. Fachleute stufen das als verfassungswidrig ein. Von Anna Biselli –
Artikel lesen

Interview: „Die Gewalt bahnt sich vermehrt ihren Weg in die Offline-Welt“

Nach dem Attentat auf den rechtsradikalen Influencer Charlie Kirk gerät in den Medien einiges durcheinander und aus dem Blick. Wir haben mit der Autorin Berit Glanz über Online-Kultur und Offline-Gewalt, kryptische Memes und Nihilismus gesprochen. Von Daniel Leisegang –
Artikel lesen

Datenschutzfreundliche Perioden-Apps: Zyklus-Tracking ohne Tracking

Was früher noch händisch im Kalender gezählt wurde, machen viele mittlerweile mit einer App: den Zyklus tracken. Doch viele bekannte Apps geben die intimen Daten zu Werbezwecken weiter. Deswegen hat netzpolitik.org besonders datensparsame Zyklus-Apps zusammengetragen. Von Karoline Tanck –
Artikel lesen

Berliner Datenmarktplatz „Datarade“: Das gefährliche Geschäft mit Standortdaten geht weiter

Vor einem Jahr erhielten wir einen Datensatz mit Milliarden Handy-Standortdaten aus Deutschland, vermittelt über einen Berliner Datenmarktplatz. Politiker*innen warnten vor einer Gefahr für die nationale Sicherheit. Neue Recherchen zeigen, wie der Marktplatz dem Geschäft weiter eine Plattform bietet. Von Sebastian Meineck, Ingo Dachwitz –
Artikel lesen

Biometrische Gangerkennung: Zeige mir, wie du gehst, und ich sage dir, wer du bist

Biometrische Gangerkennung soll Menschen aus der Ferne identifizieren können, selbst wenn sie ihr Gesicht verhüllen. Unser Überblick zeigt, wie die Technologie funktioniert und wo sie bereits eingesetzt wird. Menschenrechtler*innen fordern ein Verbot.
Von Karoline Tanck –
Artikel lesen

Datenschutz und KI: Schluss mit der Zögerlichkeit!

Die Folgen des KI-Hypes für den Datenschutz sind schwer absehbar. Im Fall von Metas KI-Training zögern Aufsichtsbehörden, das Oberlandesgericht Köln gab dem Konzern sogar – fürs Erste – grünes Licht. Jura-Professorin Paulina Jo Pesch zeigt Schwächen des Urteils auf und fordert eine entschiedenere Durchsetzung der Datenschutzvorgaben. Von Gastbeitrag, Paulina Jo Pesch –
Artikel lesen

400 Schulen besucht: Was Kinder im Netz erleben, und was Politik daraus lernen kann

In seinem Buch „Allein mit dem Handy“ beschreibt Digitaltrainer Daniel Wolff lebhaft, was Kinder ihm beigebracht haben – über ihre Erlebnisse im Netz und ihre Angst vor den Eltern. Das Buch hebt die Debatte um Jugendmedienschutz auf ein neues Level. Eine netzpolitische Rezension. Von Sebastian Meineck –
Artikel lesen

Digital-Zebra: „Wie schön es ist, dass ich das jetzt weiß!“

Menschen, die von der Digitalisierung überfordert sind, finden bei einem Berliner Pilotprojekt Hilfe. Digitallots*innen unterstützen sie bei Problemen mit Geräten oder Services. Ein Besuch zeigt, wie nötig solche Stellen sind. Von Martin Schwarzbeck –
Artikel lesen

Biometrie-Test: Datenschutzaktivist verklagt BKA, weil es sein Gesicht missbraucht haben soll

Janik Besendorf glaubt: Das BKA hat Fotos von ihm genutzt, um damit Software für Gesichtserkennung zu testen. Deshalb hat er heute eine Klage eingereicht. Er will, dass sich die Behörde „in Zukunft an geltendes Recht hält“. Von Martin Schwarzbeck –
Artikel lesen

Oligarche Gleichschaltung: Das Ende der Meinungsfreiheit in den USA und was wir daraus lernen müssen

Mit Hilfe von Einschüchterung, Zensur, Tech-Bros und neuen Medienmogulen gewinnt US-Präsident Trump immer mehr Einfluss auf Medien und soziale Netzwerke. Geradezu bilderbuchmäßig kommen dabei Werkzeuge für einen autoritären Umbau zum Einsatz. Ähnliche Muster sind auch schon bei uns zu erkennen. Ein Kommentar. Von Markus Reuter –
Artikel lesen

#300 On The Record: Ist das wirklich die Lösung für das Cookie-Problem, Max von Grafenstein?

Maximilian von Grafenstein ist Professor für „Digitale Selbstbestimmung“ und hat mit seinem Team den ersten Einwilligungs-Agenten Deutschlands entwickelt. Das Tool namens „Consenter“ soll Nutzer:innen die Entscheidungsmacht im Datenschutz zurückgeben. In der neuen Folge versucht er, uns von dem Dienst zu überzeugen. Von Ingo Dachwitz –
Artikel lesen


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Biometrie-Test: Datenschutzaktivist verklagt BKA, weil es sein Gesicht missbraucht haben soll

Von: Martin Schwarzbeck

Janik Besendorf glaubt: Das BKA hat Fotos von ihm genutzt, um damit Software für Gesichtserkennung zu testen. Deshalb hat er heute eine Klage eingereicht. Er will, dass sich die Behörde „in Zukunft an geltendes Recht hält“.

Janik Besendorfs Augen
Janik Besendorf will nicht, dass das BKA mit seinem Gesicht Biometriesysteme testet. – Alle Rechte vorbehalten Privat

Im Oktober 2018 nahm die Polizei Janik Besendorf fest. Vorwurf: Hausfriedensbruch. Es folgte eine erkennungsdienstliche Behandlung. Vier Fotos wurden von ihm erstellt: Porträt, linkes und rechtes Profil sowie ein Ganzkörperfoto. Direkt danach durfte er gehen, der Vorwurf wurde kurz darauf fallengelassen. Doch die Bilder sind bis heute im Polizeisystem gespeichert.

Im Jahr 2019 hat das BKA schließlich 4,8 Millionen Porträtfotos von rund drei Millionen Personen benutzt, um vier verschiedene Systeme zur Gesichtserkennung zu testen. Das umfasste fast alle damals verfügbaren Bilder und deshalb vermutlich auch die von Besendorf. Der Datenschutzaktivist geht davon aus, dass es dafür keine Rechtsgrundlage gab. Das BKA gab gegenüber der Datenschutzaufsicht an, dass die Bilder zu wissenschaftlichen Zwecken genutzt worden seien, was nach dem BKA-Gesetz erlaubt wäre. Janik Besendorf sagt: „Die dürfen Forschung machen, aber nicht Marktforschung!“

Das BKA setzt seit 2007 ein Gesichtserkennungssystem mit dem Kürzel GES ein. „Die Erkennungsleistung des Systems wurde über die Jahre durch Updates des Algorithmenherstellers kontinuierlich verbessert, sodass das GES zu einem unverzichtbaren Hilfsmittel bei der Identifikation unbekannter Personen geworden ist“, schrieb das BKA 2017 in einer internen Mitteilung. Um zu sehen, ob das aktuell genutzte System eine wettbewerbsfähige Erkennungsleistung liefert, sollte es mit am Markt erhältlichen Systemen getestet werden. „Es gilt, die Frage zu beantworten, ob dem BKA noch das effektivste Gesichtserkennungssystem zur Verfügung steht“, heißt es in der genannten Mitteilung weiter.

„Ich sehe eine Gefahr“

Zuerst hatte Besendorf sich bei der Datenschutzaufsicht über die mutmaßliche Nutzung seines Fotos beschwert, die hat die Beschwerde abgewiesen. Unterstützt vom Chaos Computer Club reichte er nun gemeinsam mit seiner Anwältin Beata Hubrig Klage vor dem Verwaltungsgericht Wiesbaden ein. Besendorf will feststellen lassen, dass die Verwendung seines Bildes – und damit auch aller anderen Bilder – rechtswidrig war. „Damit sich das BKA in Zukunft an geltendes Recht hält, also nur unternimmt, wofür es eine Rechtsgrundlage gibt. Schließlich geht es um Grundrechte. Es passiert leider immer häufiger, dass Polizeibehörden losgehen und irgendwas testen, obwohl gar nicht klar ist, ob es dafür eine Rechtsgrundlage gab. Ich sehe eine Gefahr darin, wenn die Polizei immer mehr technische Mittel benutzt“, sagt der hauptberufliche IT-Sicherheitsexperte.

Besendorf weiß, dass seine Fotos in der Polizeidatenbank INPOL-Z liegen, weil er das BKA danach gefragt hat. Wie man solche Auskünfte beantragt, erklärte er gemeinsam mit seiner Anwältin in einem Vortrag beim 38C3. Dort zeigten die beiden auch, wann man die Löschung von Daten aus Polizeidatenbanken verlangen kann. Besendorf will mit dem Löschantrag zu seinen Fotos allerdings noch warten, bis das Verfahren abgeschlossen ist, damit keine Beweise zerstört werden.

Den Test der Gesichtserkennungssysteme hat das Fraunhofer-Institut für Graphische Datenverarbeitung (Fraunhofer IGD) durchgeführt. Besendorf fürchtet, dass das BKA dafür seine Fotos an das Fraunhofer-Institut gegeben hat. Das BKA schrieb der Datenschutzbehörde allerdings: „Die Bilddaten haben das BKA nicht verlassen und standen Mitarbeitenden des Fraunhofer IGD auch nicht zur Einsichtnahme zur Verfügung.“ An anderer Stelle hieß es allerdings, Fraunhofer-Mitarbeitende seien – unter BKA-Aufsicht – im Rechnerraum gewesen.

Besendorf sagt: „Dass die Daten nicht an das Fraunhofer-Institut weitergegeben wurden, ist bislang eine Behauptung, vor Gericht wird sich das BKA bekennen müssen.“ Besendorf ist auch gespannt, welche Rechtsgrundlage das BKA für den Test angeben wird.

Die den Test betreffende Kommunikation zwischen der Datenschutzaufsicht und dem BKA, die netzpolitik.org vorliegt, zeigt, wie sehr das BKA die Datenschutzbehörde auflaufen lässt. Es antwortet auf mehrere Nachfragen nicht, lässt Fristen für geforderte Erklärungen verstreichen, übersendet zunächst nur eine Variante des Abschlussberichts, in der die Namen der Hersteller nicht genannt sind.

Mögliche Rechtsgrundlagen für den Eingriff

Als eine mögliche Rechtsgrundlage für die Speicherung nennt die Datenschutzbehörde in einem Schreiben an Besendorf vom Februar 2025 Artikel 6 der DSGVO. Demnach ist eine Datenverarbeitung unter anderem erlaubt, wenn sie zur Erfüllung einer rechtlichen Verpflichtung erforderlich ist. Angeblich gäbe es ein erhebliches öffentliches Interesse: die mögliche Senkung der Falscherkennungsrate bei der Gesichtserkennung. „Die potenziellen Folgen des polizeilichen Einsatzes einer fehlerbehafteten Gesichtserkennungssoftware für die betroffenen Personen, die von der Stigmatisierung über die Rufschädigung bis hin zu Diskriminierung und strafrechtlicher Verfolgung reichen können, können im Einzelfall gravierend sein“, schreibt die Datenschutzbehörde.

Das steht allerdings im Widerspruch zu dem, was das Amt im Juni 2022 an das BKA schrieb. Damals hieß es, der entsprechende Artikel des Bundesdatenschutzgesetzes sei aufgrund seiner Unbestimmtheit und angesichts der Eingriffsintensität keine taugliche Rechtsgrundlage für die Verarbeitung einer Vielzahl biometrischer Daten. „Hätte der Gesetzgeber hierfür eine Rechtsgrundlage schaffen wollen, hätte er – entsprechend den verfassungsrechtlichen Anforderungen – konkrete Vorschriften zu Zweck, Anlass und Verfahrenssicherungen geschaffen“, heißt es weiter.

Das BKA selbst nannte gegenüber der Datenschutzbehörde als Rechtsgrundlage für die Nutzung der Fotos für den Test einen Paragrafen des BKA-Gesetzes, der die Datenverarbeitung zum Zweck der wissenschaftlichen Forschung erlaubt. Die Datenschutzbehörde hält diesen Paragrafen hier allerdings für nicht anwendbar: „Vorliegend ging es um eine vergleichende Untersuchung der Leistungsfähigkeit marktreifer Gesichtserkennungssysteme. Neue Erkenntnisse, die den Fortschritt der Wissenschaft zu bewirken vermögen, sind nicht ersichtlich.“

USB-Anschlüsse deaktiviert, Festplatten zerstört

Das BKA hat sich, wie es der Datenschutzaufsicht schreibt, im Rahmen des Tests viel Mühe beim Schutz der personenbezogenen Daten gegeben: Das passwortgeschützte Computersystem, das dafür genutzt wurde, sei in einem abgeschlossenen Raum aufgebaut worden, zu dem nur das Projektteam Zugang gehabt habe. Einen Anschluss ans Internet oder an andere polizeiliche Systeme zur Datenerfassung habe es nie gegeben. Die Fotos seien auf einer verschlüsselten Festplatte transportiert worden. Und nachdem die Fotos eingelesen wurden, seien die USB-Anschlüsse des Computersystems deaktiviert worden.

Die Fraunhofer-Mitarbeiter, die am Projekt mitwirkten, seien einer Sicherheitsüberprüfung unterzogen worden. Nur die Auswertung der Daten – ohne Bilder und personenbezogene Informationen – sei dem Fraunhofer-Institut zur Weiterbearbeitung in eigenen Räumen ausgehändigt worden. Nach Abschluss des Projekts seien alle Datenspeicher zerstört worden.

Der Abschlussbericht des Fraunhofer-Instituts zeigt, welches der Systeme am schnellsten und am besten Menschen erkannte, und auch, in welchen Fällen Menschen von keinem der Systeme auf Fotos erkannt werden konnten. Getestet wurden meist, aber nicht nur, Bilder aus erkennnungsdienstlichen Maßnahmen; darüber hinaus gibt es im Polizeisystem aber beispielsweise auch Fotos aus Observationen.

Die Programme versagten demnach bei Bildern von vermummten oder verschleierten Gesichtern, bei zu geringer Auflösung und zu geringem Kontrast sowie bei tief gesenktem Kopf. Welche Hersteller Produkte zu dem Test beisteuerten, hält das BKA geheim. Nach dem Test blieb es bei dem System zur Gesichtserkennung, das es auch zuvor schon verwendet hatte.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Digital-Zebra: „Wie schön es ist, dass ich das jetzt weiß!“

Von: Martin Schwarzbeck

Menschen, die von der Digitalisierung überfordert sind, finden bei einem Berliner Pilotprojekt Hilfe. Digitallots*innen unterstützen sie bei Problemen mit Geräten oder Services. Ein Besuch zeigt, wie nötig solche Stellen sind.

Eine ältere und eine jüngere Frau sitzen vor einem Tablet mit Tastatur. Die ältere zeigt auf etwas und macht sich mit der anderen Hand eine Notiz mit einem Stift auf einem kleinen Block.
Rechts ist die Digitallotsin Lena Zerfowski, die Frau links neben ihr ist ein Model. Die Nutzerinnen, die wir für diese Geschichte begleitet haben, wollten lieber anonym bleiben. – Alle Rechte vorbehalten VÖBB, Fotografie: Barbara Dietl

Sigrid* reißt die Augen auf, als hätte sie einen Zaubertrick gesehen. „Ach so!?“, ruft sie erstaunt. Sie nimmt ihr Kinn zwischen Daumen und Zeigefinger und beugt sich langsam immer weiter über ihren Laptopbildschirm, studiert das Abgebildete ganz genau. „Das ist ja klasse“, flüstert sie.

Sigrid hat gerade gelernt, dass man mithilfe von Tabs mehr als eine Internetseite auf einmal öffnen kann. Dabei ist sie technisch eigentlich gar nicht sehr unbedarft. Sie sagt stolz von sich, dass sie ihren Laptop „für die Dinge, die ich brauche, zu 90 Prozent beherrsche.“

Sigrid ist heute in die Berliner Amerika-Gedenkbibliothek gekommen, weil sie das Finanzamt fürchtet. Sie hat die Abgabefrist für ihre Steuererklärung bereits überzogen und kommt an einem bestimmten Punkt der Steuersoftware Elster nicht weiter. Doch als sie das Problem präsentieren will, ergibt sich eine noch viel elementarere Schwierigkeit: Sigrid hat ihr Passwort vergessen. Bei Elster lässt sich das nicht einfach nur per E-Mail zurücksetzen. Sigrid muss sich online authentifizieren. Sie hat keine Ahnung, wie das geht.

Die Digitalisierung schließt viele Menschen aus

Je umfassender die Digitalisierung in unseren Alltag eingreift, je öfter es für Services keine analoge Alternative mehr gibt, desto weiter werden all jene abgehängt, für die der Umgang mit der digitalen Welt eine Herausforderung darstellt. Alte Menschen, Menschen mit Lernschwierigkeiten, Menschen mit sensorischen Beeinträchtigungen beispielsweise. Oder Menschen mit geringem Einkommen. Laut einer Studie zur Digitalkompetenz haben nur 32 Prozent von ihnen digitale Grundkenntnisse.

In einer Studie zur digitalen Teilhabe fanden 80 Prozent der Befragten, dass Menschen, die sich im Digitalen schlecht auskennen, es im Alltag zunehmend schwer haben. Lena Zerfowski soll solchen Menschen helfen. Die 28-Jährige ist Digitallotsin im Pilotprojekt Digital-Zebra, das die Berliner Bibliotheken aufgesetzt haben. Dort sollen Menschen, die sich mit Technik schwertun, Unterstützung beim Zugang zu digitalen Angeboten bekommen.

Bislang bleibt jenen, die an digitalen Herausforderungen scheitern, nur die Hoffnung, dass technikaffine Bekannte oder Familienmitglieder ihnen helfen. Die privatwirtschaftlichen Geräte- und Softwareanbieter können und wollen meist nicht assistieren. Die betriebswirtschaftliche Logik verbietet die ausufernde Auseinandersetzung mit themenübergreifenden Problemen von Menschen wie Sigrid. Deshalb beginnt nun die öffentliche Hand, Angebote zu entwickeln, die Digitalisierungsverlierer auffangen sollen. Neben der 1:1-Sprechstunde bei den Digitallots*innen gibt es in Berlin beispielsweise auch Digital-Cafés, wo es eher um Austausch in und mit einer Gruppe geht.

Hilfe zur Selbsthilfe

Sigrid setzt sich neben Lena Zerfowski auf einen Barhocker, wuchtet ihren Laptop auf den Tisch vor den beiden, verlegt das Kabel, steckt es ein und schaltet den Rechner an. Der Bildschirm bleibt sehr lange schwarz. „Er macht irgendwas. Was auch immer“, sagt Sigrid mit Berliner Akzent. „Wir geben ihm mal noch ein bisschen Zeit“, antwortet Zerfowski.

Sigrid trägt eine weißblonde Kurzhaarfrisur und weiße Turnschuhe von Reebok zu weißer Jeans und apricot-farbenem Pullover. Ihr Lippenstift ist pink, ihre Nägel schimmern zartrosa und ihre Brille hat goldene Bügel. Nur die Flecken auf ihren Händen verraten, dass sie vermutlich nicht mehr so jung ist, wie sie wirkt. Ihrem Computer ist das Alter schon leichter anzusehen: Der Laptop ist dick wie ein Band Harry Potter.

Nach einer ganzen Weile ist das Gerät endlich hochgefahren. „Sind Sie schon mit dem Internet verbunden?“, fragt Zerfowski. „Ich denke“, antwortet Sigrid. Zerfowski glaubt das nicht und zeigt ihr, wo in diesem Fall welches Symbol zu sehen wäre und erklärt, wie sie die Ansicht mit den verfügbaren W-LANs öffnet. Sigrid ist ganz erstaunt, wie viele dort sichtbar sind. Dann verbindet sie sich mit dem Bibliotheksnetzwerk. Das dauert vermutlich ein Vielfaches der Zeit, die Zerfowski gebraucht hätte, um das Gerät selbst ans Netz zu bringen, doch das ist Teil des Konzepts: Hilfe zur Selbsthilfe.

„Damit sich jeder willkommen und wohl fühlt“

Lena Zerfowski hat eine Ausbildung zur Fachangestellten für Medien- und Informationsdienste gemacht, unter den Digitallots*innen sind aber auch Quereinsteiger*innen, ein Mediendesigner zum Beispiel. Als Digitallots*in absolviert man zudem zahlreiche Fortbildungen: bei der Polizei zu Internetbetrug, bei der Verbraucherzentrale zu Onlinetransaktionen, bei Vereinen für Seh- und Hörbehinderungen zum Thema Barrieren. „Da haben wir gelernt, dass wir klar sprechen müssen, den Mund nicht verdecken dürfen und die Person, mit der wir sprechen, anschauen sollen, damit sich jeder willkommen und wohl fühlt“, sagt Lena Zerfowski.

Sigrid öffnet den Firefox-Browser. „Ich gehe jetzt zu Elster“, sagt sie. Und muss wieder eine ganze Weile lang warten. Sigrid stützt das Kinn auf den Handrücken, hebt es und legt den Zeigefinger an die Schläfe, dann tippt sie sich an den Mundwinkel. „Warum macht der nix. Das ist jetzt komisch“, murmelt sie. Dann öffnet sich die Seite der Steuerverwaltung. Die Zertifikatsdatei findet Sigrid, aber dann fällt ihr, wie erwähnt, ihr Passwort nicht ein. Um es zu finden, versucht sie, die Zertifikatsdatei zu öffnen. Zerfowski erklärt ihr, dass das nicht geht und zeigt ihr den „Passwort vergessen“-Button.

Um ein neues Passwort zu vergeben, braucht Sigrid ihren Benutzernamen. Der steht in einer E-Mail des Finanzamtes. Aber wie soll sie da rankommen? Sie hat ja nun schon die Elster-Website im Browser geöffnet. Zerfowski zeigt ihr den Trick mit dem neuen Tab. Kurz darauf bekommt Sigrid noch einen Skill beigebracht: Wie man Zeichen kopiert und anderswo wieder einfügt. Sigrid ist begeistert. Doch beim Sicherheitscode, den sie kurz darauf per Mail bekommt, funktioniert das nicht.

„Wie soll das gehen?“

„Sie merken sich einfach die ersten drei Zeichen und ich die letzten drei“, sagt Zerfowski. „Ich glaube, das ist eine blöde Idee, ich habe ein bisschen Gedächtnisprobleme“, sagt Sigrid. „Wir schaffen das schon“, sagt Zerfowski und behält recht. Doch um ein neues Passwort zu vergeben, muss Sigrid jetzt erst einmal ihre Identität verifizieren. „Wie soll das gehen?“, fragt sie.

Die Lots*innen tauschen sich regelmäßig über besondere Fälle aus, auch um die persönliche Aufarbeitung zu erleichtern. „Eine Frau, die wegen häuslicher Gewalt eine Wohnung sucht. Ein Mensch, der seinen digitalen Nachlass regeln will, weil er schwer erkrankt ist. Solche Fälle machen etwas mit einem“, sagt Olaf Wolter, einer von zwei Leitern des Projekts. Teil der Lots*innen-Arbeit ist auch die Vermittlung ins Hilfesystem, etwa zu spezialisierten Beratungsstellen. Wiederkehrende Probleme mit bestimmten Anwendungen melden die Lots*innen auch an deren Hersteller zurück, beispielsweise Banken oder das Arbeitsamt.

Sigrid wird nun in die Wunder der Online-Identifikation eingeführt. Sie wedelt nach Zerfowskis Anleitung mit ihrem Ausweis vor der Kamera und spricht zufällig generierte Worte in ein Selfie-Video. Nun muss sie 15 Minuten warten. Sigrid sagt: „Das ist nicht sehr benutzerfreundlich. Allein hätte ich mich da nie durchgewurschtelt.“ Lena Zerfowski sagt: „Wir versuchen, den Digitalzwang aufzufangen. Wenn es nur noch digital geht, brauchen die Leute eine Anlaufstelle.“

Der Hilfsbedarf ist hoch

In diesem Moment spricht eine Kollegin Zerfowski an. Es gäbe da noch eine Nutzerin, die gerne von Zerfowski beraten werden würde. Krystyna* war schon eine Weile interessiert um die Beratungsbox herumgestreift. Sie trägt ihre grauen Locken offen, eine Nickelbrille, Skinny Jeans, schwarze Lacksneaker mit weißer Sohle, eine Jeansweste über einem T-Shirt. Sie sieht aus, als wolle sie eigentlich zu einem Heavy-Metal-Konzert und ein bisschen wie die Antithese zu der blütenweiß-schicken Sigrid. Zerfowski fragt Sigrid, ob das in Ordnung ist, wenn sie sich in der Wartezeit um Krystyna kümmert. Sie bejaht.

Der Bedarf an Dienstleistungen wie denen der Digitallots*innen vom Digital-Zebra-Projekt ist hoch. Wöchentlich nehmen etwa 350 Nutzer*innen die Angebote von Digital-Zebra in Berlin wahr, Tendenz steigend. Einen Termin brauchen sie nicht. Dass Menschen warten müssen, weil gerade noch andere beraten werden, kommt regelmäßig vor.

Illustration eines Zebras, das Outfit und Kellen eines Einweisers auf dem Flughafen-Rollfeld trägt.
Dieses Zebra ist das Maskottchen des Projekts. Digital-Zebra heißt dieses, weil auch der Zebrastreifen einen sicheren Überweg garantieren soll – so wie die Digitallots*innen den Weg ins Netz begleiten. Schwarz und weiß stehe zudem für die Binarität, die der Digitalisierung zugrunde liegt. - Alle Rechte vorbehalten VÖBB/ZLB, Zeichnung: Jens Nordmann

26 Bibliotheken sind aktuell beteiligt, demnächst sollen es 28 sein. Anfangs war mit viel weniger geplant, doch zahlreiche Bibliotheken haben sich aus eigenem Antrieb angeschlossen und ihre Mitarbeiter*innen zu den Fortbildungen für Digitallots*innen geschickt. Das Projekt wird vom Berliner Senat gefördert, läuft seit September 2023 und ist bis zum Februar 2026 befristet. Danach soll es Teil des Regelangebots der Berliner Bibliotheken werden.

„Wow“

Krystyna schildert ihr Problem: „Ich soll 80 Euro für eine PDF-App zahlen. Ich will das nicht! Ich habe doch schon eine App für PDF“, sagt sie empört. „Wo haben Sie diese Forderung denn gesehen?“, fragt Zerfowski. „Das war, als ich auf Öffnen geklickt habe.“ Zerfowski zeigt Krystyna, wo sie sieht, welche Berechtigungen die entsprechende App hat, nämlich keine. „Ja, aber sie kommt immer wieder“, sagt Krystyna. „Die haben gesagt, wenn ich nicht bis morgen kündige, kostet das 80 Euro.“

„Also diese App kostet nichts und es gibt auch keine In-App-Käufe“, sagt Zerfowski. Sie und Krystyna sitzen sich gegenüber. „Sie können das lesen, wenn es auf dem Kopf steht?“, fragt Krystyna erstaunt. „Ja“, antwortet Zerfowski. Krystyna sagt: „Wow“.

Zerfowski findet heraus, dass Krystyna insgesamt vier PDF-Apps installiert hat. Bei einer davon gibt es In-App-Käufe. Zerfowski vermutet, dass diese App die Zahlungsaufforderung angezeigt hat. Dann schaut sie wieder nach Sigrid. Die sitzt tatenlos vor der Notiz, dass die Online-Legitimierung funktioniert hat. „Ich habe gewartet, weil ich nichts falsch machen wollte“, sagt Sigrid. Jetzt darf sie ein neues Passwort vergeben. Zerfowski dreht sich weg, Sigrid tippt entschlossen. Damit sie das Passwort nicht wieder vergisst, schreibt sie es zusätzlich auf die erste Seite ihres papierenen Terminkalenders.

„Ich tippe, aber es passiert nichts“

Die Nutzer*innen des Angebots sind meist ältere Menschen. Aber auch unter Jüngeren gibt es welche, die beispielsweise nicht wissen, wie man eine Powerpoint-Präsentation erstellt, und deshalb Hilfe suchen. Von einem jungen Menschen wurde Zerfowski mal gefragt, wie man eine Maus bedient, „weil die nur noch das Touchpad kennen“.

Zerfowski wechselt wieder zu Krystyna. Sie hat die Theorie, dass Krystyna vielleicht ein Adobe-Abo angeboten wurde. „Haben Sie einen E-Reader“, fragt sie. „Einen was?“ „Ein Gerät, mit dem sie E-Books lesen können.“ „So etwas habe ich nicht. Aber ich habe noch ein anderes Problem. Wenn jemand anruft, weiß ich nicht, wie ich rangehen soll. Ich tippe, aber es passiert nichts.“

Zerfowski holt ihr Arbeitstelefon heraus und lässt Krystyna ihre Nummer eingeben, dann tippt sie auf den grünen Hörer. Auf Krystynas Bildschirm erscheint ein Anruf. „So sieht das aus, da kann ich nix tippen“, sagt sie. Zerfowski macht ihr vor, wie sie das Hörersymbol zur Seite zieht, um den Anruf anzunehmen.

„Ah“, ruft Krystyna, klatscht die Hände zusammen und hebt sie in einer betenden Geste. Zerfowski ruft sie noch einmal an und lässt sie diesmal selbst abheben. Krystyna strahlt und sagt „Dankeschön“. Als sie die Bibliothek verlässt, raunt sie einem Bibliotheksmitarbeiter zu: „Die ist ganz gut“ und zeigt dabei auf Zerfowski. „Für uns ist es vielleicht nur ein kleines Problem, aber für die Person kann es riesig wirken“, sagt die.

Wie Lena Zerfowski Sigrid vor Ärger mit dem Finanzamt rettet

Zurück zu Sigrid. Die ist nun endlich in ihrem Elster-Account und kann das eigentliche Problem suchen, die Stelle, an der es nicht weitergeht. „Sekunde. Ich bin völlig durch den Wind. Ah, hier ist es!“ Sigrid möchte eine Mietwohnung, die ihr gehört, angeben. „Aber der meckert mich dann immer an und sagt, ich hätte eine Ferienwohnung eingetragen. Ich habe mir das schon hundert Mal angeschaut, aber finde den Fehler nicht“, sagt sie.

Zerfowski lernt selbst viel bei der Arbeit, beispielsweise Videoschnitt, als jemand Hilfe mit seinen Urlaubsfilmen suchte. Sie erarbeitet sich die Lösung für das jeweilige Problem gemeinsam mit den Nutzer*innen, ruft zum Beispiel auch mit diesen gemeinsam bei einer Hotline an, wenn sie selbst nicht mehr weiter weiß.

„Im Grunde freut das die Person, wenn ich sage: Tut mir leid, das weiß ich auch nicht. Weil die sich dann nicht blöd fühlt. Deshalb gehen wir offen damit um, etwas nicht zu wissen und lernen dann was zusammen. Das ist ein schöner Prozess“, sagt Zerfowski. Informationen, die die Lots*innen bei der Arbeit gewinnen, tragen sie in ein Wiki ein, damit die Hilfe bei der nächsten Person mit dem gleichen Problem einfacher ist.

Zerfowski probiert einfach mal, was passiert, wenn sie eine bestimmte Zeile, in der Sigrid „0“ eingetragen hat, leer lässt. Und siehe da, es funktioniert. „Ich könnte Sie umarmen! Das hätte ich alleine nie hingekriegt. Ich freue mich ganz doll. Wissen Sie, wie viele schlaflose Nächte mich das gekostet hat?“, sagt Sigrid.

Zerfowski erzählt Sigrid noch, dass ihr Laptop mit Windows 10 läuft und das ab Oktober nicht mehr unterstützt wird. Wenn sie Hilfe bei der Umstellung auf Linux wolle, solle sie einfach wiederkommen. In Berlin-Marienfelde, wo Sigrid lebt, gäbe es übrigens auch Digitallots*innen, die ihr helfen könnten. Sigrid antwortet: „Ich kann ihnen gar nicht sagen, wie schön es ist, dass ich das jetzt weiß.“

*Name geändert


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Psychische Erkrankungen: Polizeiliche Erfassung bringt Stigmatisierung statt Schutz

Von: Anna Biselli · Martin Schwarzbeck

Nach den Anschlägen in Magdeburg und Aschaffenburg fordern Politiker:innen, psychisch erkrankte Gewalttäter:innen in Registern zu erfassen. Diese Idee ist nicht neu, tatsächlich werden bereits Daten zur psychischen Verfassung bei der Polizei erfasst. Doch statt Sicherheit bringt das Stigmatisierung.

Schwarz-weiß-Foto einer Menschenmenge, bei der man nur die Hinterköpfe sieht. Über manchen Köpfen ist ein rotes Fragezeichen.
Viele Menschen haben psychische Erkrankungen. – Gemeinfrei-ähnlich freigegeben durch unsplash.com davide ragusa, Bearbeitung: netzpolitik.org

Mehr als 40 Prozent der gesetzlich versicherten Erwachsenen bekamen im Jahr 2023 in Deutschland eine Diagnose für eine psychische Erkrankung. Das ist mehr als jede dritte Person. Der Anteil der betroffenen Personen steigt seit Jahren, wie aus Zahlen des Robert Koch-Instituts hervorgeht. Das heißt nicht unbedingt, dass mehr Menschen erkranken. Es kann ebenso bedeuten, dass mehr Leute sich Hilfe suchen, wenn sie Suchtprobleme oder Depressionen haben oder wenn sie psychotische Symptome erleben. Was die Zahlen aber zeigen: Psychische Erkrankungen können alle betreffen.

Als der CDU-Generalsekretär Carsten Linnemann nach dem Anschlag auf den Magdeburger Weihnachtsmarkt im Dezember forderte, ein Zentralregister für „psychisch kranke Gewalttäter“ einzurichten, weil es Berichte darüber gab, dass der mutmaßliche Täter psychisch auffällig war, gab es viel Empörung. Auch nach dem Messerangriff in Aschaffenburg diese Woche gibt es Spekulationen, ob die Tat mit einer psychischen Erkrankung des Festgenommenen zusammenhängen könnte. Von der Tat bis zu den ersten Forderungen nach einem Register dauerte es dieses Mal nur wenige Stunden.

Was dabei kaum jemand erwähnte: Bereits seit langem gibt es polizeiliche Datensammlungen, in denen psychische Erkrankungen vermerkt sind.

Hinweis auf „Psychische und Verhaltensstörung“

Die Grundlage dafür sind sogenannte „personengebundene Hinweise“, kurz: PHWs. Man kann sich das als eine Zusatzinformation zu einem Eintrag in einer Polizeidatenbank vorstellen. Laut dem BKA-Gesetz dürfen solche Zusätze gespeichert werden, wenn sie für den Schutz der betroffenen Person oder zur Eigensicherung der Polizist:innen notwendig sind.

Für die vernetze Polizeidatenbank INPOL etwa gibt es verschiedene PHWs wie „bewaffnet“, „gewalttätig“, „Ausbrecher“, „Ansteckungsgefahr“, „Betäubungsmittelkonsument“ oder „Explosivstoffgefahr“. Zur psychischen Verfassung der in INPOL erfassten Personen gibt es beispielsweise die PHWs „Psychische und Verhaltensstörung (PSYV)“ und „Freitodgefahr (FREI)“.

INPOL besteht aus verschiedenen Dateien, in einer sind Daten zu Personen gespeichert, nach denen gefahndet wird. In einer anderen befinden sich Personen, die erkennungsdienstlich behandelt oder deren DNA erfasst wurde. Polizist:innen können Daten aus INPOL abfragen, zum Beispiel bei einer Verkehrskontrolle.

Bundesländer haben teilweise zudem weitere PHWs in eigenen Datensammlungen. So nutzt die Polizei Berlin etwa den PHW „Konsument harter Drogen“. In Bremen gibt es die Kategorisierung „Schwellen-Täter“, die sich vor allem auf Kinder und Jugendliche bezieht, bei denen sich eine Zukunft als Intensivstraftäter:innen abzeichnen soll.

Auf unsere Anfrage schreibt das Bundeskriminalamt, derzeit liege in INPOL zu 15.724 Personen der PHW „Psychische und Verhaltensstörungen“ vor und zu 3.593 Personen der PHW „Freitodgefahr“.

Wer bestimmt, was eine „Störung“ ist?

Laut einem Leitfaden des BKA können diese Hinweise aber nicht ungeprüft vergeben werden. So heißt es zum PHW „Psychische und Verhaltensstörungen“:

Der PHW „Psychische und Verhaltensstörung“ darf nur vergeben werden, wenn ärztlich festgestellt ist, dass der Betroffene an einer psychischen Erkrankung leidet und daraus Gefahren für ihn selbst oder andere, insbesondere für Polizeibedienstete, resultieren können.

Diese Feststellung soll schriftlich, beispielsweise in Form eines Gutachtens vorliegen. Bei einer vermerkten Suizidgefahr liegen die Voraussetzungen niedriger, hier reichen „Anhaltspunkte“, etwa wenn es zurückliegende Suizidversuche gegeben hat.

Offenbar wurden diese Voraussetzungen jedoch nicht immer beachtet. Im Tätigkeitsbericht des damaligen Bundesdatenschutzbeauftragten Ulrich Kelber für das Jahr 2023 schreibt er, er sei auf „mindestens 3.035 Fälle gestoßen“, bei denen das BKA personengebundene Hinweise aus mehreren Kategorien ohne die notwendigen Belege und Prüfungen vergeben habe. Sie waren laut dem Bericht durch den Text „ALTBESTAND BESITZER NICHT GEPRÜFT“ gekennzeichnet. Außerdem bemängelte Kelber die Dokumentation in Zusammenhang mit den Vermerken. Nach der Beanstandung seien die Bestände vom BKA bereinigt worden.

Doch nicht nur das BKA trägt personengebundene Hinweise ein, auch die Landespolizeien nutzen die Vermerke – in sehr unterschiedlichem Umfang. Wir haben in allen Bundesländern nachgefragt, wie viele PHWs mit Bezug zur psychischen Gesundheit von ihnen derzeit eingetragen sind. Die meisten nutzen Bayern (4.436 Mal PHW PSYV und 2.035 PHW FREI) und Baden-Württemberg (5.237 Mal PHW PSYV und 2.632 PHW FREI). Während die Polizei Bremen bei 2.179 Datensätzen den PHW „PSYV“ nutzt und bei 2.035 Hinweise auf „Suizidgefahr“ eingetragen sind, gibt es vom einwohnerstärkeren Hamburg nur 175 Datensätze mit dem Hinweis „PSYV“. Der PHW „FREI“ werde in Hamburg überhaupt nicht angewendet, heißt es auf unsere Anfrage.

„Erfassung reduziert das Risiko nicht“

Fachleute kritisieren eine Speicherung zu psychischer Gesundheit und zweifeln ihren Sinn an. Elisabeth Dallüge ist psychologische Psychotherapeutin und Mitglied des Bundesvorstandes der Deutschen Psychotherapeuten-Vereinigung (DPtV). Sie hat viel mit psychisch erkrankten Straftäter:innen im Maßregelvollzug gearbeitet, bei denen Erkrankung und Straftat in einem Zusammenhang stehen.

Dallüge sagt: „Wenn psychisch erkrankte Personen Straftaten begehen, besteht in den meisten Fällen überhaupt kein Zusammenhang zwischen der Erkrankung und der Tat. Es ist nur ein sehr kleiner Prozentsatz, wo von Menschen mit psychischen Erkrankungen wegen dieser Erkrankung ein Selbst- oder Fremdgefährdungspotenzial ausgeht.“ Auch deshalb fragt sie sich, was der Nutzen einer solchen Erfassung – sei es in Registern oder PHWs – sein soll. „Das Risiko reduziert sich nicht, indem ich eine Person erfasse“, so Dallüge.

Das betont auch Prof. Dr. Euphrosyne Gouzoulis-Mayfrank. Sie ist Präsidentin der Deutschen Gesellschaft für Psychiatrie und Psychotherapie, Psychosomatik und Nervenheilkunde (DGPPN) und arbeitet als ärztliche Direktorin der LVR-Klinik Köln. Gouzoulis-Mayfrank kann nachvollziehen, dass es nützlich sein kann, wenn die Polizei weiß, dass Menschen sich in der Vergangenheit auffällig oder aggressiv gezeigt haben. „Ob im Rahmen einer psychischen Erkrankung oder aus anderen Gründen ist dabei aber eher zweitrangig“, sagt sie im Interview. „Manche Menschen sind niemals auffällig, aber erkrankt. Bei anderen ist es umgekehrt. Da besteht in der Regel keine direkte Verbindung, diese ist nur in wenigen Fällen sichtbar.“

Es fehlt an Mindeststandards

Aus ihrer eigenen Berufserfahrung weiß Psychiaterin und Neurologin Gouzoulis-Mayfrank, dass Polizeibeamt:innen für den Umgang mit Menschen in psychischen Ausnahmesituationen ganz unterschiedlich gewappnet sind. Sowohl, was das Erkennen einer möglichen Erkrankung angeht, als auch in Bezug auf das Verhalten in einer Situation, bei der die Erkrankung bekannt ist: „Ich habe Situationen erlebt, wo die Polizisten gut vorbereitet waren. In anderen war noch viel Luft nach oben.“ Aus ihrer Sicht fehlt ein Mindeststandard für die Vermittlung eines sinnvollen Umgangs mit psychisch erkrankten Menschen in der Aus- und Fortbildung der Beamt:innen.

Um die Polizei zu unterstützen, gibt es in der DGPPN mittlerweile eine spezielle Arbeitsgruppe, die einen Werkzeugkasten mit Methoden für die polizeiliche Aus- und Fortbildung erarbeitet. Diese soll sowohl mehr Wissen bezüglich unterschiedlicher Arten psychischer Erkrankungen schaffen als auch auf den Umgang mit Menschen in akuten psychischen Ausnahmesituationen vorbereiten.

Während das Thema zwar in der Polizeiausbildung einen festen Platz hat, gibt es noch nicht überall regelmäßige, verpflichtende Fortbildungen dazu. Diese Kritik wird auch immer wieder laut, wenn Polizeibeamt:innen Menschen in psychischen Krisen erschießen oder Taser einsetzen.

Dallüge sagt: Wenn die Polizei nur wisse, dass eine Person als psychisch erkrankt gekennzeichnet ist, helfe das nicht weiter. „Die Polizei braucht Schulungen und Weiterbildungen für einen besseren Umgang mit psychischen Erkrankungen und in psychischen Ausnahmesituationen“, sagt sie. „Es ist beispielsweise überhaupt nicht hilfreich, falls eine Person gerade sehr agitiert ist und dadurch vielleicht aggressiv wirkt, dass dann die Polizei als Antwort ebenfalls aggressiv auftritt. Was in einer solchen Situation die größte Sicherheit schafft, ist ein guter Umgang mit den betroffenen Menschen.“

Was bringen die Hinweise?

Einige der angefragten Länderpolizeien betonen in ihren Antworten auf unsere Frage, welche praktische Bedeutung die PHWs in der Polizeiarbeit haben, dass dieser Umgang für sie ein Thema ist. So schreibt etwa Baden-Württemberg, wo derzeit 5.237 Hinweise zum PHW PSYV und 2.632 Hinweise zum PHW FREI im Datenbestand sind, die Bedeutung der PHWs richte sich nach dem Einzelfall.

„Psychische Auffälligkeiten zu erkennen und adäquat auf Betroffene, die sich in einem Ausnahmezustand befinden, zu reagieren, setzt ein aufmerksames Gespür und eine hohe Sensibilität voraus“, heißt es aus Baden-Württemberg. Die Einsatzkräfte müssten darauf in der Regel ad hoc reagieren. „Der frühzeitige Hinweis auf psychische Störungen und Verhaltensstörungen bzw. eine Freitodgefahr – beispielsweise über PHW – ermöglicht es den Einsatzkräften, sich auf das polizeiliche Gegenüber einzustellen und möglichst angemessen auf die Person einzugehen.“

Die Polizei Bremen weist selbst auf kritische Punkte im Umgang mit den PHW hin: „Sie dürfen nicht zu einer Vorverurteilung oder Stigmatisierung der betroffenen Person führen. Personengebundene Hinweise sind als Hilfsmittel zu betrachten, die in Kombination mit einer professionellen, einzelfallbezogenen Einschätzung eingesetzt werden.“ Die anderen Länderpolizeien ähneln sich in ihren Antworten und verweisen vor allem darauf, dass die PHWs zur Eigen- und Fremdsicherung genutzt werden.

Prävention statt Stigmatisierung

Am wichtigsten ist für Gouzoulis-Mayfrank der Aspekt der Prävention: „Der Schlüssel liegt nicht in Registern oder Datenspeicherung – wir müssen die Behandlungsmöglichkeiten optimieren.“ Das betont auch Elisabeth Dallüge. In ihrer Arbeit im Maßregelvollzug kam sie vor allem mit Patient:innen in Kontakt, die nicht freiwillig einen Weg zur Behandlung gefunden haben und daher oft erst therapeutisch begleitet werden, wenn bereits etwas passiert ist.

Das kann die Erfassung von erkrankten Personen nicht ändern. Stattdessen bringt sie Dallüges Ansicht nach noch mehr Stigmatisierung und Datenschutzprobleme: „Viel wichtiger wäre es, Prävention und Früherkennung zu stärken, Betroffenen den Zugang zu Behandlungsmöglichkeiten zu geben und auch durch Sozialarbeit Ansprechpartner zu bieten.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Videoüberwachung: Hamburger Polizei soll KI mit personenbezogenen Daten trainieren

Von: Martin Schwarzbeck

Ein kurzfristiger Änderungsantrag zum Hamburger Polizeigesetz sieht vor, personenbezogene Daten und auch Klarnamen in automatisierte Systeme einzuspeisen. Zum KI-Training dürfen die Daten auch an Dritte weitergegeben werden. Morgen wird über den Entwurf von Rot-Grün abgestimmt.

Ein Mast mit fünf Kuppelkameras daran
Videokameras am Hansaplatz in Hamburg – Alle Rechte vorbehalten IMAGO / Schöning

In Hamburg wird voraussichtlich am morgigen Mittwoch eine Aktualisierung des Polizeigesetzes verabschiedet. Der bislang vorliegende Entwurf beschäftigt sich vor allem mit DNA-Proben und der Verarbeitung von personenbezogenen Daten. Vor einer Woche veröffentlichten die Hamburger Regierungsparteien SPD und Grüne allerdings kurzfristig einen Änderungsantrag dazu, der ein neues Themenfeld in die Überarbeitung des Polizeigesetzes einbringt. Demnach soll die Hamburger Polizei fortan mit ihr vorliegenden Daten KI-Systeme trainieren dürfen.

In bestimmten Fällen soll das KI-Training unter Verwendung des Klarnamens der Person erfolgen können, von der die Daten stammen. Außerdem soll die Polizei Daten zum KI-Training auch an Dritte weiterleiten dürfen. Beides ist möglich, sobald die inhäusige Datenverarbeitung beziehungsweise die Anonymisierung oder Pseudonymisierung für die Polizei einen „unverhältnismäßigen Aufwand“ bedeuten.

Hintergrund des Änderungsantrages ist wohl Hamburgs Plan, die Videoüberwachung auszubauen und zu automatisieren. Im Juli 2023 ging in Hamburg KI-gestützte Verhaltenserkennung in den Testbetrieb. Die Bilder von vier Kameras auf dem Hansaplatz wurden von einem Programm daraufhin geprüft, ob sie atypisches Verhalten wie Schubsen, Schlagen oder das Zusammenkommen Schaulustiger zeigen. Das überwachungskritische Bündnis Hansaplatz rief zu Protesten auf.

Testlauf führte zu einem einzigen Strafverfahren

In China werden Systeme zur automatischen Verhaltensanalyse auch dazu genutzt, um nicht genehmigte Versammlungen zu identifizieren. Ein solcher Einsatz wäre ebenfalls mit dem Hamburger System technisch möglich.

Der Testlauf der Verhaltenserkennung wird von offiziellen Stellen als erfolgreich eingeordnet. „Die bisherigen Erfahrungen zeigen, dass wir dank der Software sehr frühzeitig auf Gefahrensituationen aufmerksam werden und unmittelbar intervenieren können“, sagte Innensenator Andy Grote (SPD) der dpa. Tatsächlich hatten die Videoanalysen nur ein einziges Strafverfahren zur Folge.

Nun soll die Polizei die eingesetzte KI weiter trainieren dürfen. Die Hamburgische Behörde für Inneres und Sport, die die Videoüberwachung verantwortet, hat auf netzpolitik.org-Anfrage nicht geantwortet.

Unbestimmte Rechtsbegriffe

Die Hamburgische Datenschutzbehörde erachtet es verfassungsrechtlich nicht von vorneherein ausgeschlossen, dass sogenannte intelligente Videoüberwachung auch Realdaten von unbeteiligten Passant:innen auf öffentlich zugänglichen Plätzen verwendet. Allerdings habe das Gesetz eine ausreichende gesetzliche Ermächtigungsgrundlage dafür bislang nicht hergegeben. „Das Ausloten von Möglichkeiten und  Grenzen der Technik darf letztlich nicht der Exekutive überlassen werden“, schreibt die Datenschutzbehörde auf Anfrage von netzpolitik.org.

Die Behörde begrüßt daher die neue Rechtsgrundlage. Die konkrete Ausgestaltung der Norm lasse aber viel Raum für Verbesserungen. „Kritisch zu beurteilen ist vor allem, dass die Norm unbestimmte Rechtsbegriffe wie einen ‚unverhältnismäßigen Aufwand‘ verwendet, dessen Auslegung dann über die Frage der Weitergabe an Dritte oder den Verzicht auf Anonymisierung entscheidet“, schreibt die Datenschutzbehörde weiter. Außerdem müsse eine technologische Abhängigkeit der Polizei etwa von privaten Anbietern vermieden werden.

In einem zweijährigen Anschlussprojekt sollen die Polizei und das Fraunhofer-Institut die automatische Verhaltenserkennung weiterentwickeln – gegebenenfalls auch mit mehr Kameras und an weiteren Orten.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

  • Es gibt keine weiteren Artikel
❌