🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Heute — 11. Januar 2026Haupt-Feeds

Argentinien: Per Dekret in die dunkle Vergangenheit

06. Januar 2026 um 13:21

Der argentinische Präsident Javier Milei baut die Demokratie ab und die Online-Überwachung aus. Jetzt hat die Regierung per Dekret buchstäblich über Nacht den Geheimdienst in eine Super-Überwachungsbehörde umgewandelt. Journalist*innen und Aktivist*innen sind alarmiert.

Demonstrierende in Buenos Aires, in einem Spiegel spiegeln sich Polizist*innen
Immer wieder kommt es in Argentinien bei Demonstrationen zu willkürlichen Verhaftungen und Repressionen. – Alle Rechte vorbehalten IMAGO / ZUMA Press Wire

Die Feierstimmung über das neue Jahr hielt in Argentinien gerade einmal einen Tag an. Am 2. Januar wurde bekannt, dass die Regierung Milei zwei Tage zuvor in den letzten Minuten des alten Jahres das Notstandsdekret 941/2025 erlassen hatte. Das Dekret erweitert die Befugnisse des argentinischen Geheimdienst SIDE (Secretaría de Inteligencia del Estado) deutlich.

Demnach können ab sofort alle Aktivitäten des SIDE „verdeckt“ erfolgen. Agent*innen können zudem Verhaftungen ohne Haftbefehl vornehmen, zur Unterstützung kann der SIDE die Armee für Inlandseinsätze anfordern und Personenregister-Behörden müssen Daten an den Geheimdienst herausgeben.

Das Vorgehen weckt Erinnerungen an die argentinische Militärdiktatur. Argentinien hatte sich jahrelang vorbildlich darum bemüht, die Diktatur aufzuarbeiten, Milei dreht das Rad nun wieder zurück. „Dieses Dekret führt zur bisher gravierendsten Veränderung, da den Geheimdiensten seit der zivil-militärischen Diktatur keine derartigen Befugnisse eingeräumt wurden“, zeigt sich Beatriz Busaniche von der Stiftung Vía Libre besorgt.

Auch die Organisation La Coordinadora Contra la Represión Policial e Institucional (CORREPI) erinnert die Maßnahme „an die schlimmsten Praktiken der dunkelsten Periode unserer Geschichte, der zivil-militärischen Diktatur von 1976-1983“, wie sie auf Instagram schreibt.

Inlandsspionage gegen Regierungskritiker*innen

SIDE verteidigt die Notwendigkeit der Reform auf X mit Verweis auf „die aktuellen globalen Herausforderungen und die neue Rolle, die die Argentinische Republik unter der Führung von Präsident Javier G. Milei auf der Weltbühne einnimmt“. Laut der Stellungnahme des Geheimdienstes, die auch die Tageszeitung Pagina 12 veröffentlichte, streben SIDE und Mileis Regierung „ein modernes, professionelles und effizientes nationales Nachrichtendienstsystem [an], das den höchsten demokratischen und republikanischen Standards entspricht.“

Diesem Ziel seien laut Regierung auch jene Teile der Reform verpflichtet, die den Umbau weiterer Behörden vorsehen. Die Regierung brüstet sich, damit der staatlichen Verfolgung von Journalist*innen und Bürger*innen ein Ende zu setzen.

Die Bürgerrechtsorganisation Centro de Estudios Legales y Sociales (CELS) kritisiert, dass es genau anders herum sei: Durch den Wechsel des Schwerpunkts des SIDE vom Schutz der nationalen Sicherheit auf Spionageabwehr insbesondere im Inland erlaube die Reform die Verfolgung von Aktivist*innen, Journalist*innen, Indigenen und anderen Regierungskritiker*innen überhaupt erst.

Diese Schlussfolgerung zieht auch Via Libre. Zudem erschwere der komplexer werdende Zuschnitt der Behörden und Sekretariate eine Kontrolle des Geheimdienstes, beklagt Busaniche.

Wie Javier Milei die Zivilgesellschaft systematisch schwächt

Die Reform steht für die wachsende Repression und Überwachung durch die argentinische Regierung seit dem Amtsantritt Mileis im Dezember 2023.

Der rechts-libertäre Politiker trat als Außenseiter zu Wahl an und kam nur durch die Unterstützung rechter Parteien an die Macht. Seither hat seine Regierung die Zivilgesellschaft in Argentinien systematisch geschwächt.

So schränkte die Regierung gleich zu Beginn das Recht auf öffentlichen Straßenprotest stark ein („Ley Antipiquetes“, zu Deutsch: Kundgebungsverbot). Es folgten Gesetze, die vordergründig den Drogenhandel bremsen sollen, dabei jedoch auch Aktivisti treffen („Ley Antimafia“) sowie eine Reform der Online-Überwachung („Ley Ciberpatrullaje“). Außerdem erhielt die Polizei eine neue „KI-Einheit“, die Unidad de Inteligencia Artificial Aplicada a la Seguridad, UIAAS.

Zivilgesellschaft ist unvorbereitet

Die Zivilgesellschaft Argentiniens ist insbesondere auf die zunehmende Online-Überwachung nicht ausreichend vorbereitet. Weil es keine Netzneutralität gibt, sind die Meta-Plattformen WhatsApp und Instagram weit verbreitet, Signal ist hingegen kaum bekannt, Mastodon schon gar nicht.

Zwar gibt es Nichtregierungsorganisationen, die Aufklärung zu digitalen Themen betreiben. Doch NGOs wie Via Libre, Asociación por los Derechos Civiles (ADC) oder Observatorio de Derecho Informático Argentino (ODIA) sind zu klein, um hier wirklich Einfluss geltend machen zu können.

Andere Organisationen wie CELS und Amnesty International Argentina sind zwar größer, haben jedoch alle Hände voll damit zu tun, die fortwährenden Attacken aus der Casa Rosada, dem Regierungssitz in Buenos Aires, gegen die Bevölkerung abzuwehren, Klagen einzureichen und Gerichtsprozesse zu führen. Dabei können sie durchaus Erfolge vorweisen. So erzielten CELS und andere Organisationen im vergangenen Jahr einen juristischen Sieg, als ein Bundesverwaltungsgericht das Kundgebungsverbot nach zwei Jahren für verfassungswidrig erklärte.

Gesichtserkennung wird ausgeweitet

Zivilgesellschaftliche Klagen führten im Jahr 2023 auch zu einem Verbot von Gesichtserkennung im öffentlichen Raum (Sistema de Reconocimiento Facial de Prófugos, SRFP). Allerdings gilt dieses Verbot nur für die damalige Anwendung in der argentinischen Hauptstadt Buenos Aires. In anderen Städten kommt die Gesichtserkennung weitgehend ungehindert zum Einsatz.

Auf der Karte „Surveillance under Surveillance“ vom Chaos Computer Club Hamburg sind die Orte von Kamera-Überwachung weltweit kartografiert, auch argentinische Städte sind darunter. Wie viele Kameras es genau in Argentinien gibt und welche davon Gesichtserkennung einsetzen, ist unbekannt. Verschiedene Organisationen kommen dabei zu unterschiedlichen Einschätzungen.

Und laut der „SurveillanceWatch“ operieren in Argentinien aktuell 25 internationale Unternehmen der Überwachungs-Industrie. Unter ihnen sind Unternehmen wie Cellebrite, Clearview AI und Hikvision, deren Anwendungen in anderen Ländern für massive Kritik sorgen. In Buenos Aires wird die Gesichtserkennung im öffentlichen Raum wahrscheinlich schon bald wieder angewandt, die dortige Staatsanwaltschaft hat im vergangenen Jahr Clearview-Lizenzen eingekauft.

Tausende Opfer durch Polizeigewalt

Die zunehmende Überwachung ist für die meisten Menschen in Argentinien nicht das größte Problem. Sie sind vielmehr damit beschäftigt, gegen die alltägliche Polizeigewalt sowie die Kürzungen im Gesundheits- und Bildungswesen zu kämpfen. Und auch die hohe Arbeitslosigkeit und steigenden Lebenshaltungskosten lassen die staatliche Überwachung und Repression in den Hintergrund rücken. „Sie verhaften uns sowieso, wenn sie wollen“, lautet der Tenor der politisch Aktiven.

Tatsächlich kommt es bei Demonstrationen regelmäßig zu willkürlichen Verhaftungen. Die Personen werden zwar meist schnell wieder freigelassen, harmlos ist der Kontakt zur argentinischen Polizei aber keineswegs.

Immer wieder erschießen Polizist*innen Menschen. Im Sommer 2025 töteten Beamt*innen in Buenos Aires ein siebenjähriges Kind; zuletzt kamen in den Tagen nach Weihnachten zwei Personen ums Leben. CORREPI zählt seit Ende 2023 mehr als 1.000 Tote und 1.500 Verletzte – inklusive Pressevertreter*innen – als Opfer staatlicher Gewalt.

Für 2024 hat CORREPI errechnet, dass die Stadtpolizei von Buenos Aires wegen ihrer Schusswaffeneinsätze zu den tödlichsten in ganz Argentinien zählt. Eine Polizeieinheit, mit der übrigens die Bayerische Landespolizei kooperiert, ohne das verwerflich zu finden.

Opposition will Dekret abwehren

Durch die Reform der Regierung Milei wird die Überwachung, die Repression und die Gewalt im Land weiter zunehmen. Die neue KI-Einheit UIAAS untersteht zwar dem Sicherheitsministerium und die Gesichtserkennung steht auf der Agenda der Staatsanwaltschaft der Hauptstadt. Doch es muss davon ausgegangen werden, dass es auch Verknüpfungen zur SIDE geben wird.

Manuel Tufró, Direktor für Justiz und Sicherheit bei CELS, ist wenig optimistisch, dass Parlament, Justiz und Zivilgesellschaft Transparenz herstellen können: „Es wird äußerst schwierig sein, die eingesetzten Werkzeuge der Gesichtserkennung, Spyware, KI und Techniken wie der Cyber-Patrouille zu ermitteln“, sagt Tufró, „da der Erlass festgelegt hat, dass alle Aktivitäten im Zusammenhang mit der SIDE ‚verdeckt‘ erfolgen müssen.“

Die parlamentarische Opposition will das jüngste Dekret zur Geheimdienst-Reform im Kongress abwehren. Wann und ob ihr das gelingt, ist allerdings offen. Nach der Zwischenwahl im Oktober ist sie geschwächt. Zugleich verfügt aber auch Milei über keine eigene Mehrheit im Kongress. Außerdem ist Sommerpause in Argentinien, der Kongress tagt erst wieder im März.

Am vergangenen Montag haben daher einige Abgeordnete eine gerichtliche Intervention beantragt. Sie fordern, dass das Dekret früher für verfassungswidrig erklärt wird, und ersuchen eine einstweilige Verfügung zu seiner sofortigen Aussetzung.

Internationale Aufmerksamkeit könnte diesem Widerstand guttun, damit dieses Dekret nicht wie das Kundgebungsverbot zwei Jahre in Kraft bleibt, bevor es dann gerichtlich annulliert wird.

Nina Galla ist Pressesprecherin für AlgorithmWatch in Berlin. In ihrer Freizeit beschäftigt sie sich mit den Auswirkungen von KI in der Schule und schreibt seit 2025 über die digital-politische Entwicklung in Argentinien.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Ältere BeiträgeHaupt-Feeds

Gesichtserkennung gegen Grundrechte: Ungarn verbietet auch Pride in Pécs

30. September 2025 um 14:05

Trotz internationaler Kritik hält die ungarische Regierung an ihrer queerfeindlichen Politik fest und verbietet die Pride in Pécs. Wieder droht Teilnehmenden die Identifikation per Gesichtserkennung wegen einer Ordnungswidrigkeit. Zivilgesellschaftliche Organisationen fordern ein EU-Vertragsverletzungsverfahren.

Menschen demonstrieren auf der ersten Pride in Pécs im Jahr 2021. – Alle Rechte vorbehalten Merész Márton

Nach dem Verbot der Pride-Parade in Budapest im Juni gehen ungarische Behörden zum zweiten Mal gegen eine Demonstration für die Rechte queerer Menschen im Land vor. Diesmal trifft es die für Anfang Oktober geplante Pride in der südungarischen Stadt Pécs. Anfang September hat die Polizei die als Versammlung angemeldete Pride untersagt. Die Kúria, das höchste ungarischen Gericht, hat das Verbot inzwischen bestätigt.

Es ist ein Affront gegen Brüssel. Darauf weisen auch zivilgesellschaftliche Organisationen wie die Civil Liberties Union und die Ungarische Bürgerrechtsunion hin. In einem Brief von Anfang dieser Woche fordern sie von Kommissionspräsidentin Ursula von der Leyen, das nachzuholen, was die EU vor der Budapester Veranstaltung versäumt hat: ein Vertragsverletzungsverfahren gegen Ungarn einzuleiten und beim Europäischen Gerichtshof (EuGH) sofortige einstweilige Maßnahmen zu beantragen.

Per Gesichtserkennung identifizieren  – wegen einer Ordnungswidrigkeit

Die Verbote basieren auf einer queerfeindlichen Gesetzesänderung, die das ungarische Parlament Anfang dieses Jahres im Eilverfahren verabschiedet hat. Die Änderungen betreffen das Versammlungsgesetz, das Gesetz für Ordnungswidrigkeiten und das Gesetz über den Einsatz von Gesichtserkennungtechnologien.

Sie verbieten effektiv jegliche Veranstaltungen und Versammlungen im öffentlichen Raum, die für die Rechte von queeren oder trans Menschen eintreten und knüpfen an das berüchtigte „Kinderschutzgesetz“ an, mit dem Ungarn bereits seit 2021 queere Minderheiten zum Feindbild macht. Die Teilnahme an solchen Veranstaltungen gilt seither als Ordnungswidrigkeit, auf die ein Bußgeld von bis zu 500 Euro steht.

Weil zugleich das Gesetz für den Einsatz von Gesichtserkennung so verändert wurde, dass Personen nun schon im Fall von Ordnungswidrigkeiten per Gesichtserkennung identifiziert werden dürfen, bedeutet das: Teilnehmende der Demo müssen fürchten, gefilmt, biometrisch identifiziert und anschließend mit einem Ordnungsgeld belegt zu werden.

Eine Abschreckungsmaßnahme, die zumindest im Fall der Budapest Pride nach hinten losgegangen ist. Mehr als 150.000 Menschen kamen schätzungsweise zu der Großdemonstration im Juni, die nach einer Intervention des grünen Budapester Bürgermeisters unter dessen Schirmherrschaft stand. Menschen aus der ganzen Welt reisten an, spektakuläre Bilder von den Massen auf der Donaubrücke gingen um die Welt, die internationale Presse berichtete aus Budapest.

Die Rekordzahlen in Budapest ändern nichts an der Rechtslage

Schon damals war klar: Der Triumph über Viktor Orbáns queerfeindliches Verbot, so psychologisch wichtig er sein mochte, ändert nichts an der Rechtslage in Ungarn. Kommende Pride-Veranstaltungen würden vom neuen Gesetz ebenso betroffen sein. Für einige ist die Messlatte jetzt also: Wird sich für die verbotene Pride in Pécs, Ungarns fünftgrößte Stadt mit rund 140.000 Einwohner*innen, ebenso viel Aufmerksamkeit mobilisieren lassen.

Eine Rückendeckung des Bürgermeisters, wie in Budapest, ist in Pécs nicht zu erwarten. Attila Péterffy (parteilos) hatte vergangene Woche angekündigt, der Einladung der Veranstalter zu folgen und eine Rede auf der Eröffnung des parallel stattfindenden Festivals für Menschenrechte zu halten, was er auch tat. An der Demonstration selbst werde er hingegen nicht teilnehmen.

Die Pécs Pride wird seit 2021 von der Organisation Divers Youth Network ausgerichtet und findet traditionell als Abschluss des Festivals für Menschenrechte in der südungarischen Stadt statt. In der Vergangenheit war es eine überschaubare Demonstration. Die Zahl der Teilnehmenden bewegte sich um die Marke von etwa 1000 Teilnehmenden. Dieses Jahr werden jedoch, wie in Budapest, Rekordzahlen erwartet. Wieder wollen ausländische Politiker*innen und EU-Parlamentarier*innen teilnehmen. Die Veranstalter*innen haben angekündigt, die Versammlung werde trotz Verbot wie geplant stattfinden.

„Diese Entscheidung ist ein weiterer Beweis dafür, dass die Machthaber versuchen, mit rechtlichen Mitteln die Ausübung grundlegender Freiheitsrechte einzuschränken und das Recht auf friedliche Versammlung zu unterbinden“, schreiben sie auf Facebook zur Entscheidung des obersten Gerichtshofes. Nun gehe es darum, „gemeinsam für Gleichheit, Akzeptanz und Freiheit einzutreten“.

Auch die Ungarische Bürgerrechtsunion TASZ fordert zur Teilnahme auf und hat gemeinsam mit anderen Organisationen einen Leitfaden zu rechtlichen Fragen rund um die Demo veröffentlicht. Darin warnen die Jurist*innen auch vor dem Einsatz von Gesichtserkennung. In Ungarn gilt ebenso wie in Deutschland ein Vermummungsverbot, Masken oder Schals über dem Gesicht zu tragen ist daher verboten.

Gesichtserkennung in Ungarn verstößt gegen EU-Gesetze

Selbst in ihrer großzügigsten Auslegung lässt das KI-Regelwerk diesen Einsatz von Gesichtserkennung nicht zu

Zum Affront gegen die EU wird die Sache nicht nur, weil Orbáns Regierung mit dem Gesetz offensiv die Rechte von queeren Minderheiten im Land beschneidet und damit gegen die Grundrechtscharta der Union verstößt. Der Einsatz von Gesichtserkennung auf einer Demonstration zur Identifikation von Teilnehmenden ist auch ein klarer Verstoß gegen die neue KI-Verordnung, ein Gesetz, das erst im vergangenen Jahr verabschiedet wurde und dessen Verbote nun nach und nach greifen.

Die biometrische Identifikation aus der Ferne, vor allem in Echtzeit, war bei der jahrelangen Verhandlungen um das Gesetz einer der größten Streitpunkte. Kritiker*innen warnten vor den Gefahren für die Demokratie, wenn Staaten in die Lage versetzt werden, Menschen etwa auf Demonstrationen zu identifizieren.

Am Ende stand ein Kompromiss, laut dem der Einsatz dieser Technologien für wenige Fälle erlaubt sein soll. Auf der Liste stehen etwa Terrorverdacht oder Straftaten, auf die mindestens vier Jahre Gefängnis stehen. Eine Ordnungswidrigkeit wie in Ungarn ist, wie man es auch dreht und wendet, davon nicht abgedeckt.

In ihrem Brief an die EU-Kommission gemeinsam mit der Civil Liberties Union weist die TASZ auf diesen Umstand hin: Das Gesichtserkennungssystem, mit dem die ungarische Polizei arbeite, sei in der Lage, Personen auch binnen kürzester Zeit zu identifizieren und falle deswegen klar in die Kategorie der Echtzeit-Systeme.

Die EU solle nun endlich das tun, was im Vorlauf der Budapester Veranstaltung nicht passiert ist: ein Vertragsverletzungsverfahren gegen Ungarn einleiten und beim Europäischen Gerichtshof (EuGH) einstweilige Maßnahmen beantragen.

„Es geht um die Freiheit“

Bald urteilt der Gerichtshof der Europäischen Union

In Brüssel brodelt es um den Fall, die Kommission prüft derzeit laut eigenen Angaben, ob das ungarische Gesetz gegen EU-Vorgaben verstößt. In einer Parlamentsdebatte im Juni sagte der Justizkommissar Michael McGrath, die Budapester Pride sei keine Gefahr für Kinder.

Vor einem anderen EU-Gericht, dem Gerichtshof der Europäischen Union, wird derweil das Urteil zur Klage gegen Ungarn queerfeindliches Gesetz von 2021 erwartet, das den Zugang zu Darstellungen von Queerness einschränkt. Die EU-Kommission, 16 EU-Länder und das EU-Parlament hatten Ungarn verklagt, Menschenrechtsorganisationen sprechen vom „größten Menschenrechtsfall in der Geschichte der EU“.

Im Juni gab die Generalanwältin des Gerichtshofs, Tamara Ćapeta, ihre Stellungsnahme ab, die als wegweisend für das finale Urteil der Richter*innen gilt. Sie sagt, Ungarn verstößt mit dem Gesetz gegen EU-Recht und die in den Verträgen verankerten Werte der EU. Folgt das Gericht ihrer Einschätzung, könnte es anordnen, das Ungarn das Gesetz zurücknimmt oder Strafen verhängen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Biometrie-Test: Datenschutzaktivist verklagt BKA, weil es sein Gesicht missbraucht haben soll

19. September 2025 um 13:36

Janik Besendorf glaubt: Das BKA hat Fotos von ihm genutzt, um damit Software für Gesichtserkennung zu testen. Deshalb hat er heute eine Klage eingereicht. Er will, dass sich die Behörde „in Zukunft an geltendes Recht hält“.

Janik Besendorfs Augen
Janik Besendorf will nicht, dass das BKA mit seinem Gesicht Biometriesysteme testet. – Alle Rechte vorbehalten Privat

Im Oktober 2018 nahm die Polizei Janik Besendorf fest. Vorwurf: Hausfriedensbruch. Es folgte eine erkennungsdienstliche Behandlung. Vier Fotos wurden von ihm erstellt: Porträt, linkes und rechtes Profil sowie ein Ganzkörperfoto. Direkt danach durfte er gehen, der Vorwurf wurde kurz darauf fallengelassen. Doch die Bilder sind bis heute im Polizeisystem gespeichert.

Im Jahr 2019 hat das BKA schließlich 4,8 Millionen Porträtfotos von rund drei Millionen Personen benutzt, um vier verschiedene Systeme zur Gesichtserkennung zu testen. Das umfasste fast alle damals verfügbaren Bilder und deshalb vermutlich auch die von Besendorf. Der Datenschutzaktivist geht davon aus, dass es dafür keine Rechtsgrundlage gab. Das BKA gab gegenüber der Datenschutzaufsicht an, dass die Bilder zu wissenschaftlichen Zwecken genutzt worden seien, was nach dem BKA-Gesetz erlaubt wäre. Janik Besendorf sagt: „Die dürfen Forschung machen, aber nicht Marktforschung!“

Das BKA setzt seit 2007 ein Gesichtserkennungssystem mit dem Kürzel GES ein. „Die Erkennungsleistung des Systems wurde über die Jahre durch Updates des Algorithmenherstellers kontinuierlich verbessert, sodass das GES zu einem unverzichtbaren Hilfsmittel bei der Identifikation unbekannter Personen geworden ist“, schrieb das BKA 2017 in einer internen Mitteilung. Um zu sehen, ob das aktuell genutzte System eine wettbewerbsfähige Erkennungsleistung liefert, sollte es mit am Markt erhältlichen Systemen getestet werden. „Es gilt, die Frage zu beantworten, ob dem BKA noch das effektivste Gesichtserkennungssystem zur Verfügung steht“, heißt es in der genannten Mitteilung weiter.

„Ich sehe eine Gefahr“

Zuerst hatte Besendorf sich bei der Datenschutzaufsicht über die mutmaßliche Nutzung seines Fotos beschwert, die hat die Beschwerde abgewiesen. Unterstützt vom Chaos Computer Club reichte er nun gemeinsam mit seiner Anwältin Beata Hubrig Klage vor dem Verwaltungsgericht Wiesbaden ein. Besendorf will feststellen lassen, dass die Verwendung seines Bildes – und damit auch aller anderen Bilder – rechtswidrig war. „Damit sich das BKA in Zukunft an geltendes Recht hält, also nur unternimmt, wofür es eine Rechtsgrundlage gibt. Schließlich geht es um Grundrechte. Es passiert leider immer häufiger, dass Polizeibehörden losgehen und irgendwas testen, obwohl gar nicht klar ist, ob es dafür eine Rechtsgrundlage gab. Ich sehe eine Gefahr darin, wenn die Polizei immer mehr technische Mittel benutzt“, sagt der hauptberufliche IT-Sicherheitsexperte.

Besendorf weiß, dass seine Fotos in der Polizeidatenbank INPOL-Z liegen, weil er das BKA danach gefragt hat. Wie man solche Auskünfte beantragt, erklärte er gemeinsam mit seiner Anwältin in einem Vortrag beim 38C3. Dort zeigten die beiden auch, wann man die Löschung von Daten aus Polizeidatenbanken verlangen kann. Besendorf will mit dem Löschantrag zu seinen Fotos allerdings noch warten, bis das Verfahren abgeschlossen ist, damit keine Beweise zerstört werden.

Den Test der Gesichtserkennungssysteme hat das Fraunhofer-Institut für Graphische Datenverarbeitung (Fraunhofer IGD) durchgeführt. Besendorf fürchtet, dass das BKA dafür seine Fotos an das Fraunhofer-Institut gegeben hat. Das BKA schrieb der Datenschutzbehörde allerdings: „Die Bilddaten haben das BKA nicht verlassen und standen Mitarbeitenden des Fraunhofer IGD auch nicht zur Einsichtnahme zur Verfügung.“ An anderer Stelle hieß es allerdings, Fraunhofer-Mitarbeitende seien – unter BKA-Aufsicht – im Rechnerraum gewesen.

Besendorf sagt: „Dass die Daten nicht an das Fraunhofer-Institut weitergegeben wurden, ist bislang eine Behauptung, vor Gericht wird sich das BKA bekennen müssen.“ Besendorf ist auch gespannt, welche Rechtsgrundlage das BKA für den Test angeben wird.

Die den Test betreffende Kommunikation zwischen der Datenschutzaufsicht und dem BKA, die netzpolitik.org vorliegt, zeigt, wie sehr das BKA die Datenschutzbehörde auflaufen lässt. Es antwortet auf mehrere Nachfragen nicht, lässt Fristen für geforderte Erklärungen verstreichen, übersendet zunächst nur eine Variante des Abschlussberichts, in der die Namen der Hersteller nicht genannt sind.

Mögliche Rechtsgrundlagen für den Eingriff

Als eine mögliche Rechtsgrundlage für die Speicherung nennt die Datenschutzbehörde in einem Schreiben an Besendorf vom Februar 2025 Artikel 6 der DSGVO. Demnach ist eine Datenverarbeitung unter anderem erlaubt, wenn sie zur Erfüllung einer rechtlichen Verpflichtung erforderlich ist. Angeblich gäbe es ein erhebliches öffentliches Interesse: die mögliche Senkung der Falscherkennungsrate bei der Gesichtserkennung. „Die potenziellen Folgen des polizeilichen Einsatzes einer fehlerbehafteten Gesichtserkennungssoftware für die betroffenen Personen, die von der Stigmatisierung über die Rufschädigung bis hin zu Diskriminierung und strafrechtlicher Verfolgung reichen können, können im Einzelfall gravierend sein“, schreibt die Datenschutzbehörde.

Das steht allerdings im Widerspruch zu dem, was das Amt im Juni 2022 an das BKA schrieb. Damals hieß es, der entsprechende Artikel des Bundesdatenschutzgesetzes sei aufgrund seiner Unbestimmtheit und angesichts der Eingriffsintensität keine taugliche Rechtsgrundlage für die Verarbeitung einer Vielzahl biometrischer Daten. „Hätte der Gesetzgeber hierfür eine Rechtsgrundlage schaffen wollen, hätte er – entsprechend den verfassungsrechtlichen Anforderungen – konkrete Vorschriften zu Zweck, Anlass und Verfahrenssicherungen geschaffen“, heißt es weiter.

Das BKA selbst nannte gegenüber der Datenschutzbehörde als Rechtsgrundlage für die Nutzung der Fotos für den Test einen Paragrafen des BKA-Gesetzes, der die Datenverarbeitung zum Zweck der wissenschaftlichen Forschung erlaubt. Die Datenschutzbehörde hält diesen Paragrafen hier allerdings für nicht anwendbar: „Vorliegend ging es um eine vergleichende Untersuchung der Leistungsfähigkeit marktreifer Gesichtserkennungssysteme. Neue Erkenntnisse, die den Fortschritt der Wissenschaft zu bewirken vermögen, sind nicht ersichtlich.“

USB-Anschlüsse deaktiviert, Festplatten zerstört

Das BKA hat sich, wie es der Datenschutzaufsicht schreibt, im Rahmen des Tests viel Mühe beim Schutz der personenbezogenen Daten gegeben: Das passwortgeschützte Computersystem, das dafür genutzt wurde, sei in einem abgeschlossenen Raum aufgebaut worden, zu dem nur das Projektteam Zugang gehabt habe. Einen Anschluss ans Internet oder an andere polizeiliche Systeme zur Datenerfassung habe es nie gegeben. Die Fotos seien auf einer verschlüsselten Festplatte transportiert worden. Und nachdem die Fotos eingelesen wurden, seien die USB-Anschlüsse des Computersystems deaktiviert worden.

Die Fraunhofer-Mitarbeiter, die am Projekt mitwirkten, seien einer Sicherheitsüberprüfung unterzogen worden. Nur die Auswertung der Daten – ohne Bilder und personenbezogene Informationen – sei dem Fraunhofer-Institut zur Weiterbearbeitung in eigenen Räumen ausgehändigt worden. Nach Abschluss des Projekts seien alle Datenspeicher zerstört worden.

Der Abschlussbericht des Fraunhofer-Instituts zeigt, welches der Systeme am schnellsten und am besten Menschen erkannte, und auch, in welchen Fällen Menschen von keinem der Systeme auf Fotos erkannt werden konnten. Getestet wurden meist, aber nicht nur, Bilder aus erkennnungsdienstlichen Maßnahmen; darüber hinaus gibt es im Polizeisystem aber beispielsweise auch Fotos aus Observationen.

Die Programme versagten demnach bei Bildern von vermummten oder verschleierten Gesichtern, bei zu geringer Auflösung und zu geringem Kontrast sowie bei tief gesenktem Kopf. Welche Hersteller Produkte zu dem Test beisteuerten, hält das BKA geheim. Nach dem Test blieb es bei dem System zur Gesichtserkennung, das es auch zuvor schon verwendet hatte.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Biometrische Gangerkennung: Zeige mir, wie du gehst, und ich sage dir, wer du bist

17. September 2025 um 10:18

Biometrische Gangerkennung soll Menschen aus der Ferne identifizieren können, selbst wenn sie ihr Gesicht verhüllen. Unser Überblick zeigt, wie die Technologie funktioniert und wo sie bereits eingesetzt wird. Menschenrechtler*innen fordern ein Verbot.

Frau in weißem Blazer überquert Zebrastreifen in der Abbey Road in London.
Unser Gang hat einen Wierdererkennungswert. (Symbolbild) – Alle Rechte vorbehalten IMAGO / Westend61, Bearbeitung: netzpolitik.org

Unser Gang ist besonders. Wir unterscheiden uns zum Beispiel darin, wie wir unsere Füße aufsetzen, unsere Arme beim Gehen schlenkern lassen oder wie lange unsere Schritte dauern. Solche Merkmale sind individuell und potenziell auch verräterisch, denn sie werden wie beiläufig bei der Videoüberwachung mit aufgezeichnet. Und anders als bei der biometrischen Gesichtserkennung kann man nicht einfach eine Maske aufsetzen, um den eigenen Gang zu verschleiern.

Wenn man Menschen auch von Weitem anhand ihrer Körpermerkmale erkennt, nennt man das biometrische Fernidentifizierung. In der öffentlichen Debatte darüber geht es meist um Gesichtserkennung. Dabei gibt es noch weitere Möglichkeiten, Menschen biometrisch zu erkennen. Eine solche Methode ist die biometrische Gangerkennung.

Verboten ist der Einsatz der Technologie in der EU nicht, im Gegenteil. Dort, wo die KI-Verordnung (AI Act) den Staaten Spielraum für biometrische Gesichtserkennung lässt, können Behörden auch andere biometrische Technologien einsetzen – auch wenn darüber selten diskutiert wird.

Dieser Artikel erklärt, was Gangerkennung bereits kann, und wo sie schon angewandt wird. Die Organisationen Amnesty International und AlgorithmWatch warnen vor der Technologie – die beispielsweise die Polizei bereits auf dem Schirm hat. Und im Auftrag der Europäischen Union erkunden Forscher*innen in Österreich ihren Einsatz an der EU-Grenze.

Wie funktioniert Gangerkennung?

Auch Menschen können andere Personen anhand ihres Gang identifizieren. Unter anderem in Großbritannien werden dafür Sachverständige vor Gerichte geladen, um etwa die Identität eines Tatverdächtigen festzumachen. Einer Studie über diese forensische Gangerkennung aus dem Jahr 2018 zufolge würden solche Gang-Expert*innen allerdings noch wenig mit Software arbeiten.

Inzwischen gibt es zunehmend technisch gestützte Methoden für Gangerkennung, die gemeinhin als „KI“ bezeichnet werden. Einer der Menschen, der dazu forscht, ist Simon Hanisch. „Gangerkennung funktioniert mittlerweile sehr gut mithilfe von Deep Learning und Objekterkennung“, erklärt der Forscher, der am Karlsruher Institut für Technologie zur Anonymisierung biometrischer Daten arbeitet.

Im Gespräch mit netzpolitik.org beschreibt er eine Art, wie Gangerkennung per Software heutzutage funktionieren kann: Zuerst zerlegt die Software das Video einer laufenden Person in einzelne Frames, also Momentaufnahmen. So lassen sich etwa die Phasen eines Schritts nachvollziehen, die Bewegungen von Armen und Beinen. Danach stellt die Software die Umrisse der Person frei. Sie sieht dann so ähnlich aus wie ein Ampelmännchen. Schließlich legt die Software die Umrisse aus mehreren Frames in Graustufen übereinander. Das sieht dann aus wie ein Ampelmännchen mit vielen Armen und Beinen.

Auf diese Weise sollen möglichst einzigartige Profile entstehen, anhand derer sich Menschen voneinander unterscheiden lassen – und wiedererkennen.

Wie korrekt ist Gangerkennung?

Zu Gangerkennung sind in den vergangenen Jahren viele Studien erschienen. Sie beschreiben mehrere Verfahren, die verschieden genau sind. Manche Forschende verweisen auf äußere Faktoren, die Einfluss auf unseren Gang haben und deshalb die Wiedererkennung erschweren würden. Zum Beispiel könnten Schuhe, die Beschaffenheit des Bodens oder Taschen das Gangprofil verändern.

So stellten auch die Autor*innen der oben erwähnten Studie zur forensischen Gangerkennung fest: Der Beweiswert eines menschlichen Gang-Gutachtens vor Gericht sei relativ niedrig. Das war jedoch im Jahr 2018. Mittlerweile sind die technischen Mittel ausgereift genug, um Personen auch trotz sich ändernder Bedingungen zu identifizieren, wie Simon Hanisch erklärt. Die Software könnte auch Veränderungen des Gangs einbeziehen.

Eine KI ist jedoch nur so gut wie die Daten, mit denen sie trainiert wurde. „Für das Training benötigt man viele Daten“, sagt Hanisch, „die entsprechenden Datensätze gibt es aber heute schon“. Um nur eine einzelne Person anhand ihres Gangs über mehrere Überwachungskameras hinweg zu verfolgen, brauche es nicht sehr viele Daten, so der Forscher. Zur Identifikation würden bereits einige Beispiele genügen, die zeigen, wie diese Person geht.

Anders sehe es aus, wenn eine beliebige Person in einem Video eindeutig identifiziert werden soll, erklärt Hanisch. Dafür „wäre eine große Datenbank erforderlich, in der Gangbeispiele aller Personen vorhanden sind – analog zu einer Datenbank mit Gesichtsbildern oder Fingerabdrücken.“ Im Moment gibt es allerdings keine Anzeichen dafür, dass in Deutschland größere Datenbanken mit biometrischen Gangprofilen existieren.

Eine wichtige Komponente könne auch die Zeitspanne sein. Wie verändert sich der Gang eines Menschen über Jahrzehnte? Es gibt „noch nicht genug Forschung, um sagen zu können, wie gut die Gangerkennung über die Zeit funktioniert“, sagt Hanisch. „Wahrscheinlich wird es einen großen Einfluss haben; allerdings sind mir keine Studien bekannt, die das wirklich gut untersucht haben.“

Für eine realistische Anwendung von Gangerkennung brauche es noch mehr Forschung. „Meiner allgemeinen Vermutung nach würde die Gangerkennung in einem realistischen Setting außerhalb des Labors wahrscheinlich eher mäßig gut funktionieren.“

Trotzdem warnt Hanisch vor der Technologie: „Man sollte nicht vergessen, dass sich biometrische Merkmale kombinieren lassen, um bessere Ergebnisse zu erzielen, beispielsweise Gangerkennung mit Gesichtserkennung.“ Das Potenzial für staatliche Überwachung sieht Hanisch durchaus. Besonders sei es für Behörden vorteilhaft, Gangerkennung einzusetzen, weil „man seinen Gang nur schwer verstecken kann“.

Deutschland: Polizei bildet sich zu Gangerkennung weiter

Wir haben bei deutschen Polizeibehörden nachgefragt, ob sie biometrische Gangerkennung einsetzen oder sich zumindest damit beschäftigen. Die Landeskriminalämter (LKAs) aus 16 Bundesländern sowie das Bundeskriminalamt (BKA) haben den Einsatz computergestützter biometrischer Gangerkennung verneint.

Laut der Pressestelle des LKA Hessen „fehlt es an einer Datenbank, gegen die ein solches System Daten abgleichen könnte“. Gangerkennung hätten die Beamt*innen in Hessen allerdings auf dem Schirm. „Denkbar wären 1:1 Vergleiche, beispielsweise den Gang einer unbekannten Person mit dem Gang einer bekannten Person abzugleichen“, schreibt die Pressestelle. Dies könne „als Sachbeweis in einem laufenden Ermittlungsverfahren herangezogen werden“.

Das LKA Berlin hat sich ebenso mit Gangerkennung beschäftigt, allerdings nicht computerbasiert. Stattdessen würden Gutachten des kriminaltechnischen Instituts (KTI) des LKA Berlin „nach der Methode der beobachtenden Gangbildanalyse erstellt, wie sie auch in der Medizin und der Sportwissenschaft angewandt wird“. Auch das LKA Rheinland-Pfalz wende sich für solche Gutachten an das LKA Berlin.

Das LKA Saarland hat sich nach eigenen Angaben bereits mit biometrischer Gangerkennung beschäftigt, und zwar im Rahmen einer Fortbildung durch das BKA. Das BKA wiederum teilt mit, die angesprochene Fortbildung sei eine Online-Vortragsreihe der Deutschen Hochschule der Polizei gewesen. Dort habe man Vertreter*innen der Polizeien von Bund und Ländern über aktuelle Entwicklungen in der Kriminaltechnik informiert.

Deutschland: Erkennung gehender Personen im Supermarkt

Gangerkennung findet wohl auch Verwendung in der freien Wirtschaft. Bereits 2024 berichtete netzpolitik.org von einem Rewe-Supermarkt in Berlin, der seine Besucher*innen mit hunderten Überwachungskameras durch den Laden verfolgt, die mitgenommenen Waren erkennt und dann an der Kasse abrechnet. Dabei arbeitet Rewe mit der israelischen Firma Trigo zusammen, die es sich zur Mission gemacht hat, den Einzelhandel mit sogenannter KI zu optimieren.

Im Rewe-Supermarkt soll es allerdings keine Gesichtserkennung geben, wie Rewe und Trigo betonten. Stattdessen würden Kameras die schematische Darstellung des Knochenbaus der Besucher*innen erfassen, um sie voneinander zu unterscheiden. Auch das kann eine Form biometrischer Gangerkennung sein, wie sie etwa in einer Studie der TU München beschrieben wird. Demnach könne Gangerkennung per Skelettmodell sogar besser funktionieren als über die Silhouette. Die Strichmännchen mit Knotenpunkten an den Gelenken aus der Münchner Studie ähneln optisch dem Pressematerial von Trigo.

Der Screenshot aus der Studie zeigt drei Streifen aus Frames: einmal ein Kamerabild, einmal Umrisse, einmal Strichmännchen mit Knoten an den Gelenken.
Screenshot aus der Studie der TU München: Gangerkennung per Silhouette und per Skelett. - Alle Rechte vorbehalten Screenshot: Technical University of Munich

Auf Anfrage von netzpolitik.org verneint Trigo allerdings den Einsatz von Gangerkennung: „Unser System unterscheidet zwischen Käufer*innen mittels computerbasiertem Sehen (‚computer vision‘)“, schreibt die Pressestelle. „Aus wettbewerbstechnischen Gründen können wir nicht tiefer auf technologische Details eingehen, aber wir nutzen keine Gangerkennung oder biometrische Identifikation.“

Ohne die technologischen Details, die Trigo vorenthält, lässt sich die Technologie nicht abschließend bewerten. Bereits 2024 hatten wir den Biometrie-Experten Jan Krissler (alias starbug) um eine Einschätzung gebeten. Er sagte mit Blick auf Trigo: „Körpermerkmale erfassen ist der Inbegriff von Biometrie – und das passiert hier.“

Die Technologie, deren Details das Unternehmen geheimhalten will, wird nach Angaben von Trigo schon in mehreren europäischen Länder eingesetzt. Wo genau? Auch hierzu verweigert die Pressestelle eine Antwort, wieder mit Verweis auf Wettbewerber*innen.

EU: Forschung an Gangerkennung für die Grenze

Die EU erforscht den Einsatz von Gangerkennung an der Grenze, Projektname: PopEye. Das Projekt läuft von Oktober 2024 bis September 2027. Auf der Projektwebsite gibt es beim Klick auf „Ergebnisse“ noch nichts zu sehenIn der dazugehörigen Beschreibung heißt es auf Englisch: „Das von der EU geförderte Projekt PopEye zielt darauf ab, die Sicherheit an den EU-Grenzen durch den Einsatz fortschrittlicher biometrischer Technologien zur Identitätsüberprüfung in Bewegung zu erhöhen“. Eine dieser Technologien ist Gangerkennung.

Die Grenzagentur Frontex listet PopEye als eines von mehreren Forschungsprojekten auf der eigenen Website auf. Bereits 2022 hatte Frontex Gangerkennung in einer Studie über biometrische Technologien beschrieben. Demnach benötige Gangerkennung „keine Kooperation der betreffenden Person und kann aus mittlerer Entfernung zum Subjekt funktionieren“. In der Studie schätzt Frontex: Bis biometrische Gangerkennung im Alltag ankommt, würden noch mindestens zehn Jahre vergehen.

Frontex ist auch an illegalen Pushbacks beteiligt. Das heißt, Beamt*innen verhindern, dass schutzsuchende Menschen an der EU-Grenze Hilfe bekommen. Auf Anfrage von netzpolitik.org will sich Frontex nicht zu PopEye äußern und verweist auf das AIT, das Austrian Institute of Technology. Das Institut aus Österreich koordiniert das Projekt im Auftrag der EU.

Das AIT wiederum erklärt auf Anfrage, selbst nicht im Bereich Gangerkennung zu arbeiten. Allerdings sei Gangerkennung eines von mehreren biometrischen Verfahren, die im Rahmen von PopEye erforscht würden. In dem Projekt würden biometrische Methoden entwickelt, die auch dann funktionieren, wenn sich eine Person bewegt und etwas entfernt ist. Kurzum: Man will Menschen identifizieren können, auch wenn sie gerade nicht aktiv ihr Gesicht vor eine Kamera halten oder ihren Finger auf einen Sensor legen. Das könne etwa die Wartezeit von Reisenden verkürzen, so das AIT.

Weiter erklärt das AIT, man wolle die Technologie verstehen, ihre Einschränkungen und Risiken. Ohne, dass wir ausdrücklich danach gefragt hätten, betont das AIT mehrfach, nichts Verbotenes zu tun. „Wir verpflichten uns, alle geltenden Vorschriften einzuhalten und die Werte der EU sowie die Grundrechte zu fördern und zu wahren.“ Sollte das nicht selbstverständlich sein?

Die gemeinnützige Organisation AlgorithmWatch kritisiert Gangerkennung an der Grenze, gerade mit Blick auf einen möglichen Einsatz bei Geflüchteten. „Wie so häufig wird also die Entwicklung digitaler Überwachungstools an Menschen auf der Flucht getestet, die sich kaum dagegen wehren können“, schreibt Referentin Pia Sombetzki auf Anfrage.

China und Russland: Gangerkennung über 50 Meter Entfernung

Die chinesische Regierung treibt Forschung zu Gangerkennung voran. Einer der größeren Datensätze mit Gangprofilen ist Gait3D, der auf Videodaten aus einem Supermarkt basiert. Das im Jahr 2022 veröffentliche Projekt hat China mit staatlichen Mitteln gefördert.

Nach Berichten der Agentur AP News soll China bereits 2018 Überwachung per Gangerkennung eingeführt haben, und zwar durch Polizeibehörden in Beijing und Shanghai. Die Technologie komme von der chinesischen Überwachungsfirma Watrix. Nach Angaben des CEOs gegenüber AP News könne das System Personen aus bis zu 50 Metern Entfernung identifizieren. Das System lasse sich angeblich nicht täuschen, etwa durch Humpeln.

In einer Spiegel-Reportage aus dem Jahr 2019 erklärte eine Pressesprecherin von Watrix, das System würde weitere Informationen nutzen, um Menschen zu identifizieren, etwa Körpergröße und Statur. Angeblich erkenne die Software Menschen in einer Sekunde. „Zwei Schritte reichen.“ Auch in Gruppen von bis zu 100 Leuten könne die Software Menschen erkennen, deren Gangprofil dem System bekannt sei. Es ist üblich, dass Überwachungsfirmen die Fähigkeiten ihrer Produkte überhöhen. Auf unsere Fragen hat Watrix nicht reagiert.

Auch das russische Regime soll biometrische Gangerkennung einsetzen. Im Jahr 2020 berichtete das russische Exilmedium Meduza von entsprechenden Plänen für das Folgejahr. Die Technologie sollte demnach Teil der staatlichen Kameraüberwachung in Moskau werden. Im Jahr 2021 schreib das staatliche Propaganda-Medium Rossiyskaya Gazeta von einem solchen Überwachungssystem im Auftrag des Innenministeriums. Angeblich könne die Gangerkennung eine Person aus einer Entfernung von bis zu 50 Metern identifizieren. Es fehlt allerdings eine unabhängige Prüfung, um festzustellen, viel davon Einschüchterung ist und wie viel korrekt.

Grundrechte in Gefahr: Menschenrechtler*innen fordern Verbot

Menschenrechtsorganisationen betrachten Gangerkennung schon länger kritisch. Privacy International warnte bereits 2021 vor den Gefahren von Gangerkennung bei Protesten. Auch Amnesty International beschäftigt sich damit. Gangerkennung funktioniere aus der Ferne und bleibe dadurch unbemerkt, schreibt Lena Rohrbach auf Anfrage von netzpolitik.org. Sie ist Referentin für Menschenrechte im digitalen Zeitalter bei Amnesty ­International in Deutschland.

Behörden könnten Gangerkennung etwa ergänzend zu Gesichtserkennung einsetzen, um Menschen auch auf Distanz zu identifizieren. „Überwachung durch Gangerkennung ist ein tiefgreifender Eingriff in Menschenrechte und geht mit umfassenden Risiken einher“, warnt Rohrbach. „Jede Form biometrischer Fernidentifizierung ist potenziell geeignet, zur Repression genutzt zu werden und die freie und unbeobachtete Bewegung im öffentlichen Raum vollständig zu beenden.“

Amnesty International setze sich deshalb für ein umfassendes Verbot biometrischer Fernidentifizierung zur Überwachung des öffentlichen Raums ein – inklusive Gangerkennung. Die EU hat die Gelegenheit verpasst, ein solches Verbot im Rahmen der KI-Verordnung zu beschließen.

In Deutschland befasst sich die Organisation AlgorithmWatch mit den Auswirkungen sogenannter KI auf Menschenrechte. Auf Anfrage vergleicht Referentin Pia Sombetzki Gangerkennung mit Gesichtserkennung. „Die Anonymität im öffentlichen Raum wird effektiv aufgehoben, und Menschen dürften es sich tendenziell eher zweimal überlegen, an welcher Versammlung sie noch teilnehmen“, schreibt sie. Neben Demonstrierenden könnten zum Beispiel auch Obdachlose oder Suchtkranke beobachtet werden.

Das Problem betreffe grundsätzlich alle, die sich in der Öffentlichkeit frei bewegen wollten. Rufe nach mehr KI in der Polizeiarbeit könnten in eine Sackgasse führen, warnt Sombetzki. „Denn je mehr die Freiheitsrechte auch hierzulande eingeschränkt werden, desto weniger bleibt von der demokratischen Gesellschaft übrig, die es eigentlich zu schützen gilt.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Rekord-Pride in Budapest: „Es geht um die Freiheit“

29. Juni 2025 um 11:31

Ungarns Regierung wollte die Pride mit einem queerfeindlichen Gesetz verhindern und Menschen einschüchtern. Der Plan schlägt fehlt. Stattdessen ziehen Hunderttausende gemeinsam durch Budapest – für die Rechte queerer Menschen, aber auch für ihre Demokratie.

Menschenmenge mit Regenbogen- und Europaflagge
Das wollte Ungarns Regierung verhindern: Hunderttausende tragen ihre Regenbogenfahren beim „Freiheitsfest“ durch die Budapester Innenstadt – Alle Rechte vorbehalten Imago / Nicolas Liponne

Péter und Kata schieben sich durch die Menge vor dem Rathaus. Schon jetzt um 14 Uhr ist fast kein Durchkommen mehr am Ausgangspunkt der Budapest Pride, die von der Polizei verboten wurde. Auf Péters Schultern sitzt seine Tochter, sie hat kleine Regenbogen auf die Wangen gemalt. „Wir sind hier, um zu protestieren; wir sind hier, weil wir uns schämen. Für meine Tochter ist das einfach eine Party“, sagt er. Anderthalb Stunden sind sie angereist, um heute hier zu sein.

Ein Schild hält Péter nicht. Ein Kind mitbringen auf eine Veranstaltung, die verboten wurde, weil sie vermeintlich Kinder gefährde: Das ist für ihn politisches Statement genug. Über die Begründung, mit der die ungarische Regierung die Pride verboten hat, sagt Péter: „Das ist Quark. Heute geht es um etwas anderes. Es geht um die Freiheit.“

„Freiheit und Liebe können nicht verboten werden!“ So steht es auf Ungarisch und Englisch auf den Bannern und Plakaten, die rund um das Rathaus hängen. Von den Störaktionen, die Neonazis hier angekündigt hatten, ist nichts zu sehen. Stattdessen schwenken Menschen Regenbogenflaggen, auch die Transflagge in türkis-weiß-rosa, manchmal zusammen mit der ungarischen Flagge. Die Stimmung ist ausgelassen, aus den Lautsprechern eines Lastwagens schallt Techno.

Es geht um Rechtsstaatlichkeit und Demokratie

Plakat "Freedom and Love can't be banned"
Plakat entlang der Pride in Budapest - CC-BY-ND 4.0 netzpolitik.org

Seit 30 Jahren findet die Pride in Budapest statt, aber dieses Jahr ist alles anders. Die Pride ist zu einem Showdown geworden. Es geht hier nicht mehr nur um die Rechte queerer Menschen, sondern um Rechtsstaatlichkeit und Demokratie. Und um die Frage, wer sich durchsetzen wird.

Auf der einen Seite steht die Regierung von Ministerpräsident Viktor Orbán, die zunehmend autoritär regiert. Sie hat die Pride mit einem neuem Gesetz Mitte März faktisch verboten. Auf die Teilnahme steht ein Ordnungsgeld von bis zu 500 Euro. Teilnehmer*innen können von der Polizei auch per Gesichtserkennung identifiziert werden.

Auf der anderen Seite steht der grüne, oppositionelle Bürgermeister von Budapest, Gergely Karácsony. Er hatte sich dem Verbot widersetzt und die Pride, nachdem die Polizei die Demonstration verboten hatte, als eigene Veranstaltung der Stadt ausgerichtet, gemeinsam mit den Veranstaltern Szivárvány Alapitvány (Regenbogen-Stiftung). Heute läuft er in der ersten Reihe mit, flankiert von EU-Abgeordneten und Vertreter*innen von Menschenrechtsorganisationen, die ebenfalls angereist sind.

„Auf welcher Grundlage glaubt irgendjemand in einer Demokratie, er dürfe Versammlungen von Bürgern, die ihm nicht gefallen, einschränken?“, hatte Karácsony gesagt. Ein „Freiheitsfest“ sei die Parade am Samstag.

Am Ende werden nach Schätzungen fast 200.000 Menschen seiner Einladung folgen. Eine Watsche für Viktor Orbán und seine Politik der Ausgrenzung. Neben Menschen in regenbogenfarbenen Kleidern und Shirts laufen deswegen viele, die man sonst nicht auf einer Pride vermutet hätte: Ältere mit Fischerhut und Poloshirt, Rentner*innen in beiger Funktionskleidung.

„Dieses Jahr musste es sein“

Max hat sich neben einem Lastwagen in den Schatten gestellt. Mehr als eine Stunde schon steht die Menge in der prallen Nachmittagssonne. Von dem mit Ballons geschmückten Lastwagen dröhnt Techno, dahinter tanzen die Menschen, schwenken ausgelassen ihre Fahnen.

Max ist nicht das erste Mal auf der Pride, er hat schon mal als Freiwilliger das Absperrband für den Laster seiner Freunde getragen, die oben auf der Ladefläche Techno für die Menschen spielen. Seine Freunde vom Techno-Label Mühely kommen schon seit Jahren mit ihrem Laster auf die Pride, sagt Max. Auch Max hat ein Label für elektronische Musik. Gemeinsam haben sie eine Compilation gemacht, erzählt er: „Pride or Die“. Die Erlöse gehen an die Regenbogen-Stiftung, die die Pride ausrichtet.

Die letzten Jahre war er nicht dabei. „Aber dieses Jahr musste das sein“, sagt er. Die Regierung habe mit ihrem Gesetz für eine neue Eskalation gesorgt.

Der Zug läuft los, die Menschen johlen. Ein Mann mit dunkelblauer Schirmmütze stützt sich beim Laufen auf Wanderstöcken ab. Er kommt nur mühsam vorwärts im dichten Zug von Menschen, der sich vom Rathaus zwischen den Budapester Prachtbauten hindurchschiebt. Über die vierspurige Straße, auf der sonst Doppeldeckerbusse und Autos fahren strömen Teilnehmer*innen dicht an dicht.

Seit 15 Jahren hat er nicht mehr demonstriert, sagt ein anderer Mann, der seinen Namen nicht nennen will. Jetzt aber ist er hier, 150 Kilometer sei er heute gefahren, denn es geht um die Versammlungsfreiheit. „Ich kann es nicht ausstehen, wenn eine Gruppe von Menschen zum Sündenbock gemacht wird“, sagt er. Und: „Ich freue mich, dass hier so viele normale junge Menschen sind“.

Polizei filmt Menge mit Handkamera
Am Rand filmen Polizisten. - CC-BY-NC 4.0 netzpolitik.org

Polizei darf filmen und Menschen mit Gesichtserkennung identifizieren

Auf dem mit dürrem Gras bewachsenen Mittelstreifen steht ein halbes Dutzend Polizisten in dunkelblauer Uniform. Einer hält eine Kamera an einem Stab und filmt die vorbeilaufende Menge aus unmittelbarer Nähe. Ein Demonstrant mit Bart und Käppi stellt sich direkt vor sie, seine Begleiterin macht ein Foto.

Haru läuft an den Polizisten vorbei, die Augen und Stirn sind mit einer Art lila Supernova geschminkt. „Ich bin hier um mich wohlzufühlen und zu feiern“, sagt Haru. Dass die Polizei filmt, sei ganz normal, das sei bei allen Demonstrationen so. Das Make-up trägt Haru nicht, um sich zu tarnen. „So sehe ich eigentlich jeden Tag aus.“

Andere in der Menge tragen weiße und dunkle Kreise, Dreiecke und Balken über Augen, Nase und Stirn. Eine Gesichtsbemalung, die verhindern sollen, dass ihre Gesichter von den Systemen der Polizei erkannt werden. Vermummung auf einer Demonstration ist in Ungarn verboten, Schminke ist erlaubt.

Die Polizei bleibt den Nachmittag über sehr zurückhaltend. Die internationale Aufmerksamkeit ist groß, aus ganz Europa sind Kamerateams angereist. Viktor Orbán will wohl um jeden Preis vermeiden, dass Bilder von Polizist*innen um die Welt gehen, die auf die Pride einprügeln. „Ungarn ist ein zivilisiertes Land“, hatte er am Tag davor verkündet. „Wir verletzen uns nicht gegenseitig.“

Menschen auf der Brücke vor einem Hügel
Hundertausende kommen trotz Verbot: Protestierende laufen über die Budapester Elisabethbrücke - CC-BY-NC 4.0 netzpolitik.org

Auch die angekündigten Gegendemonstrationen der Rechtsextremen sind an diesem Tag aus der Menge heraus kaum wahrzunehmen. Ein paar Menschen mit weißen Holzkreuzen und Bibeln stehen am Straßenrand. Begleitet werden sie von Polizisten oder den freiwilligen Ordner*innen der Pride. Es bleibt friedlich.

Rechtsextreme blockieren Route mit Genehmigung der Polizei

„Ausgrenzung ist kein Kinderschutz“, steht auf dem Schild, das Miklos trägt, darunter ein Regenbogen. Miklos ist hier als Vertreter der Organisation Szülöi hang (elterliche Stimme), die sich für bessere Bildung in Ungarns Schulen einsetzt. Dieses Verbot, um Kinder zu schützen? „Das ist Unsinn, eine Lüge“, sagt er.

Mensch in weißem T-Shirt mit Demoschild
„Ausgrenzung ist kein Kinderschutz“ - CC-BY-NC 4.0 netzpolitik.org

Die Pride schade Kindern nicht. Was sehr wohl schade, seien all die Probleme, mit denen sich die Regierung nicht beschäftigt: fehlende Aufklärung in der Schule, die schlechte Finanzierung des Bildungssystems, der Mangel an Kinderärzt*innen. Statt diese Probleme zu lösen, verbreite die Regierung Lügen.

Die Menge läuft jetzt auf die Elisabeth-Brücke zu, die weißen Drahtseile der Brücke heben sich gegen den tiefblauen Himmel ab. Die Menschen stehen nach vorne und hinten soweit der Blick reicht. Auf der anderen Seite in Buda hat jemand ein pinkes Dreieck von einer Terrasse des Gellért-Bergs entrollt, ehemals Kennzeichnung der Nazis für Homosexuelle, jetzt Zeichen des queeren Stolzes. Das Dreieck flattert im Wind, der am Donauufer für Abkühlung sorgt.

Die rechtsextreme Partei Mi Hazánk hat die Freiheitsbrücke blockiert, die ursprünglich auf der Route der Pride lag – mit Genehmigung der Polizei. Diese hat eine angemeldete Demonstration der Rechtsextremen auf der Brücke erlaubt, die Pride hingegen als illegale Veranstaltung verboten.

Wo die Pride auf das Donauufer abbiegt und an der Freiheitsbrücke vorbei kommt, stehen besonders viele Polizist*innen. Es ist fast sieben Uhr abends, aber noch immer strömen die Menschen einfach weiter. Auf der anderen Straßenseite im Schatten des Berges steht ein Dutzend Rechtsextremer in schwarzer Kleidung, umstellt von der Polizei.

„Warum probiert ihr es nicht einfach mal aus?“ ruft einer ausgelassen zu ihnen rüber.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Repression gegen Budapest Pride: EU soll gegen digitale Verfolgung und Diskriminierung einschreiten

24. Juni 2025 um 13:48

Bei der Budapest Pride am Samstag drohen den Teilnehmenden Strafen, die Polizei darf sogar Gesichtserkennung zur Identifikation einsetzen. Etwa 50 Menschenrechtsorganisationen fordern die EU-Kommission zu sofortigen Handeln gegen den „gefährlichen Präzedenzfall“ auf.

Menschen marschieren mit Regenbogen-Flagge
Demonstration gegen das Gesetzespaket, das Pride-Veranstaltungen in Ungarn verbietet. – Alle Rechte vorbehalten IMAGO

Rund 50 Menschenrechts- und Digitalrechtsorganisationen aus ganz Europa fordern die EU-Kommission auf, ein neues Vertragsverletzungsverfahren gegen Ungarn einzuleiten und sofortige Maßnahmen gegen queerfeindliche Gesetze im Land zu ergreifen.

Die Organisationen verweisen auf ein Gesetz, das den Einsatz von Gesichtserkennungssystemen bei der anstehenden Pride-Demonstration in Budapest erlaubt: Es verstoße klar gegen EU-Vorgaben für Künstliche Intelligenz (KI-Verordnung). Die Kommission müsse umgehend handeln um sicherzustellen, dass die Teilnehmenden der für Samstag geplanten Pride ihr Recht auf Versammlung und freie Meinungsäußerung wahrnehmen können. Auch soll sie von den ungarischen Behörden Informationen über den Einsatz und die technischen Details der Gesichtserkennung anfordern. Details hält die Regierung bislang unter Verschluss.

„Gefährlicher Präzedenzfall“

Ungarn hat Mitte März ein Gesetzespaket verabschiedet, das die Organisation und Teilnahme an Veranstaltungen wie der Pride unter Strafe gestellt. Die Regierung begründet dies mit dem angeblichen Schutz Minderjähriger. Seit dem 15. April drohen Geldstrafen und die Polizei darf Echtzeit-Gesichtserkennung einsetzen, um Demonstrierende zu identifizieren – obwohl es sich lediglich um eine Ordnungswidrigkeit handelt.

„Die Europäische Kommission muss sich einschalten und Ungarn und die Welt daran erinnern, dass die EU eine klare rote Linie gegen dystopische, diskriminierende und strafende Nutzungen von Technologien zieht“, fordert Ella Jakubowska, Leiterin der Abteilung Politik bei European Digital Rights (EDRi), welche den Brief mitgezeichnet hat.

Ádám Remport von der Hungarian Civil Liberties Union warnt, das Gesetz bedrohe nicht nur die Privatsphäre, sondern auch die Rechtsstaatlichkeit und eine Vielzahl von Menschenrechten. „Die Europäische Kommission muss entschlossen handeln, um zu verhindern, dass sich ein gefährlicher Präzedenzfall in der gesamten Union etabliert.“

Keine Bücher und Filme zu Queerness

Die Kommission hat bereits rechtliche Schritte gegen Ungarn wegen eines queerfeindlichen Gesetzes aus dem Jahr 2021 eingeleitet, das LGBTQ-Inhalte in Schulen, Buchläden und im Fernsehen verbietet. Kinder und Jugendliche haben seither kaum noch Zugang zu Informationen rund um queere Sexualität oder Transidentität. Werbung oder Sendungen zu diesen Themen sind aus dem Fernsehen verschwunden, Bücher dürfen nicht mehr offen im Buchladen ausliegen.

Anfang Juni stellte die Generalanwältin des von der Kommission angerufenen Europäischen Gerichtshof (EuGH) fest, dass das Gesetz und seine Argumentation, es gehe um den Schutz von Kindern, auf „Vorurteilen dazu beruht, dass das Leben von Homosexuellen und Nicht-Cisgender [Transgender] nicht den gleichen Wert hat”. Das Gericht hat noch kein Urteil gefällt, folgt aber meist der Einschätzung aus der Schlusserklärung.

Das „Kinderschutzgesetz“ dient auch als Rechtsgrundlage für das aktuelle Verbot von Versammlungen im Zusammenhang mit Queerness. Zwei queere Veranstaltungen wurden bereits auf Basis dieses Gesetzes untersagt, schreiben die Organisationen an die Kommission.

Bürgermeister widersetzt sich dem Verbot

Lange war ungewiss, ob und wie die traditionelle Budapest Pride in diesem Jahr stattfinden würde. Nach dem Verbot im März hatten die Veranstalter*innen angekündigt, an der Veranstaltungen festzuhalten. In der Folge begann ein Katz-und-Maus-Spiel zwischen der Budapester Polizei und der Stiftung, die die Pride ausrichtet. Die Organisator*innen versuchten zunächst, das Verbot zu umgehen, indem sie mehrere Veranstaltungen für denselben Tag anmeldeten. Die Polizei hat sie alle verboten.

Schließlich schaltetet sich Mitte Juni der liberale Bürgermeister von Budapest Gergely Karácsony ein. Gemeinsam mit dem Sprecher der Budapest Pride kündigte er per Video an, die Stadt werde die Veranstaltung als kommunalen „Tag der Freiheit“ ausrichten. Als Teil der Feierlichkeiten werde es auch eine Prozession durch die Innenstadt geben.

Dabei handele es sich um keine Demonstration. „Es wird keine Lastwagen, keine Tänzer*innen und keine Sexualität in irgendeiner Form geben“, schrieb er an die Polizei. Doch auch diese Veranstaltung hat die Polizei mittlerweile verboten. Sie verstoße gegen das neue Gesetz, argumentiert Polizeichef Tamas Terdik in dem 16-seitigen Dokument.

Der Bürgermeister hält daran fest, das Verbot sei irrelevant. Die Veranstaltung könne nicht verboten werden, weil sie nie als Demonstration angemeldet war. „Die Polizeibehörde von Budapest hat ein Verbot für eine nicht existierende Versammlung erlassen und hätte mit derselben Härte auch Einhörner verbieten können.“

EU-Abgeordnete und Bürgermeister*innen laufen mit

Zu der Veranstaltung am Samstag werden mehrere Zehntausend Menschen erwartet. Mehr als 70 Abgeordnete des EU-Parlaments haben bereits ihre Teilnahme angekündigt, darunter die Vorsitzende der Sozialisten und Demokraten (S&D) Iratxe García, die Vorsitzende der Liberalen Renew Europe Valérie Hayer und die Co-Vorsitzende der Grünen-Fraktion Terry Reintke.

Die niederländische Staatssekretärin für Bildung und mehrere Bürgermeister*innen großer europäischer Hauptstädte werden ebenfalls anwesend sein.

Die EU-Kommissarin für Gleichstellung Hadja Lahbib hatte ihre Teilnahme davon anhängig gemacht, ob die Veranstaltung verboten wird. In dem Fall hat sie angekündigt, sich am Vortag mit Aktivist*innen treffen zu wollen, aber nicht an der Pride teilzunehmen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Europäische Regeln für KI: Wo die Zivilgesellschaft nachjustieren möchte

16. Januar 2025 um 17:41

Sollen Polizeibehörden Gesichtserkennung einsetzen können, wenn sie mit einem Schild davor gewarnt haben? Macht es für Empfänger:innen von Sozialhilfe einen Unterschied, ob sie mit einem KI-System Probleme kriegen oder mit klassischer Software? Die Zivilgesellschaft hätte dazu gerne mehr Klarheit von der EU-Kommission.

Ein DJ-Set mit vielen Einstellknöpfen
Es gibt noch eine Menge Stellschrauben. – Public Domain Pexels / picjumbo.com

Die EU-Kommission soll dafür sorgen, dass die Verbote aus der europäischen KI-Verordnung möglichst umfangreich ausgelegt werden. Das fordert eine Koalition aus zivilgesellschaftlichen Organisationen in einer heute veröffentlichten Stellungnahme. Sie bezieht sich auf Leitlinien, an denen die Kommission momentan noch arbeitet.

Diese Leitlinien sollen dafür sorgen, dass auch „einfachere“ Systeme von den Regeln der KI-Verordnung betroffen sind, fordern die Organisationen. Die Kommission soll auch klarstellen, welche Arten von Systemen die verbotenen „inakzeptablen“ Risiken für Grundrechte haben. Außerdem sollen Grundrechte die zentrale Basis dafür sein, wie die KI-Verordnung praktisch umgesetzt wird.

Arbeit an Details läuft weiter

Die Europäische Union hat lange an ihren Regeln für Künstliche Intelligenz gefeilt. Intensiv diskutiert wurde etwa die Frage, welche Einsätze von KI in Europa ganz verboten werden sollten. Dabei ging es etwa um die biometrische Gesichtserkennung oder das sogenannte „Predictive Policing“. Die fertige KI-Verordnung schränkt beide Praktiken zwar ein, verbietet sie aber nicht ganz.

Die Verordnung selbst ist seit bald einem Jahr beschlossen und trat auch schon vor einigen Monaten in Kraft. Aber Obacht: Bei EU-Gesetzen heißt das nicht, dass alle ihre Regeln auch direkt gelten.

Zuvor gibt es noch einiges fertigzustellen. Zum Beispiel die sogenannten „Praxisleitfäden“, die genaue Regeln für KI-Modelle mit allgemeinem Verwendungszweck wie GPT-4 festlegen sollen. An denen arbeiten gerade die Anbieter solcher Modelle, andere Unternehmen und Vertreter:innen der Zivilgesellschaft unter Aufsicht der EU-Kommission. Bis April soll es einen fertigen Text geben.

Die Verbote gelten ab dem 2. Februar. Bis dahin will die EU-Kommission noch Leitlinien veröffentlichen, die Unternehmen dabei helfen sollen, sie einzuhalten. Außerdem will sie noch klarstellen, was genau denn ein KI-System überhaupt ist – und welche Systeme deshalb von der KI-Verordnung betroffen sein werden.

Ergebnis soll zählen, nicht die Art der Software

Auf diese Leitlinien bezieht sich nun die zivilgesellschaftliche Koalition, an der unter anderem European Digital Rights (EDRi), Access Now, AlgorithmWatch und Article 19 beteiligt sind. Caterina Rodelli von Access Now hält die Leitlinien für ein „zentrales Werkzeug“, um mangelhafte Menschenrechtsregeln der Verordnung noch auszubessern.

Die erste Forderung der Koalition bezieht sich auf „einfachere“ Software. „Wir sind besorgt, dass Entwickler:innen vielleicht die Definition von KI und die Einstufung von Hochrisiko-KI-Systemen ausnutzen können, um die Verpflichtungen der KI-Verordnung zu umgehen“, schreiben die Organisation. Unternehmen könnten ihre KI-Systeme zu normaler, regelbasierter Software umwandeln und so nicht mehr vom Gesetz betroffen sein, obwohl es die gleichen Risiken geben würde.

Die Organisationen fordern deshalb, dass sich Gesetze an möglichem Schaden orientieren sollten, nicht an den genutzten technischen Mitteln. Sie beziehen sich auf das Beispiel des niederländischen SyRI-Systems. Dieses System beschuldigte Empfänger:innen von Sozialhilfe fälschlicherweise des Betrugs und beeinträchtigte so Tausende von Familien. Der Skandal führte 2021 zum Sturz der damaligen niederländischen Regierung.

Dabei wirkte das zugrundeliegende System einfach und erklärbar, betont das Statement. Die Auswirkungen auf eine Vielzahl an Personen waren trotzdem verheerend.

Mehr Systeme einbeziehen

Die Koalition fordert außerdem, dass die Leitlinien marginalisierte Gruppen besser schützen sollen. Dafür soll die Kommission ausdehnen, welche Fälle unter die verbotenen „inakzeptablen“ Risiken für die Grundrechte fallen.

So soll das Verbot von „Social Scoring“ etwa auf Anwendungen ausgedehnt werden, die heute in Europa schon gang und gäbe sind: Etwa für Empfänger:innen von Sozialhilfe, wie im niederländischen Fall, oder für Migrant:innen. Die Leitlinien sollten deshalb etwa Daten schützen, die über Bande Informationen wie die Ethnie oder den sozioökonomischen Status preisgeben könnten, wie zum Beispiel die Postleitzahl.

Das Verbot für „Predictive Policing“ soll eine weite Bandbreite an Systemen einbeziehen, die kriminalisiertes Verhalten vorhersagen sollen. Im Verbot des allgemeinen Scrapens von Gesichtsbildern sehen die Organisationen einige Schlupflöcher, die sie gerne geschlossen haben würden. Außerdem soll eine Definition einer Gesichtsbild-Datenbank gelöscht werden, weil durch diese Anbieter wie Pimeyes oder Clearview außen vor bleiben würden.

Löcher schließen bei der Gesichtserkennung

Bei den Verhandlungen zur KI-Verordnung wollte das Europäische Parlament ein umfassendes Verbot von Systemen zur Emotionserkennung durchsetzen, ist damit aber gescheitert. Die Leitlinien sollen nun zumindest klar zwischen echten medizinischen Geräten wie Herzmonitoren und Geräten wie „Aggressionsdetektoren“ unterscheiden, fordern die Organisationen – denn medizinische Geräte sind von den Verboten ausgenommen.

Außerdem sollen die Leitlinien die Regeln für automatisierte Gesichtserkennung verschärfen. Auch in Deutschland gab es schon Forderungen, einige der in der KI-Verordnung dafür offen gelassenen Schlupflöcher zu schließen. Auf europäischer Ebene fordert die zivilgesellschaftliche Koalition nun, dass die Entwicklung von Gesichtserkennungssystemen für den Export unter das Verbot fallen soll. Zudem soll es nicht ausreichen, wenn Behörden nur mit einem Schild auf Zonen hinweisen, in denen Gesichtserkennung genutzt wird. Videoaufzeichnungen sollen erst nach 24 Stunden biometrisch ausgewertet werden dürfen.

In Zukunft bitte mehr Zeit

Eine Menge Wünsche für die Leitlinien – die Koalition hat aber auch noch einige Kritik für deren Entstehen übrig. Der Prozess sei nicht vorher angekündigt worden, habe kurze Fristen gelassen, es sei kein Entwurf veröffentlicht worden, schreiben sie. Außerdem seien manche der Fragen suggestiv formuliert gewesen. So habe die Kommission etwa nur nach Systemen gefragt, die aus der Definition von KI ausgeschlossen werden sollten, und nicht nach Systemen, für die die Regeln gelten sollten, bemängeln die Organisationen.

Das Statement fordert deshalb die Kommission auf, in Zukunft die Zivilgesellschaft besser einzubeziehen. „Die EU-Kommission muss Interessengruppen mit begrenzten Ressourcen eine Stimme geben, und dafür muss sie längere Zeiträume für so umfassende Befragungen vorsehen“, so Nikolett Aszodi von AlgorithmWatch.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

  • Es gibt keine weiteren Artikel
❌