🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Heute — 27. Februar 2026Haupt-Feeds

Polizeirechtsnovelle in Sachsen: Mit minimalen Anpassungen in Richtung Überwachungsstaat

26. Februar 2026 um 19:02

Trotz scharfer Kritik hält die sächsische Regierung am ihrem Vorhaben fest, die Polizei mit erheblich erweiterten Überwachungsbefugnissen auszustatten. Den bisherigen Gesetzesentwurf hat sie nach internen Verhandlungen nur kosmetisch angepasst. Kritiker:innen bezweifeln die Vereinbarkeit mit geltendem EU-Recht und warnen vor dystopischen Verhältnissen.

Zwei alte Männer schauen sich in die Augen und lächeln.
Diese zwei dürften sich freuen, wenn das neue Polizeigesetz in Sachsen in Kraft tritt: Armin Schuster, Innenminister von Sachsen, und Jörg Kubiessa, Polizeipräsident von Sachsen. – Alle Rechte vorbehalten IMAGO / EHL Media

Die sächsische Polizei soll Bilder im Internet biometrisch auswerten dürfen – zumindest wenn es nach dem Willen der sächsischen Regierung geht. Und das ist lange nicht die einzige massive Befugniserweiterung der Polizei, die die Regierung plant. Auch Verhaltensscanner, verdeckte Kennzeichenerkennung und eine automatisierte Datenanalyse sollen kommen. Lediglich bei zwei problematischen Plänen machte das Innenministerium einen Rückzieher. Unter Zeitdruck muss nun der sächsische Landtag entscheiden.

Geringfügige Änderungen für eine „rechtsstaatlich sehr hohe Qualität“

Am Dienstag beschloss das Kabinett den Gesetzentwurf für das Sächsische Polizeivollzugsdienstgesetz (SächsPVDG). Dieser fällt in Teilen weniger scharf aus als die ursprünglich geplante Novelle. Wenn man den sächsischen Innenminister Armin Schuster (CDU) fragt, sogar ein gutes Stück zurückhaltender. Sein Referentenentwurf aus dem Herbst war auf viel Kritik gestoßen, auch die mitregierende SPD kritisierte einige der geplanten Befugniserweiterungen.

Im Vergleich dazu enthielten die neuen Pläne „sehr viele grundrechtssichernde Bestimmungen“, so Schuster. Er verweist auf Richtervorbehalte, Lösch- und Berichtspflichten. „Für Polizisten ist dieses Gesetz eine Herausforde­rung“, sagte der Innenminister auf einer Pressekonferenz am Dienstag nach der Kabinettssitzung. Der Entwurf habe nun eine „rechtsstaat­lich sehr hohe Qualität“, betonte er.

Tatsächlich gibt es bei den meisten Bestimmungen des Entwurfs, wenn überhaupt, geringfügige Änderun­gen und Konkretisierungen. So ist der präventive Staatstrojaner-Einsatz zur Quellen-Telekommuni­kationsüberwachung nach wie vor enthalten, ebenso Verhaltensscanner, die gesetzlichen Grund­lagen für eine Datenanalyse-Plattform sowie der biometrische Abgleich von Gesichtern und Stim­men mit dem Internet.

Kein Palantir, keine Drohnen gegen Handy-Sünder:innen

Gestrichen wurde vor allem das Filmen in Autos, um Handy-Nutzer:innen am Steuer zu erwi­schen. Diese Vorschrift sollte laut dem ursprünglichen Entwurf sogar mit Drohnen umgesetzt wer­den.

Die sächsische Datenschutzbeauftragte Juliane Hundert hielt das für „offensichtlich verfas­sungswidrig“ und sprach von einer „auf der Hand liegenden Unverhältnismäßigkeit“. Ihrer Empfeh­lung nach einer ersatzlosen Streichung folgte die sächsische Regierung offenbar.

Außerdem setzte die SPD durch, dass Palantir keinen sächsischen Auftrag für eine polizeiliche Da­tenanalyse-Plattform bekommt. Der Verzicht wird vom sächsischen Innenminister bedauert: „Der Vorsprung der Firma Palantir ist mit Händen greifbar“, sagte Schuster. Man führe Gespräche mit anderen Anbietern. Laut Kostenplanung im Entwurf rechnet die Staatsregierung mit einer zentralen Bereitstellung durch den Bund, an der man sich dann finanziell beteiligt.

Das 3-Stufen-Modell der polizeilichen Datenanalyse

Weiterhin enthalten ist die Vorschrift, die ermöglichen soll, dass die Polizei eine Plattform zur automatisierten Datenanalyse nutzt. Inzwischen findet sich im Entwurf dafür ein 3-Stufen-Modell.

Auf der ersten Stufe steht ein einfacher Datenabgleich, bei dem jede:r Polizist:in personenbezogene Daten in den Beständen der Polizei Sachsen suchen kann. Ausgenommen sind Biometrie-Daten, personenbezogene Da­ten von Unbeteiligten aus der Vorgangsbearbeitung sowie Daten aus der Wohnraumüberwachung.

Auf der nächsten Stufe folgt die Befugnis, Daten zur Gewinnung neuer Erkenntnisse automatisiert zusammenzuführen und auszuwerten. Voraussetzung ist ein drohender erheblicher Angriff auf den Staat oder Leib, Leben oder Freiheit einer Person. Für drohende terroristische Straftaten liegt die Gefahrenschwelle niedriger. Anordnen dürfen diese Art der Datenanalyse nur hochrangige Polizist:innen, wie etwa die Präsidentin einer Polizeidi­rektion.

Polizeidaten fürs KI-Training – auch ohne Pseudonymisierung

Nur bei der dritten und letzten Stufe muss die Polizei eine richterliche Erlaubnis einholen. Diese Stufe umfasst den Einsatz von „selbstler­nender KI“ sowie die Bildung von Verhaltensprofilen.

Nach wie vor plant die Staatsregierung, der Polizei auch das Training und Testen von eigenen KI-Anwen­dungen mit echten Polizeidaten zu erlauben. Erlaubt ist außerdem die Weiter­gabe personenbezogener Daten an Drittanbieter, die mit der Polizei zusammenarbeiten.

Vorausset­zung dafür ist, dass die Anonymisierung und Pseudonymisierung sowie die Verarbeitung bei der Polizei „nur mit unverhältnismäßigen Aufwand möglich“ ist. Auch diese Vorschrift wurde, trotz Kritik von der SPD-Fraktion und der Opposition, im Vergleich zum letzten Entwurf aus dem Herbst kaum angepasst.

Gesichtersuche im Netz – im Einklang mit der KI-Verordnung?

Auch der „Klette-Paragraf“, wie ihn Armin Schuster nennt, hat im Gesetzesentwurf weiterhin Bestand. Die RAF-Terro­ristin Daniela Klette war bis zu ihrer Festnahme 2024 mehrere Jahrzehnte untergetaucht. Den­noch fanden zwei Journalisten im Dezember 2023 Hinweise auf Klettes Aufenthaltsort über die Ge­sichtersuchmaschine PimEyes. „Diese Blamage darf so nie wieder passieren“, betonte Schuster in der Pressekonferenz.

Dieser biometrische Abgleich von Gesichtern und Stimmen mit Internetdaten wurde trotz viel Kritik kaum angepasst. Die Polizei soll nun lediglich nach Opfern und potenziellen Täter:innen suchen dürfen.

Doch es gibt Zweifel, ob die von Innenminister Armin Schuster als „Klette-Paragraf“ bezeichnete Vorschrift grundsätzlich mit der KI-Verordung der EU in Einklang zu bringen ist.

Laut einem Gutachten von AlgorithmWatch ist es technisch nicht umsetzbar, frei verfügbare Bilder aus dem Internet für einen Abgleich praktikabel durchsuchbar zu machen, ohne eine Datenbank die­ser Bilder zu erstellen. Das verbietet die KI-Verordnung.

Das sächsische Innenministerium rechtfertigt die Pläne auf Anfrage von netzpolitik.org damit, dass das Gutachten auf die Erstellung einer anlassunabhängigen Datenbank abziele, das vorgeschlagene Gesetz aber „auf den anlassbezogenen Auftragsbereich der Gefahrenabwehr“ fokussiere.

Das Innenministerium schreibt weiter:

Zu OSINT-Recherchen werden sowohl Sachbearbeiter als auch Tools eingesetzt, die sich der grundsätzlichen Datenbankstruktur des Internets bedienen und keine polizeieigene Datenbank für alle Informationen des Internets erstellen. Die Methodik hält sich an die von den Informationsan­bietern gesetzten Grenzen. OSINT-Recherchen sind für einen anlassbe­zogenen Lichtbildvergleich mit Bildern aus dem Internet rechtmäßig unter Wahrung der DSGVO sowie europäischen Datenschutzrichtlinien.

Tatsächlich aber ist es laut KI-Verordnung unerheblich, ob die Polizei selbst eine anlassunabhängige Datenbank mit allen Bildern erstellt oder eine von Drittanbietern nutzt. Konkret verbietet die Verordnung in Ar­tikel 5 (1e) „das Inverkehrbringen, die Inbetriebnahme […] oder die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern“.

Videoüberwachung mit Mustererkennung

Auch Verhaltensscanner und Gesichtserkennung in der Videoüberwachung sind weiterhin vorge­sehen. Die Verhaltensscanner sollen Beamt:innen alarmieren, wenn die Software auf den Kamerabildern Bewegungsmuster erkennt, die auf Waffen, gefährliche Gegenstände oder die Begehung einer Straftat hindeuten. Die Beamt:innen sollen dann überprüfen, ob die Software zurecht angeschlagen hat. Sie können daraufhin auch eine auto­matisierte Nachverfolgung des vermeintlich gefährlichen Menschen durch die verschiedenen Kame­ras in die Wege leiten.

Diese Form der Überwachung soll prinzipiell nicht nur an allen Kriminalitätsschwerpunkten möglich sein, sondern etwa auch in Straßenbahnen und Bus­sen, wenn die Polizei annimmt, dass dort künftig Straftaten begangen werden.

Obwohl die SPD-Fraktion sich explizit gegen diese Vorschrift aussprach, ist auch die Möglichkeit eines Live-Gesichtsscans im Gesetzentwurf enthalten. Eingeschränkt wurde hier nur die Menge an Menschen, nach denen die Po­lizei suchen darf, nämlich nach Terrorverdächtigen sowie vermissten Menschen und Opfern von Entführungen und Menschenhandel.

Diese „Echtzeit-biometrische Fernidentifizierung“ muss von Richter:innen angeordnet werden, die auch Umfang und Dauer der Maßnahme absegnen müssen. Obwohl also prinzipiell alle gescannt werden, die durch das Kamerabild laufen, soll die Software nur nach einzelnen Menschen suchen.

Völlig unverändert: Staatstrojaner, Kennzeichenscan und Bodycams

Bei anderen Befugniserweiterungen hat sich nichts verändert.

Der Bodycam-Einsatz in Wohnungen soll weiterhin erlaubt werden. Auch der Einsatz von Staats­trojanern zur Gefahrenabwehr im Rahmen der Quellen-TKÜ soll möglich sein. Der Innenminister wollte zudem die verdeckte Online-Durchsuchung von Computern einführen, hat das aber nicht „durchgekriegt“, wie er bei der Presse­konferenz freimütig zugab. Auch die CDU-Fraktion macht Druck.

Nach wie vor ist das verdeckte automatisierte Scannen von Auto-Kennzeichen geplant. Diese Überwachungsmaßnahme soll in grenznahen Regionen erfolgen. Das Innenministerium begründet die Maßnahme explizit mit der Su­che nach Autodieben und gestohlenen Fahrzeugen. Der verdeckte Scan ist bis zu 30 Kilometer vor der Grenze zu Tschechien oder Polen erlaubt. Das entspricht etwa der Hälfte der Fläche Sach­sens.

Bei den Tasern gibt es einen Kompromiss. SPD- und BSW-Fraktion plädierten auf eine gestaffelte Einführung. Die Staatsregierung schafft nun zwar die Rechts­grundlage, um alle Polizist:innen damit auszustatten. Über die nächsten drei Jahre sollen allerdings nur 120 Stück angeschafft werden. Außerdem ist eine verpflichtende Evaluation im Jahr 2029 vorgesehen.

Minority Report und chinesische Verhältnisse

Auch wenn die Minderheitskoalition den Entwurf im Vergleich zur vorherigen Version in Details verändert hat, bleibt es bei einer massiven Erweiterung der Polizeibefugnisse. Der Dresdener Chaos Computer Club (C3D2) kriti­siert das: „Die Landesregierung will klassische Mittel der Strafverfolgung auf Landesebene einfüh­ren und verschiebt damit die rechtliche Grenze der behördlichen Befugnisse: Gefahrenabwehr ist Sache des Landes, Strafverfolgung des Bundes.“ Als Beispiel nennen sie die Staatstrojaner, deren Einsatz bundesweit durch die Strafprozessordnung geregelt ist.

Der Verein erinnert in seiner Mitteilung an dystopische Welten wie „Minority Report“, in denen Predictive-Policing die Unschuldsvermutung ersetzt. „Sicherheitsbehörden bauen derzeit solche Systeme aus, ungeachtet der juristischen Grenzen und gesellschaftlichen Folgen für die Demokratie und individuelle Freiheiten.“

Der C3D2 warnt insbesondere vor der Einführung ei­ner Plattform zur automatischen Datenanalyse. Diese sei „moderne Rasterfahndung mit Vorhersage­funktion“, so die Sprecherin weiter. „Ob es Palantir wird oder eine andere vergleichbare Lösung, ist letztendlich egal. Solche Systeme funktionieren in der Regel nur, wenn sie an möglichst viele Sensoren und Datenbanken an­geschlossen sind“, heißt es in der Mitteilung. Die Einführung einer solchen Software öffne die Büchse der Pandora.

„Der Chaos Computer Club sieht die Novelle des Sächsischen Polizeigesetzes als einen erneuten Angriff auf die informationelle Selbstbestimmung, die rechtsstaatlich gebotene Gewaltenteilung sowie als Gefahr für eine offene und demokratische Gesellschaft.“

Aus dem Landtag kommt die schärfste Reaktion von der Fraktion Bündnis 90/Die Grünen: „Der massive Einsatz von KI zu Überwachungszwecken, die intelligente Videoüberwachung und die Möglichkeit des Daten­abgriffs aus dem Internet sind keine Lappalien, sondern schwerwiegende Eingriffe in die Bürger­rechte aller Menschen in Sachsen“, sagte der innenpolitische Sprecher der Grünen-Fraktion, Va­lentin Lippmann. Er wiederholte seine Kritik aus dem Herbst, wonach sich der Entwurf eher an chinesischen Überwachungsfantasien orientiere als an dem Grundgesetz.

Grüne und Linke scheiden als Mehrheitsbeschaffer aus

Die Linksfraktion äußerte sich in einer ersten Mitteilung zurückhaltender und verwies darauf, den aktuellen Entwurf noch nicht zu kennen. In der Vergangenheit hatte auch sie die geplanten Befugnisse für die automatisierte Datenanalyse, verdeckte Kennzeichenerkennung und biometrische Suche im Internet zurückgewiesen.

Aufgrund der Mehrheitsverhältnisse im Landtag und die klare Ablehnung der Grünen ist die Positi­on der Linken für die Staatsregierung aber nicht entscheidend. Der schwarz-roten Minder­heitskoalition fehlen zehn Stimmen. AfD (40) und Bündnis Sahra Wagenknecht (15) können den Entwurf durch ihre alleinige Zustimmung über die Ziellinie bringen, Grüne (7) und Linke (6) müssten hingegen gemeinsam mit der Minderheitskoalition votieren.

AfD nicht konstruktiv, BSW sieht noch Änderungsbedarf

Eine Zusammenarbeit mit der AfD haben CDU und SPD in ihrem Koalitionsvertrag ausgeschlossen. Die AfD hat keine Stellungnahme im Konsultationsprozess abgegeben. Als einzig verbleibende Option bleibt der Koalition damit das BSW.

Dessen innenpolitischer Sprecher Bernd Rudolph kündigte Anpassungen im parlamentarischen Ver­fahren an. Besonders bei den Themen automatisierte Datenanalyse, Training von KI-Systemen mit Polizeidaten und Tasern sieht die BSW-Fraktion noch Änderungsbedarf. „Der vorliegende Gesetz-Entwurf enthält sinnvolle Modernisierungen, aber auch gefährliche Überdehnungen.“ Man wolle ein Polizeigesetz, das wirksam schützt, aber nicht überwacht.

Die Uhr tickt

Viel Zeit für Änderungen im Parlament bleibt indes nicht mehr. Wegen eines Urteils des Verfassungsge­richtshofs laufen einige Polizeibefugnisse aus dem aktuellen sächsischen Polizeigesetz bald aus. Grüne und Linke hatten gegen das Gesetz geklagt, der sächsische Verfassungsgerichtshof gab ihnen in Teilen recht und setzte für manche Polizeibefugnisse eine Frist: Bis zum 30. Juni braucht es eine neue Regelung, sonst laufen sie aus.

Den Fraktionen verbleiben damit noch gut vier Monate für den ge­samten parlamentarischen Prozess.

Grüne und Linke kritisie­ren die Regierung für den engen Zeitplan. Selbst Innenminister Schuster räumt ein, dass der Land­tag „jetzt nicht komfortabel“, aber ausreichend Zeit habe. Man habe das durchgerechnet, versicherte Schuster.

Geplant ist, das Gesetz am 24. Juni im Plenum zu beschließen. Damit das alles zeitlich klappt, wurde eine Sondersitzung des Innenausschusses angesetzt. Bereits am 27. März steht die Sachver­ständigenanhörung im Landtag an.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Ältere BeiträgeHaupt-Feeds

Umfrage zu Rechenzentren: Die Mehrheit folgt dem Hype nicht

01. November 2025 um 08:40

Die Bundesregierung will Deutschland zur „KI-Nation“ machen, die EU verfolgt eine „AI-First“-Mentalität. Eine Umfrage in mehreren europäischen Ländern zeigt nun, dass die Mehrheit der Befragten diesen Hype nicht mitträgt. Ihr bereitet vor allem der wachsende Strom- und Wasserverbrauch Sorge. Und sie wünscht sich eine strengere Regulierung.

Schornsteine vor bewölktem Himmel aus denen Rauchwolken quillen
Fossile Energien erfahren eine Renaissance – dank ressourcenhungriger KI. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Janusz Walczak

Ich öffne mein Bahn-Ticket. “Dieses Dokument scheint lang zu sein. Spare Zeit und lies eine Zusammenfassung”, empfiehlt mir prompt mein PDF-Reader. Ein Paradebeispiel dafür, wie immer mehr Anwendungen den Nutzer*innen KI-Tools aufdrängen, in den meisten Fällen, ohne dass sich ein Nutzen daraus ergibt.

Weltweit versuchen Regierungen und große IT-Firmen, sich im KI-Wettbewerb zu überbieten. Dabei benötigen die zugrunde liegenden Systeme immer mehr Rechenleistung, für die irgendwo Computer laufen müssen, die Strom und Wasser verbrauchen. Doch während das Thema Rechenzentren längst in der politischen Debatte und bei Fachleuten angekommen ist, wusste man bislang kaum etwas darüber, wie die Bevölkerung diese Entwicklung einschätzt.

Porträtfoto von Julian Bothe
Julian Bothe, Senior Policy Manager bei der gemeinnützigen NGO AlgorithmWatch - Alle Rechte vorbehalten AlgorithmWatch

Aus diesem Grund hat AlgorithmWatch in mehreren europäischen Ländern eine repräsentative Umfrage zu Rechenzentren und ihren Auswirkungen durchführen lassen. Gemeinsam mit internationalen Partnerorganisationen wie der spanischen Initiative Tu Nube Seca mi Rio, Friends of the Earth Ireland und der europäischen Klimaschutzallianz Beyond Fossil Fuels wurden Menschen in Deutschland, der Schweiz, Spanien, Irland und dem Vereinigen Königreich befragt.

Wunsch nach mehr Transparenz und mehr Regulierung

Die Ergebnisse sind überraschend deutlich: In allen beteiligten Ländern spricht sich jeweils eine große Mehrheit der Befragten für eine stärkere Regulierung und mehr Transparenz von Rechenzentren aus. In einigen Ländern ist die Zustimmung dabei besonders hoch, so zum Beispiel in Spanien und Irland. Dort ist der Wasser- beziehungsweise Stromverbrauch der KI- und Cloud-Fabriken schon länger Gegenstand öffentlicher Diskussionen und Proteste. Denn sowohl im grünen Irland als auch im trockenen Spanien wirken sich die Rechenzentren bereits spürbar auf Energiepreise und Wasserverfügbarkeit aus. In Spanien befürchten knapp 90 Prozent der Befragten, dass der Wasserverbrauch der Einrichtungen ihre eigene Versorgung beeinträchtigen könnten.

Auch beim Blick auf die Gesamtergebnisse sprechen die Zahlen eine eindeutige Sprache: Drei Viertel der Befragten aller Länder sorgen sich, dass der Wasserverbrauch die umliegenden Ökosysteme beeinträchtigen könnte. Fast genauso viele befürchten Auswirkungen auf den eigenen Wasserverbrauch und immerhin nahezu zwei Drittel denken, dass der Energieverbrauch von Rechenzentren bereits heute einen relevanten Anteil des Stromverbrauchs in den jeweiligen Ländern ausmacht.

Groß ist aber nicht nur der Anteil derer, die sich Sorgen machen, sondern auch die Unterstützung für politische Forderungen, die Betreiber stärker in die Verantwortung nehmen. Mehr als sieben von zehn Befragten wollen, dass der Bau neuer Rechenzentren nur dann erlaubt ist, wenn der zusätzliche Strombedarf durch zusätzliche Kapazitäten an erneuerbaren Energien gedeckt wird. Ebenso viele wollen klare Kriterien, nach denen Energie verteilt wird – wobei die Befragten Rechenzentren und KI-Modelle konsequent als unwichtig bewerten.

Bei der Verteilung der Energie sollten gemäß der Umfrage vor allem die Sektoren priorisiert werden, die erneuerbare Energien zur Umstellung auf eine klimafreundliche Produktion benötigen. Rechenzentren gehören nicht dazu – ihr Stromverbrauch entsteht ja gerade zusätzlich. Häufig werden diese aktuell direkt mit Strom aus fossilen Brennstoffen betrieben. Vielerorts werden sogar Gaskraftwerke neu errichtet, um den Bedarf zu decken. Aber selbst wenn neue Rechenzentren mit erneuerbaren Energien betrieben werden, wie es in Deutschland ab 2027 für größere Einrichtungen vorgeschrieben ist, fehlt ohne weiteren Ausbau diese Energie dann in anderen Sektoren und verlangsamt dort die Dekarbonisierung. Ob direkt oder indirekt: Der Strombedarf für Rechenzentren und KI-Anwendungen gefährdet die Klimaziele.

Verbräuche steigen an, verlässliche Zahlen fehlen

Der Blick auf die Zahlen zeigt: Die in der Umfrage deutlich werdenden Sorgen sind mehr als berechtigt. In Irland verbrauchen Rechenzentren mittlerweile 22 Prozent des gesamten Stroms und tragen erheblich zu den teils enormen Strompreissteigerungen bei. Auch in Deutschland entfallen aktuell mehr als vier Prozent des gesamten Stromverbrauchs auf Rechenzentren. Schätzungen zufolge sind es in Frankfurt am Main bereits jetzt 40 Prozent des Stromverbrauchs, in Dublin sogar 80 Prozent. In der gesamten EU sind es mehr als drei Prozent – Tendenz stark steigend.

Hinzu kommt das für die Kühlung benötigte Wasser: In Spanien werden die größten KI-Fabriken ausgerechnet in den trockensten Regionen gebaut. Auch in Deutschland könnte laut einer Studie der Gesellschaft für Informatik der Wasserverbrauch von Rechenzentren zu Problemen führen – beispielsweise im Rhein-Main-Gebiet und in Brandenburg.

Während die Politik und Betreiberunternehmen offensiv für einen starken Ausbau von Rechenzentren und KI-Infrastruktur werben, mehren sich die Proteste der lokalen Bevölkerung. In Deutschland konzentrieren sich diese bislang vor allem auf Frankfurt und Umgebung. In Irland oder Spanien, wo bereits länger protestiert wird, sind die Bürgerinitiativen weiter verbreitet und dauerhafter organisiert, beispielsweise in der Initiative Tu Nube Seca Mi Rio – “Deine Cloud trocknet meinen Fluss aus”.

Vielerorts ist die mangelnde Transparenz ein großes Problem. Selbst offizielle Stellen müssen größtenteils auf Schätzungen zurückgreifen, wie viel Wasser und Strom die Rechenzentren tatsächlich verbrauchen. Sind valide Daten vorhanden, bleiben diese meist geheim. Zwar sollen Betreiber größerer Rechenzentren die Verbräuche mittlerweile an nationale Stellen wie dem deutschen Energieeffizienzregister für Rechenzentren und die EU melden – aber auch diese Daten werden nur aggregiert veröffentlicht. Hinzu kommt der Unwillen der Betreiber, diese Informationen bereitzustellen. Ein aktueller Bericht der Europäischen Kommission schätzt für das Jahr 2024, dass nur gut ein Drittel aller Rechenzentren in der gesamten EU dies tun. Selbst die Gesamtzahl aller Rechenzentren kann sie dabei nur mutmaßen.

Ein ähnliches Bild zeigt sich auch in Deutschland

In der Bundesrepublik wird der Strom- und Wasserverbrauch von Rechenzentren erst in der jüngsten Zeit stärker thematisiert. Hier liegt der Anteil der Menschen, die sich Sorgen machen, noch etwas niedriger als in anderen europäischen Ländern. Die Betonung liegt hier auf dem „noch“, denn auch in Deutschland nimmt die Zahl der Rechenzentren stark zu – und soll nach dem Willen der Bundesregierung noch stärker wachsen.

Wie drastisch die Entwicklungen sind, zeigen beispielsweise die Zahlen der Bundesnetzagentur. Diese hatte erst vor kurzem die Schätzungen bezüglich des zukünftigen Stromverbrauchs stark nach oben korrigiert: Die im April 2025 veröffentlichten Szenarien gehen davon aus, dass bis zum Jahr 2037 Rechenzentren 78 bis 116 Terawattstunde (TWh) Strom verbrauchen – doppelt bis viermal so viel, wie es die ursprünglichen Abfragen ergeben hatten. Zur Einordnung: Der gesamte Bruttostromverbrauch lag in Deutschland im Jahr 2023 bei gut 550 TWh.

Da die Bundesnetzagentur nur die Rechenzentren berücksichtigt, die sich aktuell in der Planung befinden, könnten die tatsächlichen Zahlen sogar noch weiter ansteigen. Damit würde der Gesamtbedarf der Rechenzentren 2037 nicht nur bis zu 10 Prozent des deutschen Stromverbrauchs betragen. Der Zuwachs an Rechenzentren sorgt vor allem dafür, dass große Mengen Strom zusätzlich bereitgestellt werden müssen, dass fossile Kraftwerke länger laufen und dass wahrscheinlich auch die Strompreise steigen.

Angesichts dieser Zahlen überraschen die Umfrageergebnisse in Deutschland nicht: Auch hier unterstützen zwei Drittel der Befragten die Auflage, dass Rechenzentren nur gebaut werden dürfen, wenn dafür entsprechend auch weitere Kapazitäten erneuerbarer Energien geschaffen werden. Mehr als drei Viertel der Befragten fordern, dass Betreiber von Rechenzentren ihren Energieverbrauch (76 Prozent), ihre Energiequellen (77 Prozent) und ihre Umweltauswirkungen (81 Prozent) offenlegen.

Die Umfrageergebnisse offenbaren damit auch eine Kluft zwischen der Mehrheitsmeinung in der Bevölkerung und dem Kurs der Bundesregierung. Digitalminister Karsten Wildberger (CDU) hatte erst Ende September gegenüber der Süddeutschen Zeitung angegeben, dass es für ihn “erst einmal primär um das Rechnen” gehe und Nachhaltigkeit demgegenüber nachrangig sei. Die Mehrheit der Befragten sieht das offensichtlich anders.

Und noch eines wird deutlich: Es reicht nicht aus, nur etwas an der Effizienz zu schrauben oder die Nutzung der Abwärme zu optimieren. Angesichts der Größe des erwarteten Wachstums muss es auch darum gehen, den Verbrauch von Rechenzentren absolut zu begrenzen – und dort, wo er unvermeidbar ist, durch zusätzliche erneuerbare Energien zu decken.

KI-Hype begrenzen – Rechenzentren nachhaltig gestalten

Rechenzentren sind zweifelsfrei wichtige Infrastrukturen und werden in Zukunft weiter an Bedeutung gewinnen. Umso wichtiger ist es, diese Infrastruktur nachhaltig zu gestalten und die Fehler der Vergangenheit nicht zu wiederholen. Dazu gehört auch die Frage: Wie viele solcher Rechenzentren brauchen wir eigentlich? Welche der neuerdings überall eingebauten KI-Anwendungen haben einen gesellschaftlichen Nutzen – und welche nicht?

Wie auch in anderen Bereichen darf sich die Debatte um den nachhaltigen Einsatz von KI nicht in erster Linie auf der Ebene von individuellen Konsum- beziehungsweise Nutzungsentscheidungen abspielen. Es braucht vielmehr eine politische Diskussion und Regulierung.

Aktuell wird einem bei jeder noch so kleinen PDF-Datei eine algorithmische Zusammenfassung aufgedrängt, führt jede Google-Anfrage zum Aufruf von Sprachmodellen und soll auch die staatliche Verwaltung nach dem Willen der Bundesregierung an so vielen Stellen wie möglich KI-Systeme benutzen. Hier bringt es wenig, nur an das Individuum zu appellieren. Stattdessen braucht es politische Entscheidungen, die sowohl bei KI-Systemen als auch bei Rechenzentren die ökologischen Folgen mitdenken. Statt der „KI-Nation“, zu der sich Deutschland laut dem Koalitionsvertrag entwickeln soll, braucht es – wenn man schon von Nation sprechen will – eine „KI-sensible Nation“, die neben dem Nutzen auch die Nebenwirkungen und häufig leeren Versprechungen solcher Anwendungen im Auge behält.

Mein Bahnticket jedenfalls drucke ich mir weder aus, noch lasse ich es mir zusammenfassen. Gar nicht so selten ist der Nicht-Einsatz von KI nämlich ihr bester Einsatz.

Julian Bothe ist als Senior Policy Manager bei der gemeinnützigen NGO AlgorithmWatch verantwortlich für das Thema „KI und Klimaschutz“. An der Schnittstelle von Digital- und Energiepolitik arbeitet er daran, den Ressourcenverbrauch und den Klimaschaden des aktuellen KI-Booms in Grenzen zu halten. Promoviert hat er zur Akzeptanz der Energiewende.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Europäische Regeln für KI: Wo die Zivilgesellschaft nachjustieren möchte

16. Januar 2025 um 17:41

Sollen Polizeibehörden Gesichtserkennung einsetzen können, wenn sie mit einem Schild davor gewarnt haben? Macht es für Empfänger:innen von Sozialhilfe einen Unterschied, ob sie mit einem KI-System Probleme kriegen oder mit klassischer Software? Die Zivilgesellschaft hätte dazu gerne mehr Klarheit von der EU-Kommission.

Ein DJ-Set mit vielen Einstellknöpfen
Es gibt noch eine Menge Stellschrauben. – Public Domain Pexels / picjumbo.com

Die EU-Kommission soll dafür sorgen, dass die Verbote aus der europäischen KI-Verordnung möglichst umfangreich ausgelegt werden. Das fordert eine Koalition aus zivilgesellschaftlichen Organisationen in einer heute veröffentlichten Stellungnahme. Sie bezieht sich auf Leitlinien, an denen die Kommission momentan noch arbeitet.

Diese Leitlinien sollen dafür sorgen, dass auch „einfachere“ Systeme von den Regeln der KI-Verordnung betroffen sind, fordern die Organisationen. Die Kommission soll auch klarstellen, welche Arten von Systemen die verbotenen „inakzeptablen“ Risiken für Grundrechte haben. Außerdem sollen Grundrechte die zentrale Basis dafür sein, wie die KI-Verordnung praktisch umgesetzt wird.

Arbeit an Details läuft weiter

Die Europäische Union hat lange an ihren Regeln für Künstliche Intelligenz gefeilt. Intensiv diskutiert wurde etwa die Frage, welche Einsätze von KI in Europa ganz verboten werden sollten. Dabei ging es etwa um die biometrische Gesichtserkennung oder das sogenannte „Predictive Policing“. Die fertige KI-Verordnung schränkt beide Praktiken zwar ein, verbietet sie aber nicht ganz.

Die Verordnung selbst ist seit bald einem Jahr beschlossen und trat auch schon vor einigen Monaten in Kraft. Aber Obacht: Bei EU-Gesetzen heißt das nicht, dass alle ihre Regeln auch direkt gelten.

Zuvor gibt es noch einiges fertigzustellen. Zum Beispiel die sogenannten „Praxisleitfäden“, die genaue Regeln für KI-Modelle mit allgemeinem Verwendungszweck wie GPT-4 festlegen sollen. An denen arbeiten gerade die Anbieter solcher Modelle, andere Unternehmen und Vertreter:innen der Zivilgesellschaft unter Aufsicht der EU-Kommission. Bis April soll es einen fertigen Text geben.

Die Verbote gelten ab dem 2. Februar. Bis dahin will die EU-Kommission noch Leitlinien veröffentlichen, die Unternehmen dabei helfen sollen, sie einzuhalten. Außerdem will sie noch klarstellen, was genau denn ein KI-System überhaupt ist – und welche Systeme deshalb von der KI-Verordnung betroffen sein werden.

Ergebnis soll zählen, nicht die Art der Software

Auf diese Leitlinien bezieht sich nun die zivilgesellschaftliche Koalition, an der unter anderem European Digital Rights (EDRi), Access Now, AlgorithmWatch und Article 19 beteiligt sind. Caterina Rodelli von Access Now hält die Leitlinien für ein „zentrales Werkzeug“, um mangelhafte Menschenrechtsregeln der Verordnung noch auszubessern.

Die erste Forderung der Koalition bezieht sich auf „einfachere“ Software. „Wir sind besorgt, dass Entwickler:innen vielleicht die Definition von KI und die Einstufung von Hochrisiko-KI-Systemen ausnutzen können, um die Verpflichtungen der KI-Verordnung zu umgehen“, schreiben die Organisation. Unternehmen könnten ihre KI-Systeme zu normaler, regelbasierter Software umwandeln und so nicht mehr vom Gesetz betroffen sein, obwohl es die gleichen Risiken geben würde.

Die Organisationen fordern deshalb, dass sich Gesetze an möglichem Schaden orientieren sollten, nicht an den genutzten technischen Mitteln. Sie beziehen sich auf das Beispiel des niederländischen SyRI-Systems. Dieses System beschuldigte Empfänger:innen von Sozialhilfe fälschlicherweise des Betrugs und beeinträchtigte so Tausende von Familien. Der Skandal führte 2021 zum Sturz der damaligen niederländischen Regierung.

Dabei wirkte das zugrundeliegende System einfach und erklärbar, betont das Statement. Die Auswirkungen auf eine Vielzahl an Personen waren trotzdem verheerend.

Mehr Systeme einbeziehen

Die Koalition fordert außerdem, dass die Leitlinien marginalisierte Gruppen besser schützen sollen. Dafür soll die Kommission ausdehnen, welche Fälle unter die verbotenen „inakzeptablen“ Risiken für die Grundrechte fallen.

So soll das Verbot von „Social Scoring“ etwa auf Anwendungen ausgedehnt werden, die heute in Europa schon gang und gäbe sind: Etwa für Empfänger:innen von Sozialhilfe, wie im niederländischen Fall, oder für Migrant:innen. Die Leitlinien sollten deshalb etwa Daten schützen, die über Bande Informationen wie die Ethnie oder den sozioökonomischen Status preisgeben könnten, wie zum Beispiel die Postleitzahl.

Das Verbot für „Predictive Policing“ soll eine weite Bandbreite an Systemen einbeziehen, die kriminalisiertes Verhalten vorhersagen sollen. Im Verbot des allgemeinen Scrapens von Gesichtsbildern sehen die Organisationen einige Schlupflöcher, die sie gerne geschlossen haben würden. Außerdem soll eine Definition einer Gesichtsbild-Datenbank gelöscht werden, weil durch diese Anbieter wie Pimeyes oder Clearview außen vor bleiben würden.

Löcher schließen bei der Gesichtserkennung

Bei den Verhandlungen zur KI-Verordnung wollte das Europäische Parlament ein umfassendes Verbot von Systemen zur Emotionserkennung durchsetzen, ist damit aber gescheitert. Die Leitlinien sollen nun zumindest klar zwischen echten medizinischen Geräten wie Herzmonitoren und Geräten wie „Aggressionsdetektoren“ unterscheiden, fordern die Organisationen – denn medizinische Geräte sind von den Verboten ausgenommen.

Außerdem sollen die Leitlinien die Regeln für automatisierte Gesichtserkennung verschärfen. Auch in Deutschland gab es schon Forderungen, einige der in der KI-Verordnung dafür offen gelassenen Schlupflöcher zu schließen. Auf europäischer Ebene fordert die zivilgesellschaftliche Koalition nun, dass die Entwicklung von Gesichtserkennungssystemen für den Export unter das Verbot fallen soll. Zudem soll es nicht ausreichen, wenn Behörden nur mit einem Schild auf Zonen hinweisen, in denen Gesichtserkennung genutzt wird. Videoaufzeichnungen sollen erst nach 24 Stunden biometrisch ausgewertet werden dürfen.

In Zukunft bitte mehr Zeit

Eine Menge Wünsche für die Leitlinien – die Koalition hat aber auch noch einige Kritik für deren Entstehen übrig. Der Prozess sei nicht vorher angekündigt worden, habe kurze Fristen gelassen, es sei kein Entwurf veröffentlicht worden, schreiben sie. Außerdem seien manche der Fragen suggestiv formuliert gewesen. So habe die Kommission etwa nur nach Systemen gefragt, die aus der Definition von KI ausgeschlossen werden sollten, und nicht nach Systemen, für die die Regeln gelten sollten, bemängeln die Organisationen.

Das Statement fordert deshalb die Kommission auf, in Zukunft die Zivilgesellschaft besser einzubeziehen. „Die EU-Kommission muss Interessengruppen mit begrenzten Ressourcen eine Stimme geben, und dafür muss sie längere Zeiträume für so umfassende Befragungen vorsehen“, so Nikolett Aszodi von AlgorithmWatch.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

  • Es gibt keine weiteren Artikel
❌