🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Heute — 20. April 2026Haupt-Feeds

Deutschland-Stack und Zivilgesellschaft: Digitalministerium sendet widersprüchliche Signale

20. April 2026 um 10:52

Das Digitalministerium hatte die Zivilgesellschaft aufgerufen, sich beim Deutschland-Stack einzubringen. Doch in beiden Konsultationsphasen wurde deren Expertise nicht gefragt. Dabei bringt die Zivilgesellschaft Fragen ein, die sonst untergehen. Das zeigt der Workshop zu „KI in der Verwaltung“ des Bündnisses F5.

Fußgängerampel, bei der rot und grün gleichzeitig leuchten; das stehende Männchen leuchtet grün, das gehende rot
In der Kommunikation mit dem Digitalministerium: Zivilgesellschaft steht vor Rätseln. (Symbolbild) CC-BY-SA 2.0 Flickr/Captain of the Burning Ship; Bearbeitung: netzpolitik.org

Der Deutschland-Stack ist das Großprojekt des jungen Bundesministeriums für Digitales und Staatsmodernisierung schlechthin. Damit will Karsten Wildberger (CDU) ein „digitales Update“ (€) für Deutschland. Mit der „einheitlichen IT-Infrastruktur mit Basiskomponenten wie Cloud- und IT-Diensten und klar definierten Schnittstellen“ adressiert er die grundlegenden Versäumnisse der seit Jahren schleppenden Digitalisierung der öffentlichen Verwaltung.

Eigentlich könnte das Ministerium hier aus dem Vollen zivilgesellschaftlicher Expertise schöpfen. Viele zivilgesellschaftliche Akteure beobachten die scheiternde Verwaltungsdigitalisierung nicht nur seit Jahrzehnten, sondern bringen ihr Wissen und ihre Erfahrungen häufig ehrenamtlich in Digitalisierungsprojekte und nachhaltige Lösungswege ein.

Zum Start des Konsultationsprozesses im Herbst erhielt das Ministerium zunächst viel Lob. Öffentlich rief es Gruppen, Verbände, aber auch Einzelpersonen dazu auf, über die Plattform openCode ihr Feedback zum Stack einzubringen. Der Zugang dazu ist niedrigschwellig und die einzelnen Beiträge sind öffentlich einsehbar. Die volle Transparenz hebt hier die Konsultation stark von bisherigen Beteiligungsformaten ab.

Workshops ohne die Zivilgesellschaft

Doch um Feedback zu bekommen, fährt das Ministerium von Anfang an zweigleisig. Denn zeitgleich zur offenen Konsultation plante es Workshops mit Verbänden aus den Bereichen Start-ups, Wissenschaft, IT- und Digitalwirtschaft sowie weiteren. Mit von der Partie waren vor allem Wirtschaftsverbände. Dabei erhielt die Zivilgesellschaft bislang keinen Zugang.

Was bei den Workshops herauskam, ist nicht bekannt. Die hätten „generell im Haus intern und auf Arbeitsebene stattgefunden – zu diesen gibt es keine öffentliche Berichterstattung“, erklärt ein Sprecher des BMDS gegenüber netzpolitik.org.

Wie aus der Antwort (PDF) der Bundesregierung auf eine Kleine Anfrage von Sonja Lemke (Die Linke) hervorgeht, gab es im November fünf Workshops – zu den Themen Markt und Integrationsplattform, Startups und Agentic AI. Sie wurden unter anderem ausgerichtet von eco, dem KI-Verband, Bitkom und Databund. Die Bundesregierung betonte, sie habe Expertise zum Thema „technische Standards und Technologien des Deutschland-Stacks“ angefragt, aber an den Workshops lediglich als „Impulsgeber“ teilgenommen.

Digitalministerium lässt sich bitten

Bei der Terminvergabe ging die Zivilgesellschaft leer aus, sowohl in der ersten Konsultationsphase vom 1. Oktober bis zum 30. November als auch in der zweiten vom 16. Januar bis zum 15. Februar. Dabei hatte das Bündnis F5 bereits im Herbst beim Ministerium nach einem Termin gefragt, so Kai Dittmann. Er leitet die Advocacy- und Policyarbeit bei der Gesellschaft für Freiheitsrechte (GFF) und koordiniert das Bündnis.

Zu diesem Bündnis haben sich die Organisationen Reporter ohne Grenzen, AlgorithmWatch, Wikimedia Deutschland, Open Knowledge Foundation Deutschland und GFF zusammengeschlossen, sie setzen sich für eine gemeinwohlorientierte Digitalpolitik ein.

„Wir hatten gehofft, dass das BMDS von sich aus einen Konsultationsworkshop zum Deutschland-Stack anbietet“, sagt Dittmann, „um zunächst ein paar grundlegende Informationen zu vermitteln, etwa was zum Stack gehört und was nicht. Es wäre sinnvoll gewesen, zu Beginn darüber zu diskutieren, bei welchen Fragestellungen die Zivilgesellschaft aktiv eingebunden sein sollte“, etwa bei der Frage nach dem Einsatz digitaler Identitäten und danach, wie der sich auf Grundrechte auswirkt und wie er eingeschränkt werden müsste. Auch zur Frage einer sinnvollen Datenhaltung, um diesen Deutschland-Stack zu befüllen, hätte das BMDS von der Expertise von Wikimedia profitieren können, so Dittmann.

F5-Workshop zu KI in der Verwaltung

Schließlich fand Ende März ein Workshop mit F5 statt. Das Thema: „KI in der Verwaltung“. Doch wie das BMDS auf Anfrage erklärt, habe der Workshop „keinen speziellen Bezug zum Deutschland-Stack“. Das überrascht in doppelter Hinsicht. Denn laut Antwort der Bundesregierung vom Dezember sei ein Workshop mit der Zivilgesellschaft „in Klärung“ und als Organisation benannte sie das Bündnis F5. Das suggeriert, dass der F5-Workshop im Kontext des Deutschland-Stacks geplant war.

Zweitens waren bei diesem Workshop laut BMDS nicht nur Vertreter:innen aus der Zivilgesellschaft eingeladen, sondern auch aus der Wirtschaft. Überraschend ist die „Klarstellung“ des Ministeriums auch, weil KI im überarbeiteten „Gesamtbild“ ausdrücklich Teil des Deutschland-Stacks ist.

Agentische KI soll Verwaltungsaufgaben künftig erleichtern und teilweise übernehmen. Dazu hat das BMDS einen eigenen Hub gegründet und fördert eine Reihe an Pilotprojekten. Eines davon setzt agentische KI beim Antragsverfahren für Wohnberechtigungsscheine ein. Sie betrifft einen sensiblen Bereich, in dem es um die Existenz von Menschen geht. Fehler wären hier verheerend. Das veranschaulicht das Beispiel um die Kindergeldaffäre in den Niederlanden.

„Ins Machen kommen“ braucht klare Grenzen

„Im Workshop haben wir viele Fragen erst angerissen“, so Dittmann. Wie gehen Verwaltungen und Mitarbeiter:innen etwa damit um, wenn was schief geht? Wer trägt die Verantwortung für den Fall, dass Fehler passieren, die unter Umständen gravierende Konsequenzen haben? Der Sachbearbeiter, die Software-Hersteller, der IT-Dienstleister, die Behörde, die das KI-System eingekauft hat, oder der Minister, der das Ganze vorangetrieben hat? Wer ist zuständig, wenn entsprechende KI-Systeme nicht die gewünschten Ergebnisse liefern?

Was passiert, wenn ein einzelner Sachbearbeiter mithilfe von KI-Agenten immer mehr Anträge bearbeitet und etwas übersieht? „Müssen wir mit einer Verantwortungsdiffusion in diesem System rechnen?“, fragt Dittmann. Denn klar sei, die Maschine kann keine Verantwortung tragen.

Das alles seien gesellschaftliche Fragen, über die wir sprechen und die wir klären müssten. Angesichts des Mottos „ins Machen kommen“ seien sie bislang untergegangen. Ins Machen zu kommen, heiße aber auch zu entscheiden, „was wir alles nicht machen“ und Grenzen abzustecken, so Dittmann.

Aufsuchende Beteiligung

Dass das BMDS im Rahmen des D-Stacks die Zivilgesellschaft auf Abstand hält, ist umso unverständlicher, als es laut Sprecher beim KI-Transformationsprozess ausdrücklich darum gehe, deren Perspektiven einzubeziehen.

Auch wenn die Kommunikation des Ministeriums bislang unstet war, den Workshop Ende März sieht Dittmann als Startschuss dafür, zivilgesellschaftliche Expertise nicht nur einzubeziehen, sondern auch als Ressource zu begreifen. Die könne das Ministerium noch mehr nutzen, wenn es sich um eine aufsuchende Beteiligung bemüht.

Das kann bedeuten, die Expertise engagierter Menschen über andere Wege einzuholen. Denn die arbeiten häufig ehrenamtlich und können Workshops nicht wahrnehmen, wenn die an einem Werktag zu normalen Geschäftszeiten stattfinden. Das betrifft zum Beispiel Ehrenamtliche von D64, dem Zentrum für digitalen Fortschritt, vom Chaos Computer Club oder InÖG, dem Innovationsverbund öffentliche Gesundheit.

Das Ministerium könnte Forschungsmittel bereitstellen oder bei Forschenden anfragen, welche Personen oder ehrenamtlichen Organisationen sich bei bestimmten Fragen besonders gut auskennen. Beispielsweise könne das BMDS auch nach Erfahrungen fragen, die ehrenamtliche Digitalisierungsprojekte in Berlin, auf Bundesebene, aber auch in Städten und kleineren Gemeinden eingeholt haben.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Vier-Augen-Prinzip bei Verschlüsselungen mit Picocrypt NG umsetzen

20. April 2026 um 09:00
Das kleine Verschlüsselungstool Picocrypt war sehr beliebt, die Entwicklung wurde aber vor einigen Monaten eingestellt. Mit Picocrypt NG gibt es nun einen Fork, der aktiv gepflegt wird. Quantum-sichere Verschlüsselungstechnik zusammen mit pfiffigen Kleinigkeiten sind einen Blick wert.

9to5Linux Weekly Roundup: April 19th, 2026

20. April 2026 um 05:30

9to5Linux Roundup April 19th

9to5Linux Weekly Roundup for April 19th, 2026, brings news about KDE Gear 26.04, Archinstall 4.2, GNOME 50.1, Scribus 1.6.6, Zorin OS 18.1, GIMP 3.2.4, Solus 4.9, OpenSSL 4.0, Raspberry Pi OS 2026-04-13, Mir 2.26, COSMIC 1.0.10, new XOrg Server and Xwayland security releases, Proton 11 beta, Shelly 2.1, and more.

The post 9to5Linux Weekly Roundup: April 19th, 2026 appeared first on 9to5Linux - do not reproduce this article without permission. This RSS feed is intended for readers, not scrapers.

GIMP 3.2.4 Improves Text and Crop Tools, PDF Export, PSD Import, and More

20. April 2026 um 00:25

GIMP 3.2.4

GIMP 3.2.4 open-source image editor is now available for download with improvements to Text and Crop tools, PDF export, PSD import, and more. Here's what's new!

The post GIMP 3.2.4 Improves Text and Crop Tools, PDF Export, PSD Import, and More appeared first on 9to5Linux - do not reproduce this article without permission. This RSS feed is intended for readers, not scrapers.

GIMP 3.2.4 released with fresh set of bug fixes

19. April 2026 um 14:15

GIMP Wilber logo in front of a brick texture with the number 3.2 graffitied on itBug fixes arrive in GIMP 3.2.4, the latest maintenance update for the current 3.2.x stable series. Assorted improvements made since GIMP 3.2.2 dropped in March include a variety of layer workflow tweaks, like ensuring certain actions, like ‘Layers to Image Size’ and ‘Resize Layer to Selection’ only on raster layers (not vector, linked or text layers). Similarly, the team says they “caught more cases where tools would accidentally rasterize link, text, and vector layers”. A layer naming issue broke what GIMP devs refer to as “the principle of least surprise”, so that’s been resolved. In earlier builds opening an XCF […]

You're reading GIMP 3.2.4 released with fresh set of bug fixes, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without permission.

Video: Handy Kamera als Webcam nutzen

19. April 2026 um 10:39
Möchtest du deine Handykamera als Webcam nutzen? In meinem neuen Video zeige ich dir, wie du DroidCam auf deinem Android-Gerät installierst und den Client auf deinem Linux-System einrichtest. Danach verbindest du dein Handy einfach über WLAN oder USB mit dem PC und die Webcam ist sofort einsatzbereit.

Transparenzbericht 1. Quartal 2026: Unsere Einnahmen und Ausgaben – und viele kleine Lagerfeuer

19. April 2026 um 08:16

Wenn die eigenen Recherchen verfilmt werden, ist das schon ein ganz besonderes Ereignis. Wir haben uns vor ein emotionales Lagerfeuer gesetzt und spüren, wie sich nach Jahren der Recherchearbeit ein Kreis schließt. Und an dessen Anfang steht ihr, liebe Spender:innen.

Ein Gemälde, das einen Birkenhain in der Sonne zeigt
Hier sollte niemand Funken schlagen. CC public domain Isaac Levitan, Birkenhain (1860–1900)

Das Fernsehen galt lange Zeit als das emotionale Lagerfeuer der Nation. Aus Sicht vieler glimmt es heute aber nur noch. Nicht so bei uns: Fast das ganze Team von netzpolitik.org saß an einem Nachmittag im Februar dicht an dicht im abgedunkelten Konferenzraum – und starrte gebannt auf den Fernseher.

Es war eine Sneak-Preview der besonderen Art. Sechs Wochen vor der offiziellen Ausstrahlung hatten wir vom Bayerischen Rundfunk die finale Schnittfassung der Dokumentation „Gefährliche Apps – Im Netz der Datenhändler“ erhalten. Die Doku ist so etwas wie der Film zu unseren Recherchen.

Seit mehr als zwei Jahren arbeiten Sebastian und Ingo zusammen mit einem Team des Bayerischen Rundfunks an den „Databroker Files“. Die Doku erzählt davon und den konkreten Gefahren, die von Tracking-Daten ausgehen.

Der Film macht das, was Filme nun einmal so gut können: den flächendeckenden Angriff auf die Privatsphäre von Handy-Nutzer:innen noch anschaulicher. Die Punkte auf der animierten Karten werden zu einzelnen Menschen, die in die Kamera blicken und zu uns sprechen. Eine ägyptische Journalistin, ein ukrainischer Soldat, eine bayerische Schülerin. Für Menschen wie sie ist der Datenhandel eine existenzielle Gefahr. Das versteht man nicht nur, das spürt man auch.

Als Ingo und Sebastian im Februar 2024 mit ihren Recherchen begannen, hatten sie wohl nicht geahnt, dass auch sie eines Tages zu Protagonisten einer Fernseh-Doku werden. Regelmäßig geben wir Interviews oder stehen auf Bühnen. So erreichen wir auch Menschen, die netzpolitik.org vielleicht noch nicht kennen. Wenn aber die eigene Recherchearbeit in ein neues Medium übersetzt wird, dann schafft dies was Neues, was verbindet: Redaktionen, die miteinander kooperieren. Medien, die ein Thema unterschiedlich erzählen. Ein Team, das jeden Tag für die Grund- und Freiheitsrechte aller kämpft.

Die Doku erreichte am 7. April eine Einschaltquote von rund elf Prozent. Laut den Kolleg:innen beim Bayerischen Rundfunk kann sich das sehen lassen. Und bei YouTube hat das Video bereits mehr als 280.000 Aufrufe. Das sind sehr viele kleine Lagerfeuer im ganzen Land. Und das macht uns schon ein wenig stolz.

Möglich ist das aber nur mit eurer Unterstützung. Der Öffentlich-Rechtliche hat seine Beitragszahler:innen, wir haben unsere Spender:innen. Dank euch konnten wir das Thema Datenhandel überhaupt erst groß machen, konnten wir über viele Monate in europaweit recherchieren und am Ende so viele Menschen erreichen.

Ihr seid der Anfang von alledem – der Funke, der das Feuer entzündet. Und das verbindet uns, liebe Spender:innen und Leser:innen. Vielen Dank dafür.

Die harten Zahlen

Und bevor wir emotional völlig dahinschmelzen, kommen wir zu den harten Zahlen des ersten Quartals 2026. Beim Jahresausklang 2025 habt ihr für uns Funken gesprüht. Das war toll. Das Erreichen des Spendenziels bei der Jahresendkampagne bedeutet für uns gute Aussichten für die Finanzierung von netzpolitik.org im Folgejahr. Denn die Einnahmen aus einer gut verlaufenden Jahresendkampagne kompensieren unsere deutlich geringeren, unterjährigen Spendeneinnahmen.

Zumal uns der Schwung vom Jahresende im ersten Quartal des neuen Jahres noch höhere Spendeneinnahmen als in den Folgemonaten beschert. So auch in diesem.

Unsere Spendeneinnahmen

Im ersten Quartal haben wir 229.136 Euro an Spenden von euch erhalten. Das ist ein gutes Ergebnis, liegt aber etwa 34.400 Euro (13 Prozent) unter unseren Erwartungen, die wir vor allem aus den Erfahrungen der Vorjahre ableiten. Der Schwung zu Anfang dieses Jahr ist also schwächer ausgefallen.

Unsere Einnahmen

Insgesamt belaufen sich unsere Einnahmen im ersten Quartal auf 235.620 Euro. Im Verhältnis zu unseren Gesamteinnahmen beträgt der Anteil der Einnahmen aus Spenden über 97 Prozent. Aus dem Verkauf im Webshop erhielten wir etwas unter 1.200 Euro und aus der Verwertung im digitalen Pressespiegel etwas über 900 Euro. Der Zuschuss des Bundes für den Platz im Rahmen des Freiwilligendienstes liegt unverändert bei 300 Euro monatlich und somit bei 900 Euro im Quartal. Die sonstigen Erlöse setzen sich vor allem aus den Posten Erstattungen für Ausfallzeiten aufgrund von Krankheit (AAG) und Zinserträgen zusammen.

Unsere Ausgaben

Bei den Ausgaben liegen die Personalkosten bei 227.273 Euro und damit rund 5.000 Euro unter den veranschlagten Kosten laut unserem Stellenplan. In den Sachkosten haben wir für das erste Quartal 58.350 Euro und damit rund 20.900 Euro weniger ausgegeben als kalkuliert. Das ist vor allem der monatlichen Kalkulation von Ausgaben wie Beratung und Fortbildung geschuldet, die nicht monatlich, sondern punktuell im Jahr auftreten.

Insgesamt haben wir im ersten Quartal 2026 an Personal- und Sachkosten 285.624 Euro verausgabt.

Unser Projekt Reichweite hatten wir in den letzten beiden Quartalsberichten 2025 vorgestellt. Die Projektlaufzeit beträgt drei Jahre bis Herbst 2027 und wird über den gesamten Zeitrahmen mit 200.000 Euro aus unseren Rücklagen finanziert. In 2025 haben wir davon 64.800 Euro für den Relaunch unserer Website und eine neue Stelle für die Verbreitung unserer Inhalte in den sozialen Medien ausgegeben. Im ersten Quartal 2026 haben wir lediglich Personalkosten in Höhe von etwas unter 7.600 Euro verausgabt.

Das vorläufige Ergebnis

Wir schließen das 1. Quartal mit einem Ergebnis in Höhe von etwas unter -50.200 Euro ab. Laut Plan haben wir mit einem Ergebnis von -40.300 Euro gerechnet. Ein Minus in den ersten drei Quartalen beunruhigt uns nicht besonders, solange es im Rahmen unserer Erwartungen bleibt. Das bereinigen wir nach unseren bisherigen Erfahrungen im vierten Quartal mit der Jahresendkampagne. Bei dem aktuellen Quartalsergebnis kommen wir jedoch gedanklich etwas mehr in Bewegung und werden darauf mit einer Spendenaktion reagieren, damit wir nicht mit zu schwerer Bürde in die Jahresendkampagne gehen.

Um das Spendenfeuer anzufachen, wird uns hoffentlich auch die Aufmerksamkeit helfen, die die Fernseh-Doku zu den „Databroker Files“ von euch erfährt. Wir freuen uns auf weiteren Funkenschlag.

Danke für eure bisherige und zukünftige Unterstützung!

Wenn ihr uns unterstützen wollt, findet ihr hier alle Möglichkeiten. Am besten ist ein Dauerauftrag. Er ermöglicht uns, langfristig zu planen:

Inhaber: netzpolitik.org e.V.
IBAN: DE62430609671149278400
BIC: GENODEM1GLS
Zweck: Spende netzpolitik.org

Wir freuen uns auch über Spenden via Paypal.

Wir sind glücklich, die besten Unterstützer:innen zu haben.

Unseren Transparenzbericht mit den Zahlen für das 4. Quartal und das Gesamtjahr 2025 findet ihr hier.

Vielen Dank an euch alle!


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Type with your voice on Linux using this Whisper-based app

19. April 2026 um 04:48

Your mouth can (probably) say things quicker than your hands can type, yet voice typing is rarely used as a primary input method on desktop – yet most of us think nothing of using it on mobile. That’s despite speech-to-text being available on desktop OSes for decades, natively and through dedicated apps. It never caught on because it was inaccurate and slow and typically hidden away as an assistive feature. (And because a lot of what you do at a keyboard is navigation and that is less efficient to speak, unless ‘arrow down, arrow down, arrow down’ is some trendy […]

You're reading Type with your voice on Linux using this Whisper-based app, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without permission.

Solus 4.9 “Serenity” Released with Linux 6.18 LTS, KDE Plasma 6.6, and More

18. April 2026 um 18:37

Solus 4.9

Solus 4.9 distribution is now available for download with Linux kernel 6.18 LTS, Budgie 10.9.4, KDE Plasma 6.6, GNOME 49.5, and Xfce 4.20.

The post Solus 4.9 “Serenity” Released with Linux 6.18 LTS, KDE Plasma 6.6, and More appeared first on 9to5Linux - do not reproduce this article without permission. This RSS feed is intended for readers, not scrapers.

Gestern — 19. April 2026Haupt-Feeds

Thunderbolt Wants to Do for AI Clients What Thunderbird Did for Email

19. April 2026 um 14:08

MZLA Technologies Corporation, the Mozilla Foundation subsidiary behind Thunderbird, has announced Thunderbolt, an open source, self-hostable AI client for organizations that want to run AI on their own infrastructure.

The project is funded through investment from Mozilla and is a standalone product, separate from Thunderbird, built by a different team within MZLA that's focused on enterprise AI products.

Offered under Mozilla Public License 2.0, Thunderbolt offers an AI workspace where users can interact with AI through chat, search, and research, connect to enterprise data, and choose the models and tools that fit their needs.

It runs natively on Linux, Windows, macOS, iOS, and Android, with a web client also being made available.

A thing to note…

You should know that Thunderbolt ships with telemetry on by default.

According to the project's telemetry documentation on GitHub, it uses PostHog to collect usage data covering chat activity, model selections, settings changes, and location information.

This can be switched off in settings, and the project states no personally identifiable information (PII) is collected without explicit consent.

Who is it for?

The intended audience for this could be organizations with strict data residency or compliance requirements. So think healthcare providers, legal firms, and financial institutions that cannot afford sensitive internal data flowing through third-party AI services.

As for its competition, Thunderbolt is a direct challenge to Microsoft Copilot, ChatGPT Enterprise, and Claude Enterprise. In the open source space, it sits alongside tools like Open WebUI and LibreChat, both of which offer self-hosted AI frontends.

Announcing Thunderbolt, the CEO of MZLA Technologies Corporation, Ryan Sipes, added that:

AI is too important to outsource. With Thunderbolt, we’re giving organizations a sovereign AI client that allows them to decide how AI fits into their workflows – on their infrastructure, with their data, and on their terms.

What can you expect?

this multi-colored (white, yellow, purple, pink) banner shows some screenshots of thunderbolt running on a laptop and smartphone

Thunderbolt connects to frontier models from Anthropic, OpenAI, and Mistral, handles local inference through Ollama, and accepts custom providers, with the workspace offering Chat and Search modes.

It can also handle scheduled work, pulling together briefings, tracking topics over time, or kicking off actions when set conditions are met.

deepset's Haystack integration ties the client into enterprise agent and RAG pipelines within the same architecture, whereas MCP (Model Context Protocol) support is in preview, and ACP (Agent Client Protocol) is in active development with an April 2026 target.

How to get it?

You can get started with Thunderbolt by visiting thunderbolt.io. Organizations interested in enterprise deployment, professional support, or custom development can get in touch with the team.

As for the source code, it lives on GitHub.

Other than that, the FAQ does mention that a Thunderbolt version for regular users is on the cards, but there's no release date for it yet.

Thunderbolt Wants to Do for AI Clients What Thunderbird Did for Email

Mozilla’s New Firefox Mascot ‘Kit’ Triggers Online Backlash Over Pronouns

19. April 2026 um 11:07

It started with one thing. I don’t know why… but somehow, it turned into a debate no one expected.

I could not help taking a walk in Linkin Park ;)

Okay. Back to serious stuff. Weird but serious stuff.

So, last month, Mozilla unveiled the new Firefox mascot, named Kit. That's a cute-looking macot, by the way.

Kit, Mozilla Firefox's new mascot

Mozilla shared a post in their official subreddit. A couple of weeks later, someone noticed the use of'pronouns in that post and all hell broke loose. What was supposed to bring "warmth and familiarity", brought heated arguments and boycott threats.

Mzolla Firefox new mascot announcement

As you can see above, instead of "it", they/them was used in that post, potentially indicating the assignment of non-binary gender identity to them. More on this in the later section of this article.

Hi everyone, if you’ve been poking around our recent updates, you might have noticed a new mascot showing up a little more intentionally. We figured it’s time to introduce them properly. Meet Kit. And before you ask, Kit is neither fox nor red panda, they’re a firefox of course.

The discussion gained traction around April 11, when Brian Lunduke highlighted the pronoun usage and thus bringing the topic into wider debate.

Meet “Kit”. The Firefox Web browser’s new, non-binary mascot.

Yes. You read that right.

Non-binary. With “They/Them” pronouns.

Because, of course @Mozilla had to inject “pronouns”, and “gender identity” politics into a web browser. pic.twitter.com/wPnpCcDfy0

— The Lunduke Journal (@LundukeJournal) April 10, 2026

How the Internet Reacted (Predictably)

As you can imagine, the internet reacted really well, being "very accepting and non-controversial". If you don't believe me, you're right. I've missed April's fool by a huge margin to even consider making that joke.

The “Woke” Debate and Boycott Calls

The outrage was very evident on X (Twitter) and Reddit. Some people immediately jumped ship, posting screenshots of them uninstalling Firefox.

Firefox uninstall over Kit
Firefox uninstall over Kit (2)

Some posted about how it is all a part of the "rainbow" agenda, and how they're trying to infuse politics into something that has no need for it.

Claiming Kit to be "rainbow" agenda

Some people started posting about using the "male lion" browser, Brave.

Bigotry on display, claiming Brave as a "male" browser

The word "woke" was used in almost every other tweet, claiming that it was being spread like a virus.

There was a smaller faction of the critics that brought up a few points of criticism about Firefox's past. The co-founder Brendan Eich had made a significant contribution to a cause in California that sought to ban same-sex marriages (he then proceeded to resign after the outrage, and founded Brave).

Brendan Eich controversy

Other than that, their AI integration, and the CEO's statements in favor of censorship in 2020 were also brought up.

Mozilla CEO's censorship controversy

Counter-Reactions: “Why Does This Even Matter?”

The other side consists more of indifference than support, the most frequent point being that it doesn't matter what pronouns a cartoon fox mascot uses, that the outrage was misplaced and irrelevant to everyday usage of the browser.

Indifference to the gender identity of Kit

The word "snowflake" was thrown around from both the sides, but more to emphasize how a part of the internet was offended by something very harmless.

Snowflakes being thrown from both sides about Kit's identity

While some users spoke of inclusion of a large faction of people, and brownie points for spreading awareness, other users claimed alienation of "half of the population".

Users claiming Kit's gender is alienating users

On a different note completely, a part of the internet went all in with the jokes, my personal favorite as a physics student being that it is only obvious that Firefox is non-binary considering their codename "Quantum", in which a particle exists in two states at the same time.

"Quantum" joke about Kit's identity

It goes without saying that there were plenty of "what does the fox say?" jokes.

Memes about Kit's gender claim

The Reality: Is Kit Even Non-Binary?

The important point to remember through all of this, however, is that Mozilla did not really claim that Kit was non-binary, but only referred to Kit with "they" later in the article.

The article never claimed Kit was non-binary

You don't have to rely on a tweet for the reference. If you read the branding guideline from Mozilla, it clearly mentions this about Kit:

Kit (he/she/they/them/it) is the user’s constant companion. Wherever they choose to roam, Kit will accompany and guide them with clever, playful encouragement and support — giving the user the confidence to run free.

Basically, Kit has no gender. Or, should I say it has whatever gender you prefer. Perhaps the person who posted from Mozilla's official account prefered the 'they/them' pronoun? Personally, I would prefer calling it "it" because it rhymes with "kit".

Final Thoughts: Much Ado About Nothing?

So what’s the takeaway?

A mascot meant to feel friendly ended up triggering a familiar internet cycle:-interpretation, outrage, and counter-outrage.

Whether you see it as inclusion, overreach, or simply irrelevant, one thing is clear; even a cartoon fox isn’t safe from becoming a debate.

What do you think? Overreaction or valid concern?

Mozilla’s New Firefox Mascot ‘Kit’ Triggers Online Backlash Over Pronouns

Won’t Somebody Think of the Children? Why Big Tech’s ‘Tobacco Moment’ Isn’t What It Seems

19. April 2026 um 09:27

In Los Angeles this March, a jury did something US courts have long refused to do: it treated the feed itself as the harm. It felt like vindication, victory even, to those of us who are critical of big tech's outsized influence on every aspect of our lives. But there is need for cautious optimism, caution even, instead of celebration.

Jurors found Meta and Google negligent for the way Instagram and YouTube are designed; not for any particular piece of content (the 20‑year‑old plaintiff, identified as Kaley/KGM), happened to see on them. They awarded her $6 million in compensatory and punitive damages and explicitly described these platforms as deliberately addictive “machines” that harmed her mental health.

This is more than a sympathetic jury and a moving story. It is the first time a US jury has effectively treated major social platforms as defective consumer products whose design – infinite scroll, notifications, algorithmic recommendations – can be a “substantial factor” in harming young users. In doing so, the case skirted the traditional shield of Section 230 by focusing not on user‑generated content, but on product design and failure to warn.

For critics of big tech, and I am one of them, that sounds like justice delayed finally arriving. I was happy.

Briefly.

But if we are not careful, the legal and policy response to this big tobacco moment will harden the already rapidly enshitified internet we already have: centralized, identity‑hungry, and surveillance driven. These are precisely the conditions that made these products so powerful in the first place.

From Bad Content to Bad Machines

For nearly three decades, legal debates about platforms have orbited around content: who is responsible for extremist propaganda, self‑harm photos, misinformation. Section 230 in the US enshrined the idea that platforms are not publishers of third‑party speech. Even when courts and regulators pushed, they pushed on content moderation, not on the underlying machine.

The Kaley verdict is a reorientation of this conversation. Jurors heard company documents and expert testimony describing Instagram and YouTube as addiction machines” designed to maximize engagement, time‑on‑site and data extraction from children who were never supposed to be there in the first place.

They found negligence not only in failing to keep under‑13s off the platforms, but in failing to warn about the risks of the core design itself.

This shift from “we hosted bad content” to “we built a dangerous machine” matters. It opens the door to product‑liability style reasoning that could travel, in principle, to other design patterns: streaks, loot-boxes, recommendation systems, dark patterns in on-boarding. It also resonates with developments outside the US, where the EU’s Digital Services Act is already scrutinizing addictive design at the level of interface and recommender algorithms. Earlier this year, the European Commission issued preliminary findings that TikTok’s reliance on infinite scroll and weak “screen time breaks” breaches its duty to mitigate addictive design risks under the DSA, and told the company to change “the basic design of its service”.

But if the machine is on trial, the question becomes: what kind of machine do we build next?

“Addiction” as Legal Story and Medical Dispute

In both law and media, the Kaley verdict has been framed as proof that social media is simply addictive and toxic to teens. The courtroom narrative is clean: a straight line can be drawn: a vulnerable child to the manipulative machine.

The scientific picture is messier.

On one side, the 2026 World Happiness Report carries a chapter by Jonathan Haidt and Zachary Rausch arguing that there is now “overwhelming evidence” that social media is harming adolescents at a scale large enough to shift population‑level mental health, drawing on seven lines of evidence ranging from cross‑sectional studies to natural experiments. The authors argue that ordinary use – often five or more hours a day – functions as a product safety failure, especially for girls.

We further argue that when these lines of evidence are considered alongside the timing, scope, and cross-national trends in adolescent well-being and mental health, they can help answer a second question: was the rapid adoption of always-available social media by adolescents in the early 2010s a substantial contributor to the population-level increases in mental illness that emerged by the mid 2010s in many Western nations? We call this the “historical trends question”. We draw on our findings about the vast scale of harm uncovered while answering the product safety question to argue that the answer to the historical trends question is “yes”.

On the other, another chapter in the same report, by Helliwell and colleagues, emphasizes that the relationship between youth well-being and internet use is more nuanced: some types of online activity (communication, learning, content creation) correlate with higher life satisfaction, while heavy social media and gaming correlate with lower well-being, particularly at extreme usage levels and in English‑speaking countries. They caution that youth well-being trends cannot be reduced to a single cause.

In other words: there is strong evidence of risk and harm, but causality, dose, and mechanism are still contested.

Safety as a Pretext for More Surveillance

Politicians around the world have not waited for the science to settle. They have moved quickly to do something about youth and social media – and the measures they are choosing tell us a lot about the political economy of the internet they are entrenching.

In Australia, world‑first social media age restrictions now require major platforms – Facebook, Instagram, TikTok, X, YouTube, Snapchat, Threads, Reddit, Kick, Twitch – to take “reasonable steps” to prevent under‑16s from having accounts, backed by fines of up to A$49.5 million for non‑compliance.

In practice, they are expected to deploy multiple age assurance technologies: ID checks, facial or voice analysis, behavioral age inference.

Children and parents themselves are not fined; the pressure is entirely on platforms to ramp up identity and behavioral surveillance in order to demonstrate diligence.

In the US, California’s Digital Age Assurance Act pushes the same logic down into the operating system itself. From January 2027, OS vendors are required to collect an age or age bracket at account setup and expose it via an API so that app stores and online services can query a system‑level age signal.

The law is written broadly enough that free and open‑source operating systems – Debian, Fedora, BSDs, Pop!_OS – are, on paper, on the hook alongside Apple and Microsoft.

System76’s CEO, writing about this wave of laws in Colorado and California, warns that the effect is to turn OS vendors into identity brokers and gatekeepers, and to “encourage children to lie” about their age for fear of being confined to a “nerfed internet”

Layer these developments on top of each other and a pattern emerges: won't somebody please think of the children?

We've heard this moral argument before: with video games, heavy metal, rap. What happens next is history rhyming:

  • pushing age‑verification and age‑bracketing ever deeper into the stack – from app sign-up forms, to OS APIs, to network‑level checks;
  • incentivising large platforms and OS vendors to collect, infer, and share more information about who we are and how old we are;
  • creating compliance burdens that small, de-centralized, or non‑profit projects can barely navigate, effectively nudging regulators and industry towards a small club of compliant, centralized providers.

Safety becomes the moral language through which a more identity‑locked, surveilled, and centralized internet is made to feel inevitable.

Regulators Discover “Addictive Design” – But For Whom?

The EU’s preliminary findings on TikTok’s addictive design under the DSA are a good example of this ambivalence. On one level, it is encouraging to see regulators finally target infinite scroll, frictionless autoplay, and weak screen time nudges as systemic risks requiring product changes, not simply more content moderation. The Commission is, at least in principle, saying: design patterns that exploit compulsive behavior and harm children can be unlawful. This is a good start. Unfortunately that's where the good news ends.

Notice who is legible to this kind of regulation. The DSA presumes large, centralized platforms with access to vast behavioral data, capable of implementing complex risk‑assessment and age‑assurance regimes. The Australian and Californian laws do the same.

A federated social network run by a school, a youth center, or a community collective cannot cheaply plug into this machinery. A small FOSS OS project has neither the lawyers nor the telemetry to play at this table.

The risk is that addiction design becomes another compliance rubric that only the biggest players can afford to satisfy, while everyone else is either chilled out of existence or forced to rely on the same proprietary identity infrastructure.

The Missing Imagination: Community‑Run, Free and Open Alternatives

The saddest thing about this moment is how narrow the mainstream imagination of alternatives remains. The policy menu is filled with bans, curfews, and ID checks for the same extractive platforms. There is little serious talk of changing the infrastructure.

Yet we know from both history and present practice that other models are possible. Schools and libraries have run moderated online communities for decades. Federated platforms like Mastodon and Matrix, for all their flaws, show that it is possible to have social networks that are not controlled by a single profit‑maximizing entity. Community‑run game servers, forums, and fan communities have long been youth‑driven spaces with their own norms of care and accountability. My first years on the internet, circa 2001-2003, was spent in such forums. Social media trampled such online communities during their first decade.

A genuinely emancipatory response to the Kaley verdict would start from a different question: given that these products have now been recognized, in court, as dangerous by design, how do we:

  • treat them like other dangerous consumer products – with warnings, design constraints, and liability – without making bio-metric and behavioral surveillance the price of entry to the digital world;
  • redirect public money, regulation, and cultural attention towards building non‑exploitative, commons‑based digital spaces for young people;
  • lower the barriers for schools, municipalities, youth groups, and co‑ops to run their own FOSS‑based platforms, with public funding and legal safe harbors, rather than locking them into corporate clouds that must, by their nature, maximize engagement.

This is where free and open source software is not just a licensing detail but a political stance. An internet where young people’s social lives unfold on community‑run, auditable, forkable software – hosted by institutions that have a duty of care, not a duty to shareholders – is not a Utopian fantasy. It is not merely a design choice.

It is a political choice.

Builders, Regulators, and the Rest of Us

For those who build technology, the Kaley verdict is a warning shot: engagement is no longer a neutral metric. If a design pattern is optimized to keep a 10‑year‑old scrolling past bedtime, courts may increasingly treat that as a defect, not an achievement. Engineers, designers, and product managers now have to think like people who might one day be cross‑examined about why they shipped this infinite scroll, this notification scheme, this recommender.

For regulators, the temptation will be to double down on what already feels familiar: more age gates, more identity checks, more compliance dashboards for big platforms and OS vendors. It is politically safer to demand better seat-belts from the existing car companies than to fund buses, bike lanes, or public trains. But if all we do is wrap the same addictive machines in ever tighter rings of surveillance and control, we will have saved some children from some harms at the price of deepening structural dependence on the very firms whose incentives created the crisis.

The LA jury has told us, in the blunt language of damages and negligence, that the machine is the problem. The real task now is to ensure that the fix is not simply a more paternalistic, more identity‑hungry version of the same machine, but an opening for something else: community‑run, free and open infrastructures where young people can be online without being harvested.

That is a harder story to tell in a courtroom. But it is the story the rest of us – parents, educators, coders, writers, legislators – will have to write.

Won’t Somebody Think of the Children? Why Big Tech’s ‘Tobacco Moment’ Isn’t What It Seems

Ältere BeiträgeHaupt-Feeds

Shelly 2.1 Package Manager for Arch Linux Revamps AppImage Support

18. April 2026 um 10:51

Shelly 2.1

Shelly 2.1 package manager for Arch Linux is now available for download with better support for AppImage, Flatpak, and AUR packages, as well as many other enhancements.

The post Shelly 2.1 Package Manager for Arch Linux Revamps AppImage Support appeared first on 9to5Linux - do not reproduce this article without permission. This RSS feed is intended for readers, not scrapers.

KW 16: Die Woche, in der wir fassungslos über Handydurchsuchungen waren

18. April 2026 um 08:12

Die 16. Kalenderwoche geht zu Ende. Wir haben 13 neue Texte mit insgesamt 130.557 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

Quietschbuntes Fraktal auf schwarzem Hintergrund
– Fraktal, generiert mit MandelBrowser von Tomasz Śmigielski

Liebe Leser:innen,

meine Kollegin Chris hat in dieser Woche die Geschichte eines Mannes aufgeschrieben, der abgeschoben werden soll und dessen Handy deswegen durchsucht wurde. Der Text über Idris hat mich ganz schön mitgenommen.

Von der Handydurchsuchung mitbekommen hat er erst mal nichts. Denn während sein Gerät bei der Durchleuchtung war, saß er in Haft.

Dass Ausländerbehörden auf Smartphones nach Hinweisen auf Identität und Herkunft einer Person suchen, ist nicht neu. Die Kritik an der invasiven Maßnahme auch nicht.

Die Geschichte von Idris hat mir aber die himmelschreiende Sinnlosigkeit dieses Kontrollmechanismus klar gemacht: Es ist unstrittig, wer Idris ist. Es ist auch klar, wo er herkommt. Aber als er vor mehr als vierzig Jahren nach Deutschland geflohen ist, gab es das Eritrea in seinen heutigen Grenzen noch nicht, in das er abgeschoben werden soll. Eritrea will ihn nicht haben. Was daran eine Handydurchsuchung ändert? Das kann wohl niemand erklären.

Also stecken Ämter eine Menge Energie in all das, was sie eben dürfen, wenn sie jemanden loswerden wollen. Egal, wie lange er schon da ist. Egal, ob es da nicht ganz andere Probleme gibt. Das ist sinnlos und diese Sinnlosigkeit macht mich fassungslos.

Idris‘ Geschichte ist sicherlich keine leichte. Und er ist vielleicht kein Vorzeige-Nachbar, denn er hat ein Suchtproblem und mehrfach geklaut, um sich das zu finanzieren. Aber ich frage mich: Die Behörden betreiben einen sehr großen Aufwand, um Idris loszuwerden. Warum helfen sie ihm stattdessen nicht mit dem gleichen Engagement?

Idris würde gern einen Entzug in einer Suchthilfeeinrichtung machen, aber er sitzt im Knast. Deutschland will Idris aus dem Land haben, kann ihn aber nicht abschieben. Am Ende hat keiner etwas erreicht. Wer kann das wollen?

„Was ist das für eine Verarscherei?“, hat Idris zu Chris gesagt. Und besser als er könnte ich das auch nicht zusammenfassen.

Ernüchterte Grüße

anna


Degitalisierung: Das ruhmreiche Zaunweißen

KI-Unternehmen kreieren Mythen um sich und ihre Produkte. So entziehen sie sich der Verantwortung für Probleme, die sie selbst geschaffen haben. Und wir lassen es ihnen durchgehen. Mark Twain wäre das wohl nicht passiert. Von Bianca Kastl –
Artikel lesen

Europarechts- und verfassungswidrig: Schwarz-Rot soll Pläne für biometrische Internetfahndung zurückziehen

Die Pläne, im Internet mit Biometrie nach jedweder Person zu suchen, verstoßen laut AlgorithmWatch gegen Europarecht und die Verfassung. Sie seien so unverhältnismäßig, dass man sie nicht verbessern, sondern nur zurückziehen könne. Von Markus Reuter –
Artikel lesen

EU-Forschungsabteilung: Ein Internet ohne schädliche Anreize ist möglich

Soziale Netzwerke und ihre auf Überwachung und Personalisierung basierenden Geschäftsmodelle schaffen Anreize, die letztlich die Demokratie gefährden. Für die EU ist es höchste Zeit, dem etwas entgegenzusetzen, fordert eine umfassende Studie der Forschungsabteilung der EU-Kommission. Von Tomas Rudl –
Artikel lesen

Gesichtsscan und Handy-Zwang: Von der Leyen erklärt Alterskontroll-App für „fertig“

Mit einer Handy-App für iOS und Android sollen Menschen in der EU künftig ihr Alter gegenüber Plattformen nachweisen. Doch der Nutzen zum Schutz von Kindern und Jugendlichen ist fraglich. Nutzende sollen zudem ihr Gesicht scannen lassen. Von Sebastian Meineck –
Artikel lesen

EuGH präzisiert: Sampling geht klar

Der legendäre Urheberrechtsfall „Metall auf Metall“ geht in die letzte Runde. Der Europäische Gerichtshof hat gerade nach weitläufiger Auffassung das Recht auf Remix und Sampling gestärkt. Jetzt muss noch der Bundesgerichtshof final entscheiden. Von Denis Glismann –
Artikel lesen

Outsourcing und Ausbeutung: „Es gibt keine KI ohne Datenarbeit“

Hinter dem Erfolg von Künstlicher Intelligenz und Sozialen Medien stecken ausgebeutete Arbeiter:innen. Bei einem Fachgespräch im Deutschen Bundestag wurde heute diskutiert, wie ihre Lage verbessert werden kann. Die Botschaft der Sachverständigen war klar: Deutschland muss mehr Verantwortung übernehmen. Von Ingo Dachwitz –
Artikel lesen

Abschiebepolitik: Das Handy eines Mannes, der nirgendwo hinkann

Idris lebt seit mehr als 40 Jahren in Deutschland und soll nach Eritrea abgeschoben werden. Das gilt als praktisch unmöglich. Trotzdem durchsucht das Ausländeramt Köln sein Smartphone, während er im Gefängnis sitzt. Eine Geschichte über einen Kontrollapparat, der sich verselbstständigt hat. Von Chris Köver –
Artikel lesen

Polizeiliche Kriminalstatistik: Mit Vorsicht zu genießen

Wenn die jährliche Statistik zur Kriminalität veröffentlicht wird, folgen oft rassistische Hetze und Rufe nach Strafrechtsverschärfungen. Dabei sagt die Statistik weniger darüber aus, wie die Sicherheitslage im Land wirklich ist, als viele vermuten. Von Markus Reuter –
Artikel lesen

Sampling vor dem EuGH: Was ist eigentlich „Pastiche“?

Neigt sich die „unendliche Geschichte“ des Sampling-Streits zu „Metall auf Metall“ dem Ende zu? Der europäische Gerichtshof hat der Auseinandersetzung ein weiteres Kapitel hinzugefügt. Wir geben eine kurze Einschätzung zum Urteil, seiner Bedeutung für den Fall und für Sampling als Remix-Praxis allgemein. Von Leonhard Dobusch, Konstantin Hondros –
Artikel lesen

Mit Merz und von der Leyen: Macron will Alterskontrollen für alle durchboxen

Der französische Präsident Emmanuel Macron schwört die EU auf Alterskontrollen ein. Dafür liegt er unter anderem Kommissionspräsidentin von der Leyen und Bundeskanzler Merz in den Ohren. Mit steigendem Tempo steuert die EU auf eine Ausweispflicht im Netz zu. Von Sebastian Meineck –
Artikel lesen

„Rechenzentren sind Vampire“: Wo sich lokaler Widerstand gegen den KI-Hype formiert

Der Bau von Rechenzentren boomt, in Deutschland und weltweit. Dadurch werden Strom und Wasser knapp, sagen Aktivist*innen und organisieren lokale Proteste. Auf der Konferenz „Cables of Resistance“ trafen sie sich zur Vernetzung. Von Timur Vorkul, Ingo Dachwitz –
Artikel lesen

Deepfakes, Doxing, Stalking: Mit Vorratsdatenspeicherung gegen digitale Gewalt

Die Justizministerin hat das lange erwartete Gesetz zum Schutz vor digitaler Gewalt vorgelegt. Betroffene sollen mutmaßliche Täter*innen leichter verklagen können. Für sexualisierte Deepfakes drohen bis zu zwei Jahre Haft. Im Entwurf steckt aber auch die Neuauflage der Speicherung von IP-Adressen. Von Chris Köver –
Artikel lesen

Konferenz gegen Big Tech: Raus aus der Ohnmacht

Zur „ersten Bewegungskonferenz gegen Big Tech“ in Berlin kamen 750 Menschen zusammen. Bei „Cables of Resistance“ ging es um Protest, Betriebsräte und Widerstand gegen Rechenzentren. Die vielleicht radikalste Antwort der Aktivist:innen auf die Macht der Tech-Konzerne: Verweigerung. Von Ingo Dachwitz –
Artikel lesen


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Konferenz gegen Big Tech: Raus aus der Ohnmacht

18. April 2026 um 08:00

Zur „ersten Bewegungskonferenz gegen Big Tech“ in Berlin kamen 750 Menschen zusammen. Bei „Cables of Resistance“ ging es um Protest, Betriebsräte und Widerstand gegen Rechenzentren. Die vielleicht radikalste Antwort der Aktivist:innen auf die Macht der Tech-Konzerne: Verweigerung.

Eine Person mit langen, dunklen, lockigen Haaren steht vor einer Wand mit Plakaten und Fotos, auf denen zum Beispiel demonstrierende Menschen zu sehen sind
Eine Ausstellung über den Protest gegen das Tesla-Werk in Grünheide CC-BY-SA 4.0 Joschi Wolf

Was tun gegen Big Tech? Am vergangenen Wochenende kamen in Berlin deutsche und internationale Aktivist:innen, Gewerkschafter:innen, Forscher:innen und Künstler:innen zur Konferenz „Cables of Resistance“ zusammen, um über die Frage zu beraten, die derzeit so viele beschäftigt. Ihre Antwort: radikale Verweigerung, Protest und Widerstand.

Ins Leben gerufen wurde die „erste Bewegungskonferenz gegen Big Tech“ von den Gruppen Berlin vs. Amazon, Tesla den Hahn abdrehen und die Berlin Tech Workers Coalition. Mit ihrem tech- und kapitalismuskritischen Ansatz haben sie offenbar einen Nerv getroffen: Die Tickets waren schnell ausverkauft, mehr als 750 Menschen kamen nach Angaben der Veranstalter:innen in das Tagungshaus am Franz-Mehring-Platz.

Das überwiegend durch Einreichungen aus der Community bestückte Programm war geprägt durch kritische Analyse des Status Quo, internationale Vernetzung und Austausch über politische Strategien. In insgesamt neun Themen-Tracks ging es um Fragen von Stadtpolitik, Nachhaltigkeit, Militarisierung oder Arbeitskämpfe.

„Die Speerspitze der kapitalistischen Akkumulation“

Die Ausgangslage beschreiben viele derzeit als düster. Angesichts der Übermacht der großen Tech-Konzerne kann man schon mal leicht verzweifeln. Ihre wirtschaftliche und politische Dominanz ist konkurrenzlos. Allein die fünf wertvollsten unter ihnen – Nvidia, Apple, Google, Microsoft und Amazon – strichen im letzten Jahr fast 500 Milliarden US-Dollar Gewinn ein. Ihr gemeinsamer Marktwert beträgt derzeit mehr als 18 Billionen US-Dollar – astronomische Zahlen.

Für die Veranstalter:innen steht fest: „Digitale Technologien sind die derzeitige Speerspitze der kapitalistischen Akkumulation und Zerstörung.“ Und: „Das digitale Kapital steht hinter dem Faschismus und ist sein bereitwilliger Handlanger.“ So heißt es im Entwurf für ein Manifest, das die Organisator:innen zu Beginn der Konferenz zur Debatte stellten und das sie im Nachgang weiterentwickeln wollen.

In den Diskussionsrunden war zwar hier und da Skepsis angesichts der vor Superlativen und historischen Referenzen strotzenden Wortwahl zu hören. Doch dass die Tech-Konzerne tief in die großen Krisen unserer Zeit verwickelt sind, das ist hier Konsens. Sie treiben den Klimawandel voran und lassen in kolonialer Manier Arbeitskräfte und Rohstoffe im Globalen Süden ausbeuten. Sie profitieren von Überwachung und Militarisierung. Mit ihren Lobby-Armeen nehmen sie Einfluss auf die Politik, mit ihren Milliarden gestalten sie unsere Städte um. Sie hofieren Donald Trump und normalisieren seine Politik.

Die vielleicht mächtigste Waffe der Tech-Konzerne: Sie bestimmen, wie die Zukunft aussehen soll – nicht nur technisch, sondern auch diskursiv. Dass mehr Innovation, mehr Technologie und allen voran mehr KI immer besser seien, sagen längst nicht mehr nur sie. Auch viele Politiker:innen wiederholen das Mantra vom vermeintlichen digitalen Fortschritt unhinterfragt. Big Tech hat nicht nur das Internet gekapert, sondern auch unsere Vorstellung davon, wie digitale Zukünfte überhaupt aussehen könnten.

Von Arbeitskämpfen bis Perma-Computing

„Big Tech wird unseren Planeten mittel- bis langfristig zerstören“, so fasst Mitorganisatorin Aline Blankertz in einem Pressegespräch die Lage zusammen. Die Konferenz wolle deshalb Menschen zusammenbringen, „die für eine solidarische, selbstbestimmte, klimagerechte Zukunft kämpfen.“

Konkret ging es zum Beispiel um Arbeitskämpfe und die Rolle, die Angestellte von Tech-Konzernen spielen können, um diese zu verändern. Wie kann man solidarisch mit outgesourceten Datenarbeiter:innen hinter KI und Sozialen Medien sein? Wie können Kurierfahrer:innen Betriebsräte und faire Arbeitsbedingungen erkämpfen? Wie können sich Angestellte gegen die Beteiligung ihrer Arbeitgeber an militärischen Produkten wie dem Projekt Nimbus organisieren, mit dem Amazon und Google das israelische Militär und damit auch den Völkermord in Gaza unterstützen?

An anderer Stelle ging es um die globale Ausbeutung durch Tech-Konzerne und die sozial-ökologischen Kosten des KI-Hypes, um autoritäre und antifeministische Netzwerke. Es ging darum, wie man Protest gegen Palantir und Tesla organisiert, aber auch um Alternativen wie Perma-Computing mit Biomasse oder um Plattform-Kollektive im Besitz lateinamerikanischer Tech-Arbeiter:innen.

Rechenzentren als Symbole des KI-Hypes

Ein zentrales, immer wiederkehrendes Thema waren Rechenzentren. Als physische Repräsentation der digitalen Welt und als Symbol für den KI-Hype sind sie in vielen Regionen der Welt bereits zum Kristallisationspunkt des Widerstands gegen Big Tech geworden. Der Protest gegen Rechenzentren dürfte bald auch in Deutschland stärker werden, denn sie nehmen viel Fläche ein, verbrauchen riesige Menge Strom und Wasser und werden gerne in ärmeren und marginalisierten Nachbarschaften gebaut, die dann unter der Lärm- und Umweltbelastung leiden.

In den vielen Vorträgen und Panel-Gesprächen zu dem Thema ging es um Aufklärung, Ansatzpunkte für Veränderungen an gesetzlichen Rahmenbedingungen wie dem Energieeffizienzgesetz, Aktionen des zivilen Ungehorsams und lokale Proteste, die die Ansiedlung von Rechenzentren verhindern.

Worum es nicht ging: Anschläge, Sabotage oder andere Formen eines vermeintlichen Ökoterrorismus.

Dass man das überhaupt klarstellen muss, liegt daran, dass das rechte Krawallmedium Nius die Konferenz offenbar zum Feind auserkoren hat, weil der Quantenphysiker Guido Arnold an einem Panel teilnahm. Im Januar hatten Nius und Spiegel Arnold und sein radikal Tech-kritisches Kollektiv „Capulcu“ mit dünner Begründung als Vordenker der „Vulkangruppe“ dargestellt. Der Vorwurf stützt sich vor allem darauf, dass die Vulkangruppe, die sich unter anderem zum Brandanschlag auf das Berliner Stromnetz Anfang des Jahres bekannte, ähnliche Begriffe nutzt, etwa den von Arnold geprägten Ausdruck des „technologischen Angriffs“.

Auch im Manifest der Konferenz findet sich der Begriff. Nius schickte einen Reporter, der Teilnehmende vor dem Gebäude abpasste und fragte, warum sie an einer Konferenz teilnehmen würden, die mit durchtrennten Kabeln werbe. Die ausbleibenden Antworten der genervten Besucher:innen schnitt Nius zu einem fünfeinhalbminütigen Video zusammen.

Nicht zum ersten Mal griff die Springer-Zeitung Welt die Vorlage von Rechtsaußen auf und titelte: „Wie linke Tech-Gegner in Berlin einen Angriff planen“. Eine Presseakkreditierung hatte Welt nach Angaben der Veranstalter:innen nicht beantragt.

Kann man Big Tech auf den eigenen Plattformen schlagen?

Dabei gibt es durchaus Dinge, die man an der Konferenz kritisieren kann, ohne sich komplett lächerlich zu machen.

Zum Beispiel, dass kein einziger der neun Themenstränge Probleme der demokratischen Öffentlichkeit und von Sozialen Medien zum Thema machte. Die Frage, wie eine tech-kritische Bewegung, die von der Konferenz ausgehen soll, die narrative Hegemonie von Big Tech auf den Plattformen eben dieser Konzerne brechen soll, hätte man hier gut diskutieren können. Auch konkrete Alternativen wie das Fediverse mit seinen Stärken und Schwächen hätten gut auf die Konferenz gepasst. Einige Teilnehmende nahmen die Sache dann einfach selbst in die Hand und hingen Zettel aus, auf denen sie zumindest Mastodon-Handles austauschten.

Zudem waren die einzelnen Sessions teilweise so kurz, dass die ausgegebene Losung „Das ist keine Infoveranstaltung, sondern eine Kampfansage“, sich auf unfreiwillige Art und Weise bestätigte. Ein bisschen mehr Information wäre manchmal schon gut gewesen. Ebenso ein bisschen mehr Raum für Diskussionen über Widersprüchlichkeiten, die es notwendigerweise gibt, wenn unterschiedliche Bewegungen zusammenkommen.

Keine Zeit für Zukunft

Doch wichtiger waren an diesem Wochenende Vernetzung, Inspiration und Motivation. „Wir werden Big Tech nicht weganalysieren“, gab Journalistin Nina Scholz bei ihrem Auftaktvortrag die Richtung vor. Es sollte ums Handeln gehen: Raus aus der Ohnmacht, rein in die Bewegung.

In diesem Sinne hätten es gerne auch noch mehr Programmpunkte zu konkreten Alternativen und positiven Zukunftsentwürfen sein dürfen. Lediglich eine Stunde stand für den Themenblock „Zukunft“ und Ideen wie die Vergesellschaftung von Plattformen, Digital Degrowth oder Hardwareproduktion außerhalb kapitalistischer Verwertungslogik zur Verfügung. Auch davon hätte es gerne noch mehr sein dürfen.

Aber womöglich ist das einfach der Moment, an dem wir gerade stehen: Für Zukunft ist hoffentlich später Zeit, jetzt geht es darum, das Schlimmste zu verhindern. Sich dem Hype zu verweigern, das Fortschrittsversprechen zu hinterfragen, bestimmte Entwicklungen auch ganz abzulehnen und Widerstand zu organisieren – das ist vielleicht nicht die visionärste Antwort auf Big Tech. Aber es könnte genau die Antwort sein, die es jetzt braucht.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Zum Wochenende: Lex Git - Gesetze diffen

17. April 2026 um 17:00
Der Autor fragt sich, ob man Git für synoptische Vergleiche von Gesetzen verwenden kann. Lassen sich Gesetze mit Software vergleichen?

Deepfakes, Doxing, Stalking: Mit Vorratsdatenspeicherung gegen digitale Gewalt

17. April 2026 um 15:22

Die Justizministerin hat das lange erwartete Gesetz zum Schutz vor digitaler Gewalt vorgelegt. Betroffene sollen mutmaßliche Täter*innen leichter verklagen können. Für sexualisierte Deepfakes drohen bis zu zwei Jahre Haft. Im Entwurf steckt aber auch die Neuauflage der Speicherung von IP-Adressen.

Person im lila Blazer steht an Rednerpult im Bundestag
Bundesjustizministerin Stefanie Hubig will schärfere Maßnahmen gegen digitale Gewalt – bis hin zur Speicherung von IP-Adressen. – Alle Rechte vorbehalten IMAGO / dts Nachrichtenagentur

Bundesjustizministerin Stefanie Hubig (SPD) hat am heutigen Freitag einen Gesetzentwurf vorgestellt, der Betroffene digitaler Gewalt besser schützen soll. Digitale Gewalt sei ein „Massenphänomen“, sagte Hubig bei der Vorstellung der Pläne. „Im Zeitalter von KI, hochauflösenden Smartphone-Kameras und sozialen Netzwerken ist es einfacher als je zuvor, Menschen in aller Öffentlichkeit zu demütigen, zum Sexualobjekt herabzuwürdigen und in ihrer Intimsphäre zu verletzen.“ Millionen von Menschen seien betroffen, „besonders häufig Frauen“.

Der Referentenentwurf ist zu einem der meist beachteten Projekte des Ministeriums geworden, nachdem der Spiegel vor zwei Wochen erstmals die Vorwürfe der Schauspielerin Collien Fernandes gegen ihren Ex-Mann Christian Ulmen öffentlich gemacht hatte. Über seinen Anwalt geht er gegen die Berichterstattung vor; es gilt die Unschuldsvermutung. Die Staatsanwaltschaft Potsdam ermittelt.

Hubig hatte den Fall zum Anlass genommen, auf den bereits im Koalitionsvertrag beschlossenen, fast fertigen Gesetzentwurf hinzuweisen und angekündigt, ihn bald vorzustellen. Nun ist es so weit.

Zu „digitaler Gewalt“ zählt das Ministerium laut Entwurf ein breites Spektrum an Taten, unter anderem „Hate Speech“, also Beiträge, die andere bedrohen, abwerten oder zu Straftaten aufrufen. Ebenso zählt dazu das unerlaubte Veröffentlichen von Daten wie Adresse oder Telefonnummer („Doxing“), das unerwünschte Versenden pornografischer Bilder („Dickpics“), der gezielte Kontakt zu Kindern mit sexueller Absicht („Cybergrooming“), außerdem bildbasierte Gewalt, Cybermobbing, Cyberstalking und Identitätsmissbrauch, etwa wenn Fake-Profile einer anderen Person erstellt werden.

Heimliches Filmen und sexualisierte Deepfakes

Der Entwurf basiert auf zwei Säulen. Die erste ist eine strafrechtliche Säule, die wir bereits Ende März veröffentlicht und analysiert haben. Darin vorgesehen sind drei neue Straftatbestände.

  • Geplant ist demnach eine Überarbeitung des geltenden § 184k Strafgesetzbuch (StGB), der die Verletzung der Intimsphäre durch Bildaufnahmen regelt. Er soll künftig nicht nur das sogenannte Upskirting umfassen, sondern auch weitere Phänomene bildbasierter Gewalt, etwa das nicht-einvernehmliche Filmen in öffentlichen Saunen oder Umkleiden oder sexualisierte Deepfakes. Auch das Filmen bekleideter Körperteile wie Genitalien, Gesäß oder weiblicher Brust “in sexuell bestimmter Weise” soll verfolgt werden können. Strafmaß: bis zu zwei Jahre Haft.
  • Mit einem neuen Paragrafen zur „Verletzung von Persönlichkeitsrechten durch täuschende Inhalte“ (§ 201b StGB) soll zudem das Erstellen und Verbreiten solcher Deepfakes unter Strafe gestellt werden, die “geeignet sind, dem Ansehen der dargestellten Person erheblich zu schaden”.
  • Eine weitere neue Vorschrift soll außerdem das unbefugte digitale Tracken und Ausspionieren einer anderen Person unter Strafe stellen. Solches Verhalten war bislang schon im Rahmen von Nachstellung strafbar.

Auskunft zu anonymen Accounts

Neu und bislang unbekannt ist dagegen die zivilrechtliche Säule des Entwurfs. Die neuen Regeln sollen es für Betroffene von etwa beleidigenden und herabsetzenden Postings einfacher machen, selbst vor Gericht dagegen vorzugehen.

Betroffene sollen von Plattformen und Internetzugangsanbietern leichter als bisher Auskunft über die Identität einer Person hinter einem anonymen oder pseudonymen Account bekommen. Dazu sollen Anbieter künftig – sofern vorhanden – den Klarnamen und die Adresse herausgeben, wenn ein Gericht dies anordnet. Beides wird gebraucht, damit Betroffene etwa auf Unterlassung oder Schadensersatz klagen können.

Betroffene sollen eine solche Auskunft vor dem Landgericht beantragen können. Dazu müssen sie glaubhaft machen, dass eine unbekannte Person eine Rechtsverletzung begangen hat, und sie gegen diese Person zivilrechtliche Ansprüche geltend machen wollen. „Das Auskunftsverfahren ist insbesondere für Fälle gedacht, in denen die Rechtsverletzer ihre strafbaren Inhalte über einen anonymen Account in den sozialen Netzwerken verbreiten“, schreibt das Ministerium dazu.

Neu ist außerdem, dass sich Betroffene in einem Verfahren „durch zivilgesellschaftliche Organisationen als Bevollmächtigte vertreten lassen“ können, sofern das unentgeltlich – also kostenlos – geschieht. Auch das soll die Schwellen für Betroffene senken: Hilfsorganisationen könnten dann zumindest manchen Betroffenen die Kosten und Strapazen eines Gerichtsverfahrens abnehmen.

„Vorsorglich gespeicherte IP-Adressen“

Der Entwurf soll auch die Vorratsdatenspeicherung zurückbringen. Das ist ein umstrittenes Verfahren zur Massenüberwachung im Netz, das in Deutschland seit 2017 ausgesetzt ist. Im Zuge des Auskunftsanspruchs für Betroffene richtet das Gesetz den Blick zu Plattformen und Zugangsanbieter wie Vodafone oder die Telekom. Sie sollen künftig durch eine beweissichernde Anordnung dazu verpflichtet werden können, “bereits bei ihnen vorhandene Daten” über mutmaßliche Rechtsverletzer*innen zu sichern. Dazu sollen sie auch „vorsorglich gespeicherte IP-Adressen” verwenden. Der aktuell diskutierte Entwurf für die Vorratsspeicherung sieht vor, dass IP-Adressen für voraussichtlich drei Monate gespeichert werden sollen.

Die Vorratsdatenspeicherung wurde in Deutschland erstmals 2007 eingeführt, nach einem Urteil des Bundesverfassungsgerichts jedoch wieder aufgehoben, weil sie gegen Grundrechte verstieß. Eine neue Regelung von 2015 wurde später durch Urteile des Europäischen Gerichtshofs faktisch gestoppt, weil eine anlasslose, flächendeckende Speicherung von Kommunikationsdaten gegen EU-Recht verstößt.

Auf die Frage, wie sich das Vorhaben für eine erneute Speicherung von IP-Adressen mit dem EU-Recht vereinbaren lasse, sagte Hubig, es gehe bei dem Entwurf, der kommende Woche im Kabinett vorgelegt werden soll, nicht um eine Vorratsdatenspeicherung, sondern lediglich darum, IP-Adressen und Portnummern für einen Zeitraum von drei Monaten zu speichern. Das sei in dieser reduzierten Form rechtskonform. Große Netzbetreiber und Verbände kamen in ihren Stellungnahmen zu anderen Einschätzungen. 

In besonders schweren Fällen sollen Landgerichte darüber hinaus auch zeitweilige Account-Sperren verhängen können. So solle verhindert werden, das reichweitenstarke Accounts wiederholt schwere Persönlichkeitsrechtsverletzungen begehen können.

Kritik an hohen Kosten und massenhafter Datenspeicherung

Die Organisation HateAid, die Betroffene von digitaler Gewalt berät, begrüßt die geplanten Reformen im Zivilrecht und auch, dass Plattformen und Zugangsanbieter nun IP-Adressen herausgeben sollen. Zugleich weist die Organisation darauf hin, dass die Auskunftsverfahren für die Betroffenen mit hohen Kosten verbunden seien. Sie müssten nicht nur ihre eigenen Kosten, sondern auch die Gerichtskosten und die Rechtsvertretung der Plattformen selbst zahlen.

Der Entwurf sieht hierfür eine Ausnahmeregelung vor, von der Gerichte nach Erfahrung der Organisation jedoch in der Regel keinen Gebrauch machten. HateAid hatte gefordert, Gerichtskosten pauschal zu regeln.

Sieben Köpfe gegen digitale Gewalt

Benjamin Lück, Rechtsanwalt bei der Gesellschaft für Freiheitsrechte, kommt zu einem kritischeren Urteil. Gut sei, dass das Ministerium mit Account-Sperren einen wirkungsvollen Mechanismus für Betroffene vorsehe.

Die in der Begründung des Entwurfs versteckte Verknüpfung der Auskunftsansprüche mit der geplanten IP-Vorratsdatenspeicherung lehnen wir dagegen ab. Solche anlasslosen, massenhaften Datenspeicherungen halten wir grundsätzlich für das falsche Mittel.

Im Vorfeld hatten sich bereits mehrere Fachleute für digitale Gewalt gegen Überwachungsmaßnahmen zum Schutz vor digitaler Gewalt ausgesprochen, darunter auch die Vorratsdatenspeicherung.

Bereits unter der Ampel angekündigt

Mit der Vorstellung des Entwurfs liefert Hubig nun etwas, das bereits ihr Vorgänger Marco Buschmann (FDP) zur Zeit der Ampel-Regierung vor fünf Jahren angekündigt hatte. Seine Pläne zum Schutz vor digitaler Gewalt umfassten allerdings nur das Zivilrecht und versandeten zum Ende der letzten Legislaturperiode.

Hubig betont nun, sie habe ein “Gesamtkonzept” vorlegen wollen, das sowohl das Zivilrecht als auch die Verschärfungen im Strafrecht umfasst.

Der Entwurf wird nun an Verbände und Bundesländer geschickt, die Gelegenheit zur Stellungnahme bekommen. Er muss noch im Kabinett abgestimmt werden und erreicht danach erst den Bundestag und Bundesrat.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

„Rechenzentren sind Vampire“: Wo sich lokaler Widerstand gegen den KI-Hype formiert

17. April 2026 um 14:07

Der Bau von Rechenzentren boomt, in Deutschland und weltweit. Dadurch werden Strom und Wasser knapp, sagen Aktivist*innen und organisieren lokale Proteste. Auf der Konferenz „Cables of Resistance“ trafen sie sich zur Vernetzung.

Ein großes graues Industriegebäude mit Schornsteinen und dicken Rohren hinter einem Zaun.
Rechenzentrum der US-Firma CyrusOne in Frankfurt am Main. In der Stadt stehen die energiehungrigen Klötze dicht an dicht. – Alle Rechte vorbehalten IMAGO / Joko

„Der Widerstand in Beringen lässt momentan noch zu wünschen übrig“, so beschreiben zwei Aktivist*innen die Stimmung in einem 5.000-Seelen-Dorf im nördlichsten Zipfel der Schweiz, in dem zwei riesige Rechenzentren entstehen sollen. Sie sind zur ersten Konferenz gegen Big Tech in Berlin,  der „Cables of Resistance“-Konferenz angereist, um über den KI-Hype in der Schweiz zu berichten. Die Resignation der Bevölkerung werde weichen, wenn „Wasser und Strom vor der eigenen Haustür in einigen Jahren knapp werden“, prognostizieren sie.

Um das fast fertig gestellte Rechenzentrum in der Nähe von Zürich mit Wasser zu versorgen, müsse das Trinkwasser aus der Nachbargemeinde angezapft werden, berichten die beiden Aktiven von der Initiative „Aufstände der Allmende“. Allein dieses Rechenzentrum in Beringen habe einen Strombedarf von bis zu drei Viertel des Verbrauchs des gesamten Kantons Schaffhausen. In nur wenigen Kilometern Entfernung, in der Nachbargemeine Herblingen, soll nun mutmaßlich das dritte und noch größere Rechenzentrum des Kantons entstehen. Wie der Strombedarf dieser Anlagen gestillt werden soll, sei noch völlig unklar. „Eine Idee, die im Parlament diskutiert wird, ist der Bau neuer Atomkraftwerke“.

Im nahegelegenen Zürich ist die Dichte der Tech-Unternehmen höher als im Silicon Valley. Dass Rechenzentren in der Region aus dem Boden sprießen, liegt laut der Schaffhauser Nachrichten auch daran, dass der Kanton an der wichtigen Verkehrsachse Zürich – Stuttgart liegt. Auch Frankfurt am Main ist nicht weit weg, dort befindet sich einer der weltweit wichtigsten Internetknoten, mit dem sich Daten schnell übertragen lassen.

Kein Ende des Ausbaus in Sicht

In der hessischen Metropole am Main sei das Stromnetz bereits am Limit, erklärt die Journalistin Indra Jungblut, die ebenfalls auf der Konferenz sprach. Bis 2030 sei kein größerer Anschluss an das Stromnetz mehr möglich. Die mehr als 100 Rechenzentren beanspruchen bis zu 40 Prozent des gesamten Strombedarfs der Stadt. In einigen Bezirken stehen die Serverfarmen dicht an dicht nebeneinander und haben massive Auswirkungen auf das Leben in der Stadt. Ihre Konzentration ist hier deutschlandweit am größten. Und trotzdem: „Ein Ende des Ausbaus ist nicht in Sicht“, sagt Jungblut.

Denn Rechenzentren-Entwickler*innen haben sich etwas einfallen lassen. Sie bauen eigene Anlagen zur Stromerzeugung, die sie mit fossilen Brennstoffen betreiben. Ein gut dokumentiertes Beispiel sei die US-amerikanische Firma CyrusOne: für den Betrieb des „FRA7“ Rechenzentrums in Frankfurt hat sie eine eigene Gasturbine gebaut. „Und das ist vermutlich kein Einzellfall“, sagt die Journalistin. Hersteller wie Siemens Energy jedenfalls kommen mit der Produktion neuer Gasturbinen, die vor kurzem noch als Auslaufmodell galten, nicht mehr hinterher.

„Strom wird zu einer knappen Ressource“

Der Region Berlin-Brandenburg drohe ein ähnliches Schicksal wie Frankfurt, warnen die Stadtforscher*innen Niklas Steinke und Fabian Halfar in ihrem Vortrag. Hier sind Dutzende neue Rechenzentren geplant. In Berlin-Lichtenberg entsteht „Bluestar“ der Prea Group, das größte KI-Rechenzentrum der Stadt. Mit 100 Megawatt Anschlussleistung soll es mehr Strom verbrauchen als eine Stadt wie Potsdam. Schon bis 2024 seien in Berlin mehr Netzanschlüsse angefragt worden als das gesamte Berliner Stromnetz übertragen kann, vor allem für große Rechenzentren-Projekten.

Warum kommt Big Tech überhaupt nach Berlin? Großstädte wie Berlin und Frankfurt verfügen über eine Wasser- und Stromnetzinfrastruktur, die mit öffentlichen Geldern gebaut wurde. Die wollen die Tech-Firmen für sich nutzen, sagen die Forscher*innen und nennen das „Infrastukturextraktivismus“. Dieser sei neben dem bereits bekannten Abbau der Rohstoffe in ehemals kolonisierten Regionen und der Sammelwut großer Datenmengen eine neue Manifestation des KI-Hypes. „Im Rechenzentrum-Boom wird Strom zu einer knappen Ressource“, sagt Halfar. Bisher sei die Vergabe großer Netzanschlüsse nicht politisch aufgeladen. Das mache es den Rechenzentren-Betreiber*innen leichter, sich das Stromnetz innerhalb weniger Jahren anzueignen.

Hilfe bekämen sie dabei auch von klassischen Bodenspekulant*innen, die potenziell geeignete Flächen in der Stadt aufkaufen und darauf warten, dass Betreiber*innen von Rechenzentren auf sie zukommen. Denn eine Bewerbung für einen Anschluss zum Hochspannungsnetz setze eine Fläche voraus. „Wir müssen uns dringend darum kümmern, dass das Stromnetz aus der politischen Unsichtbarkeit austritt und eine demokratische Diskussion darüber stattfindet, wofür wir den Strom verwenden wollen“, schlussfolgert Halfar.

Bundesregierung knickt vor Big-Tech-Lobby ein

Die Bundesregierung sei dem globalen Wettrennen um KI-Kapazitäten dem Glauben aufgesessen, dass sich mit Rechenzentren Wohlstand generieren lässt, sagte Julian Bothe, Experte für KI und Nachhaltigkeit bei AlogrithmWatch, in seinem Talk. Bis 2030 will sie die Rechenzentrumskapazitäten im Land mindestens verdoppeln und die Kapazitäten für Künstliche Intelligenz vervierfachen, wie es in der kürzlich vorgestellten Rechenzentrumsstrategie heißt. Dabei habe Deutschland schon jetzt die meisten Rechenzentren im europäischen Vergleich. Laut DataCenterMap sind es aktuell mehr als 500.

Die Pläne der Regierung bringen eine weitgehende Deregulierung zugunsten der Tech-Firmen und zulasten der Gesellschaft und der Umwelt mit sich, kritisiert Bothe. Ein starkes Beispiel hierfür sei die geplante Abschwächung des Energieeffizienzgesetzes. So sollen beispielsweise die bestehenden Transparenzstandards für Verbrauchswerte abgeschafft werden. Das würde den Betreiber*innen erlauben, den konkreten Energieverbrauch und die Energieeffizienz der Rechenzentren vor der Öffentlichkeit geheimzuhalten – mit dem Verweis auf Geschäftsgeheimnisse.

„Anstatt in Zeiten der Energiekrise endlich auf Energieeffizienz zu setzen, droht Wirtschaftsministerin Reiche erneut, vor den Lobby-Bemühungen der Tech-Giganten einzuknicken“, sagte Bothe anlässlich des Positionspapiers zur Gesetzesnovelle, das AlgorithmWatch mit anderen Organisationen vergangene Woche veröffentlicht hat. Die Forderung, Verbrauchswerte als Geschäftsgeheimnisse hinter Verschluss zu halten, komme von Microsoft. Das habe eine Recherche von LobbyControl und Campact ergeben.

Zugang zu sauberem Wasser steht auf dem Spiel

Das geplante Energieeffizienzgesetz müsse gestoppt werden, sagte Bothe. Denn Widerstand gegen schädigende Gesetzesvorhaben auf nationaler Ebene sei wichtig. Genauso notwendig sei aber auch lokaler Protest gegen geplante Rechenzentren vor Ort. Dass Protest wirksam sein kann, zeigt der Fall von Groß-Gerau. Die Stadtverordneten haben dort gegen den Bau des bislang größten Rechenzentrums in der Rhein-Main-Region gestimmt.

Dass Proteste bereits an vielen Orten auf der Welt stattfinden, haben zahlreiche Vorträge auf der Konferenz gezeigt. Immer wieder versuchen lokale Gruppen, die Ansiedlung neuer Rechenzentren zu verhindern. José Renato Laranjeira etwa berichtete vom Kampf der indigenen Anacé-Gemeinschaft in Brasilien. Durch den Bau von Rechenzentren sahen sie einen heiligen Fluss in Gefahr. Der Zugang zu sauberem Wasser stand für sie auf dem Spiel.

Neue Arbeitsplätze und Steuereinnahmen sind Mythen

Welche Erfahrungen Aktivist*innen im Kampf gegen Rechenzentren bereits gesammelt und welche Strategien sich als wirksam erwiesen haben, darum ging es in einem international besetzten Panel. Einerseits sei es wichtig, die lokale Bevölkerung zu involvieren und andererseits die Propaganda der Tech-Konzerne mit Fakten zu kontern, sagte Luis García Valverde von der spanischen Umweltschutz-NGO „Ecologistas en Acción“. Seine Organisation setzt sich gegen die Ansiedlung riesiger Amazon-Rechenzentren in der Region Aragon im Nordosten Spaniens ein, unter anderem mit einer Klage. García Valverde berichtete von Versuchen des Tech-Konzerns die Öffentlichkeit zu beeinflussen: etwa indem Amazon Anzeigen in lokalen Zeitungen schaltet, Fußballclubs in der Region sponsort oder die Namensrechte eines Stadiums kauft.

Auch Hacktivistin Eda von der französischen Organisation „La Quadrature du Net“ setzt auf Aufklärung. Im französischen Marseille habe die Ansiedlung von Rechenzentren etwa die geplante Elektrifizierung des Hafens verhindert. Von der Elektrifizierung würden die Menschen in der Stadt aber massiv profitieren. Wenn Kreuzfahrtschiffe im Hafen über Strom liefen, gäbe es weniger Luftverschmutzung. Genau solche Informationen müssten öffentlich gemacht werden, um die Menschen vor Ort aufzurütteln, sagte Eda.

Zudem müsse man Mythen über neue Arbeitsplätze und Steuereinnahmen entkräften, ergänzte Dylan Murphy von der irischen Gruppe „Not Here Not Anywhere“. Er berichete von der Überlastung des irischen Stromnetzes durch den gigantischen Ausbau der Rechenzentren im Land, der irgendwann sogar zu einem Moratorium, einem Baustopp, geführt habe. „Rechenzentren sind Vampire, die unseren Gemeinschaften Strom, Wasser, Land und Rohstoffe entziehen.“ Als physische Manifestation des KI-Hypes würden sie sich hervorragend für Mobilisierung eignen, pflichtete García Valverde aus Spanien bei. Plötzlich hätten Menschen das abstrakte Thema KI direkt vor der eigenen Haustür.

Ein großes Problem bei der Mobilisierung sei jedoch die Intransparenz der Betreiber*innen und teilweise auch der Gemeinden. Oft sei nicht einmal klar, wer wo genau baue und für wen. Teilweise bauen die großen Tech-Konzerne nicht mehr selbst, sondern mieten Kapazitäten bei Dritten, erzählte García Valverde.

Was tun gegen die KI-Blase?

Um so ein Modell handelt es sich beim ersten Rechenzentrum im Schweizerischen Beringen. Seine Zukunft ist derzeit noch völlig offen. Es wird sich erst in einigen Jahren zeigen, welche Firmen die Fläche im Rechenzentrum mieten wollen und ob die Gemeinde Steuereinnahmen einnehmen wird. Außerdem ist die Frage nach der Abwärmenutzung noch ungelöst: das Rechenzentrum produziert deutlich mehr Abwärme, als ein kleines Dorf wie Beringen sinnvoll nutzen kann. Deshalb ist nun der Bau eines Erdbeckenspeichers – eines künstlichen Sees, der die Abwärme des Rechenzentrums im Sommer speichern soll – für rund 22 Millionen Euro im Gespräch. Platzt die KI-Blase, bleiben die Beringer*innen mit kostspieliger leerstehender Infrastruktur zurück.

Um auf die Situation einzuwirken und die öffentliche Diskussion über den Bau von Rechenzentren anzuregen, organisiert sich laut den Aktivist*innen von „Aufstände der Allmende“ derzeit ein Bündnis rund um die Kampagne „KI kurzschließen“. Vom 2. bis 9. Juli werde es in der Schweiz dazu ein Widerstandscamp geben.

Wie man sich hierzulande engagieren kann, erklärt die Bundestagsabgeordnete Sonja Lemke (die Linke). Sie empfiehlt Aktivist*innen und Bürger*inneninitiativen, auf der kommunalen Ebene anzusetzen, wo die Entscheidungen über den Bau von Rechenzentren getroffen werden: „Geht in die kommunalen Planungsausschüsse, schreibt Mails an eure Abgeordneten und stellt IFG-Anfragen.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Mit Merz und von der Leyen: Macron will Alterskontrollen für alle durchboxen

17. April 2026 um 12:55

Der französische Präsident Emmanuel Macron schwört die EU auf Alterskontrollen ein. Dafür liegt er unter anderem Kommissionspräsidentin von der Leyen und Bundeskanzler Merz in den Ohren. Mit steigendem Tempo steuert die EU auf eine Ausweispflicht im Netz zu.

Emmanuel Macron begrüßt Ursula von der Leyen mit einem angedeuteten Kuss. Im Hintergrund steht eine bewaffneter Gardist.
Emmanuel Macron leistet Überzeugungsarbeit – hier im März 2026. – Alle Rechte vorbehalten IMAGO / ABACAPRESS

Viele Spitzenpolitiker*innen wollen gerade Alterskontrollen und ein Social-Media-Verbot für Minderjährige. Der französische Präsident Emmanuel Macron will es ganz besonders. Medienwirksam treibt er das Vorhaben europaweit voran und versucht, andere Mitgliedstaaten auf Linie zu bringen.

Am gestrigen Donnerstag hat Macron zu einer Videokonferenz geladen. Dabei waren EU-Kommissionspräsidentin Ursula von der Leyen (CDU), Bundeskanzler Friedrich Merz (CDU), die italienische Ministerpräsidentin Giorgia Meloni und weitere hochrangige Vertreter*innen von EU-Mitgliedstaaten. Das Ziel: koordiniert vorgehen.

Auf Twitter-Nachfolger X sprach Macron von einer „Bewegung“. Ein von ihm veröffentlichter Videoclip zeigt eine Aufnahme des Bildschirms mit den zugeschalteten Gästen, darunter Bundeskanzler Merz. „Hier sind rund ein Dutzend Staaten vertreten“, so ein Schriftzug im Videoclip.

Über die Teilnahme des Kanzlers ist die französische Regierung offenbar besonders stolz. Im Vorfeld sagte ein Élysée-Sprecher, das sende ein „Signal“. Im Vergleich zu Frankreich ist die Position der Bundesregierung in Sachen Social-Media-Verbot nämlich noch verhalten.

Den Stein ins Rollen gebracht hatte im Dezember 2025 das Social-Media-Verbot für unter 16-Jährige in Australien. Dort dürfen große Plattformen wie TikTok, Instagram oder YouTube jungen Menschen keine Accounts mehr erlauben. Dafür sollen sie das Alter von Nutzer*innen prüfen. Nun drängen mehrere EU-Mitgliedstaaten auf ein ähnliches Modell.

Rechtssicher möglich wäre das jedoch nur mit einer EU-weiten Regelung. Deshalb erhöhen die Befürworter*innen Woche für Woche den Druck auf die EU-Kommission. Staats- und Regierungsschef*innen, etwa aus Spanien und Deutschland, stellen Forderungen auf oder schreiben der Kommissionspräsidentin dringliche Briefe. Mitgliedstaaten wie Frankreich und Griechenland bringen bereits nationale Gesetze auf den Weg. EU-Parlament und Rat beziehen Position.

Die gestrige Videokonferenz ist also nur der (bisherige) Gipfel der Bemühungen.

Ausweispflicht im Netz? Das droht konkret

Der an den Tag gelegte Eifer könnte den Eindruck erwecken, Europa müsse auf eine plötzliche Katastrophe reagieren. Das ist aber nicht der Fall: Es gibt keine Hinweise, dass soziale Medien aktuell schädlicher wären als beispielsweise vor fünf Jahren. Die Forschungslage über gesundheitliche Gefahren sozialer Medien für Minderjährige ist nach wie vor unklar; Warnungen aus der Wissenschaft sind in der Gesamtschau eher vorsichtig.

Anders sieht jedoch das Bild aus, dass Spitzenpolitiker*innen zeichnen. Ursula von der Leyen hatte diese Woche die neue EU-Alterskontroll-App in ihrer Rede sogar mit der Einführung der Covid-App verglichen. Als wären soziale Medien eine Pandemie, die Europa überrollt und dabei vor allem Kinder und Jugendliche infiziert. Worauf genau steuert Europa da gerade zu?

Das in eine künstliche Drohkulisse gerahmte Vorhaben lässt sich auf vier Module herunterbrechen.

  • Erstens geht es um ein EU-weites einheitliches Mindestalter für soziale Medien – ähnlich wie für einen Auto-Führerschein. Es könnte irgendwo zwischen 12 und 16 Jahren liegen. Frankreich will es bei 15 Jahren ansetzen. Schon jetzt geben Plattformen in ihren Nutzungsbedingungen ein Mindestalter vor: etwa 13 Jahre bei TikTok oder 16 Jahre bei YouTube. Für ein EU-weites Mindestalter allein wären die rechtlichen Hürden eher gering.
  • Zweitens geht es um die Verpflichtung, dass Plattformen dieses Mindestalter mit strengen Alterskontrollen sichern müssen, etwa auf Basis von Ausweisdokumenten. Eine solche Pflicht gibt es bereits für Pornoseiten, die nur ab 18 Jahren erlaubt sind. Für soziale Medien dagegen gilt das Gesetz über digitale Dienste (DSA), das strenge Alterskontrollen nur als eine von mehreren Optionen vorsieht. Möchte die EU also soziale Medien zu solchen Alterskontrollen verpflichten, müsste der DSA angepasst werden.
  • Drittens geht es um die wirksame Durchsetzung einer möglichen Pflicht zu strengen Alterskontrollen. Das Beispiel von Pornoseiten zeigt: Nur weil eine strenge Pflicht de jure gilt, heißt es noch lange nicht, dass Websites sich auch de facto daran halten. Eigentlich dürfte es in der EU keine frei zugänglichen Pornoseiten geben. Seit Jahren laufen dazu Rechtsstreitigkeiten. Social-Media-Seiten sind jedoch weniger rebellisch als Pornoseiten. Sie könnten sich entsprechenden Gesetzen beugen – in Australien tun sie es auch, zumindest widerwillig.
  • Viertens geht es um einheitliche Methoden für strenge Alterskontrollen. Die EU hat hierfür jüngst eine Alterskontroll-App vorgestellt, die EU-weit ausgerollt werden soll. Später soll sie in der neuen digitalen Brieftasche (EUDI-Wallet) aufgehen. Nutzer*innen sollen in der App etwa ein Ausweisdokument hinterlegen, das ihr Alter verrät. Die App soll dann lediglich weitergeben, ob eine Person eine bestimmte Altersschwelle überschritten hat. Rund um die App gibt es jedoch mehrere technische Unklarheiten und falsche Versprechungen.

Sobald alle vier Module wie Zahnräder ineinandergreifen, könnte ein mächtiger Kontrollapparat entstehen, der das Internet, wie wir es bisher kennen, umkrempelt. In diesem Szenario wäre es zwar weiterhin möglich, Alterskontrollen mit Tricks zu umgehen – etwa mit einem VPN-Dienst. Dennoch ist davon auszugehen, dass ein Großteil der Nutzer*innen lieber den offiziell gewünschten Weg geht und sich künftig mit einer Ausweis-App durchs Netz bewegt.

Zwei Updates könnten den Überwachungs-Apparat scharfstellen

Für Anonymität im Netz ist das eine Gefahr. Aktuell setzt die Alterskontroll-App der EU auf Pseudonyme, auch wenn die EU-Kommission versucht, die Kontrollen als „komplett anonym“ zu verkaufen. Technische Systeme lassen sich allerdings mühelos verändern. Vom Kontrollapparat zum Apparat für Massenüberwachung wäre es – theoretisch – kein allzu großer Schritt mehr. Dafür bräuchte es nur zwei Updates:

  • Ein technisches Update könnte die App von Pseudonymen auf Klarnamen umstellen.
  • Ein juristisches Update müsste dafür die entsprechende Rechtsgrundlage schaffen.

Mit der Begründung, Kinder und Jugendliche zu schützen, erschaffen Emmanuel Macron, Ursula von der Leyen und weitere Befürworter*innen von Alterskontrollen also gerade eine neue Infrastruktur, um alle Menschen im Netz umfassend zu kontrollieren. Und diese Infrastruktur wäre nur zwei Updates davon entfernt, Anonymität im Netz weitgehend abzuschaffen.

Weiter wäre es mit diesem Kontrollapparat möglich, bestimmte Personengruppen systematisch aus digitalen Räumen auszuschließen, etwa weil sie eine bestimmte Altersgrenze nicht überschreiten oder weil sie keine erforderlichen Papiere besitzen. – Wie weit ist dieses Szenario entfernt?

Erste Hürde: Die Alterskontroll-App ist nicht fertig

Rund um Alterskontrollen gibt es eine auffällige Diskrepanz zwischen dem, was Befürworter*innen sagen, und dem, was der Fall ist. So hat Kommissionspräsidentin von der Leyen die Alterskontroll-App diese Woche für „technisch fertig“ erklärt. In einem nachgelagerten Pressebriefing betonte ein Pressesprecher mit gepresster Stimme, die App sei „fertig!“. Ein hochrangiger EU-Beamter sprach im selben Pressebriefing von einem „Goldstandard“.

Der Blick in den Code und die Spezifikationen zeigt jedoch: Die App ist nicht fertig. Einiges ist noch nicht abschließend geklärt. So braucht es je nach Nationalstaat und unterstützten Altersnachweisen eigene Umsetzungen der App. Dabei gibt es viele Spielräume, die am Ende mehr oder weniger Privatsphäre versprechen. IT-Sicherheitsexperten warnen bereits vor Lücken.

Deutschland wiederum will die Alterskontroll-App gar nicht erst einführen, wie jüngst ein Sprecher des Digitalministeriums gegenüber der Süddeutschen Zeitung (SZ) erklärte. Offenbar liegt der Fokus in Deutschland auf der digitalen Brieftasche.

Aus der Bundesagentur für Sprunginnovationen heißt es laut SZ: Die technischen Standards der Alterskontroll-App würden von jenen aus der Verordnung für die digitale Brieftasche abweichen, „ohne, dass dadurch ein Mehrwert entsteht“. Das deutet darauf hin: Der angebliche „Goldstandard“ könnte zum Rohrkrepierer werden.

Zweite Hürde: Der DSA steht im Weg

Weiter ist noch nicht entschieden, ob und inwiefern die EU-Kommission bereit wäre, Social-Media-Plattformen zu strengen Alterskontrollen zu verpflichten. Dafür müsste sie nämlich den DSA anfassen. Gibt es dafür einen politischen Willen? In ihren Äußerungen zur Videokonferenz mit Macron, von der Leyen und weiteren Spitzenpolitiker*innen hielt sich die EU-Kommission offenbar bewusst alle Türen auf.

Ursula von der Leyen schrieb auf Twitter-Nachfolger X: „Mit dem DSA haben wir EU-weite Regeln.“ Eltern sollten sich keine Sorgen machen. Das deutet darauf hin: Nein, es kommen keine neuen Gesetze, die über den DSA hinausgehen.

Am selben Tag allerdings sagte ein Kommissionssprecher dem Fachmedium Mlex: „Natürlich erwarten wir von Online-Plattformen, einschließlich sozialer Medien, dass sie angemessene Verfahren zur Altersverifikation haben, wenn für ihre Dienste Altersbeschränkungen gelten.“ Das wiederum deutet in eine andere Richtung: Die EU-Kommission könnte versuchen, bei der Durchsetzung des DSA auf strenge Altersverifikation zu pochen. Plattformen allerdings könnten sich dann rechtlich dagegen wehren und auf den Spielräumen beharren, die ihnen laut DSA zustehen.

Aktuell muss die EU-Kommission über das französische Social-Media-Verbot bis 15 Jahre entscheiden, und zwar im sogenannten Notifizierungsverfahren. Hier soll sich klären, ob das geplante nationale Gesetz mit EU-Recht vereinbar ist. Das könnte eng werden: In zwei Gutachten hatten die Wissenschaftlichen Dienste des Bundestags keine Spielräume für nationale Alleingänge bei diesem Thema gesehen.

Die Wissenschaftlichen Dienste arbeiten laut Selbstbeschreibung parteipolitisch neutral und sachlich objektiv. Als die französische Regierung jüngst in einem Pressebriefing auf deren juristisch fundierte Einschätzung angesprochen wurde, wollte sie davon nichts wissen. Ein Sprecher weigerte sich, zu kommentieren, was „irgendein“ deutsches Gremium sage.

Wissenschaft und Zivilgesellschaft im Abseits

Ähnlich wie die EU-Kommission hält sich Deutschland noch alle Türen auf. Zwar haben bereits Kanzler, Vizekanzler, die CDU und wichtige SPD-Politiker*innen Position bezogen – für ein Social-Media-Verbot für Minderjährige plus Alterskontrollen. Die CSU dagegen ist skeptisch. Und die Bundesregierung teilte jüngst mit, sie habe sich noch nicht festgelegt.

Mit zunehmender Ungeduld schielen die Befürworter*innen des Modells auf zwei Expert*innen-Kommissionen; eine auf Deutschland- und eine auf EU-Ebene. Dort sollen Fachleute bis spätestens Sommer Handlungsempfehlungen für Jugendschutz im Netz vorlegen. Ihnen dürfte allerdings bewusst sein, dass Politiker*innen auf höchster Ebene gerade Entscheidungen vorwegnehmen. Wie groß ist wohl das Interesse der Forschenden, den Staats- und Regierungschef*innen mit möglicherweise abweichenden Positionen in die Parade zu fahren?

Keinerlei politisches Gehör findet derweil eine breite interdisziplinäre Palette an Kritiker*innen aus den Bereichen Kinderschutz, Pädagogik und Wohlfahrt, aus Elternverbänden, aus Datenschutz und IT-Sicherheit bis hin zur Kirchen-Organisationen. Viele lehnen sowohl ein pauschales Social-Media-Verbot für Minderjährige ab als auch strenge Alterskontrollen für alle. Kinder und Jugendliche mit ihren Interessen und Bedürfnissen kommen in der politischen Debatte – wenn überhaupt – nur am Rande vor.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Die 10 Feeds sind aktualisiert worden ❌