🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Heute — 16. April 2026Haupt-Feeds

Abschiebepolitik: Das Handy eines Mannes, der nirgendwo hinkann

16. April 2026 um 10:22

Idris lebt seit mehr als 40 Jahren in Deutschland und soll nach Eritrea abgeschoben werden. Das gilt als praktisch unmöglich. Trotzdem durchsucht das Ausländeramt Köln sein Smartphone, während er im Gefängnis sitzt. Eine Geschichte über einen Kontrollapparat, der sich verselbstständigt hat.

Eine Mauer im Morgengrauen, darauf ein Wachturm.
Der Wachturm der JVA Köln Ossendorf: Hier saß Idris in Untersuchungshaft. – Alle Rechte vorbehalten IMAGO / Funke Foto Services / Andreas Buck

Winter 2024. Idris ist gerade in der JVA Siegburg angekommen. Um seine Cracksucht zu finanzieren, war er in einen Kiosk und mehrere Gaststätten eingestiegen, hatte Parfum in einer Drogerie geklaut, war immer wieder erwischt worden. Weil er die Taten während laufender Bewährungszeiten begangen hatte, muss er jetzt für insgesamt fünf Jahre ins Gefängnis.

Ein Beamter reicht ihm die Gefängniskleidung und einem Umschlag mit seinen Wertsachen. Die Sachen sind aus der Untersuchungshaft überstellt worden, in der er vorher gewesen ist. Idris soll den Inhalt prüfen, bevor der Umschlag wieder verplombt und eingeschlossen wird. Im Umschlag liegt seine Halskette. Aber das Handy, das er beim Antritt der U-Haft Anfang des Jahres ebenfalls abgegeben hatte, fehlt.

Was damit passiert ist, erfährt er erst zwei Monate später, durch einen Brief der für ihn zuständigen Ausländerbehörde Köln. „Anbei übersende ich Ihnen den Datenträger des oben genannten Inhaftierten zurück“, heißt es darin und weiter in bestem redundanten Amtsdeutsch. „Der Datenträger wurde im Zuge einer Datenträgerauswertung ausgewertet“, er könne nun zurück in die Verwahrung.

Seit 40 Jahren geduldet

Idris, der eigentlich anders heißt, lebt seit mehr als 40 Jahren in Deutschland. Er kam als Kind, hat hier die Schule besucht, einen Hauptschulabschluss gemacht, eine Schlosserlehre begonnen. Er hat auch früh eine Karriere als Kleinkrimineller begonnen, wie er selbst sagt. All das erzählt er vom Festnetztelefon des Gefängnisses aus, das er zu vorgeschriebenen Zeiten benutzen darf.

Eine Aufenthaltserlaubnis hat er nicht, sein Antrag auf Asyl wurde bereits 1987 abgelehnt. Seit Jahrzehnten lebt er mit einer Duldung im Land, doch damit ist jetzt Schluss. Nach seiner Entlassung soll er Deutschland verlassen, das hat ihm das Ausländeramt im Herbst mitgeteilt.

Das Problem: Das Land, aus dem er mit seiner Tante einst geflohen ist, der heutige Staat Eritrea, will ihn nicht. Eine Abschiebung dorthin ist ohnehin so gut wie unmöglich. Das Land gilt als eine der brutalsten Diktaturen der Welt, Abgeschobenen drohen Folter und willkürliche Haft. Als Geflüchteter aus der ehemaligen äthiopischen Provinz besaß Idris zudem nie eritreische Papiere, Eritrea erkennt ihn nicht als Staatsbürger an. „Ich bin faktisch staatenlos, seit über vierzig Jahren“, sagt Idris zu seinem Fall.

Den deutschen Verwaltungsapparat interessiert das nicht. Für das Ausländeramt Köln ist Idris ein ausreisepflichtiger Straftäter, in so einem Fall gilt ein besonders schwerwiegendes „Ausweisungsinteresse“. Das Amt muss alles dafür vorbereiten, dass er nach seiner verbüßten Haftstrafe abgeschoben werden kann. Dazu darf es laut Aufenthaltsgesetz auch seine Datenträger durchsuchen.

Vom Gefängnis in die IT-Forensik

Während Idris in einer Zelle sitzt, geht sein Handy deswegen auf Reisen. Aus dem Umschlag mit seinen persönlichen Dingen in der Gefängnisverwahrung gelangt es an das Ausländeramt in Köln, dieses schickt es mit einem Prüfauftrag weiter an die Zentrale Ausländerbehörde in Essen.

Die Behörde ist dafür zuständig, die Ämter in Köln und Düsseldorf bei Abschiebungen zu unterstützen. Dort arbeitet seit Herbst 2023 auch die „Stabsstelle Datenforensik“. Ihre Aufgabe: Die Datenträger von Menschen durchsuchen, die „ausreisepflichtig“ sind, um darauf nach Hinweisen für ihre Herkunft oder Identität zu suchen.

Diese Abteilung eingerichtet hat das von den Grünen geführte Fluchtministerium in Nordrhein-Westfalen. In einem Erlass, der damals an alle Ausländerbehörden im Land ging, heißt es dazu: „Demnach ist ein Ausländer, der keinen Pass oder Passersatz besitzt, verpflichtet, an der Beschaffung eines Identitätspapieres mitzuwirken und alle Dokumente oder Datenträger auf Verlangen der Ausländerbehörde vorzulegen, die für die Feststellung und Geltendmachung einer Rückführungsmöglichkeit in einen anderen Staat von Bedeutung sein können.“ Komme die betroffene Person dieser Mitwirkungspflicht nicht nach, könne die Behörde die Durchsuchung anordnen.

Die Ausländerbehörden werden in dem Schreiben gebeten, „sich bei Bedarf an einer Datenträgerauswertung“ mit der jeweils für ihren Regierungsbezirk zuständigen Zentralen Ausländerbehörde in Verbindung zu setzen. Weitere Informationen dazu finde man unter dem Reiter „Auswertung Datenträger“ im System.

Was ein Handy über Herkunft verraten soll

Was in Essen mit seinem Handy geschieht, erfährt Idris nicht. Die Stadt Köln will dazu keine Auskunft erteilen. Ausgehend von dem, was ein Sprecher der Stadt mitteilt und was aus bisherigen Recherchen von netzpolitik.org bekannt ist, würde die Durchsuchung aber so ablaufen:

Die Abteilung soll auf Idris’ Handy nach Indizien suchen, die auf eine Staatsangehörigkeit hindeuten können. Im besten Fall – aus Sicht der Behörde – wären das Fotos von Papieren oder Passnummern. Im weniger guten Fall geht es um „sachdienliche Hinweise“: Anrufe in ein bestimmtes Land etwa, gespeicherte Kontakte oder Sprachen, die er in Chatnachrichten verwendet hat.

Um die Handys zu durchsuchen, schließen die Forensik-Fachleute die Geräte an einen Computer an, der alle Daten aus dem Gerät ausliest. Idris‘ Fotos, seine Nachrichten, wen er angerufen hat, was er auf Social Media postete – all das liegt nun bei der Behörde offen. Aus den relevanten Hinweisen, die sie in den Daten finden, erstellen Mitarbeiter*innen einen Bericht und schicken ihn zusammen mit dem Handy zurück an die Ausländerbehörde.

Dieser letzte Schritt, die Auswertung und der Bericht, werde von einer Person mit Befähigung zum Richteramt gemacht, schreibt ein Sprecher der Stadt. Letzteres schreibt das Aufenthaltsgesetz vor. Damit soll sichergestellt sein, dass keine Informationen aus dem sogenannten „Kernbereich“ der privaten Lebensgestaltung in den Akten landen.

„Was ist das für eine Verarscherei?“

Formal ist das alles korrekt, rechtlich abgesichert. Ein Paragraf im Aufenthaltsgesetz erlaubt die Handydurchsuchung bereits seit mehr als zehn Jahren, wenn die Identität nicht mit anderen „milderen Mitteln“ geklärt werden kann, etwa durch die Vorlage einer Geburtsurkunde. Die Behörde darf in so einem Fall Datenträger einziehen, auch gegen den Willen der Betroffenen. In vielen Bundesländern ist das inzwischen Standard.

Nur: Was soll das im Fall von Idris bringen? Seine Abschiebung scheitert ja nicht daran, dass seine Identität oder Staatsbürgerschaft nicht bekannt wären. Die deutschen Behörden kennen seinen Namen, sein Geburtsdatum.

Idris kann nicht abgeschoben werden, weil die eritreische Botschaft ihm keine Papiere ausstellt. Das weiß auch die Ausländerbehörde. Was erhofft sie sich von der Durchsuchung? Und warum sammelt ein Staat überhaupt digitale Daten für eine Abschiebung, die diplomatisch unmöglich ist? Einfach, weil er es kann?

„Auf meinem Handy werden sie sicher nichts finden“, sagt Idris. Darauf seien Fotos seiner drei Kinder in Deutschland. Der älteste studiert, der jüngste ist gerade zwölf Jahre alt. Von der Mutter der beiden jüngeren lebt er schon seit Jahren getrennt. „In Eritrea kenne ich niemanden, habe da niemanden.“

Die Abschiebeanordnung im Herbst 2025 kommt trotzdem. „Was ist das für eine Verarscherei?“

Zugriff aus der Haft

Nordrhein-Westfalen wird seit 2022 von einer schwarz-grünen Koalition regiert. Ministerpräsident Hendrik Wüst (CDU) setzt auf eine harte Abschiebepolitik. Seit dem Anschlag von Solingen wurde die Linie noch weiter verschärft. Straftäter*innen sollen noch konsequenter abgeschoben werden. Nur wohin, wenn es keinen Zielstaat gibt? Für die Politik ist Idris ein Problem ohne Lösung.

Liegt es daran, dass die Ausländerbehörden im Land derzeit besonders viele Handys einziehen? Allein in Köln hat das Ausländeramt im vergangenen Jahr mehr als 130 Datenträger eingezogen und durchsuchen lassen, teilt ein Sprecher der Stadt mit.

„Sobald andere Maßnahmen zur Identitätsfeststellung ausgeschöpft oder nicht erfolgversprechend sind, wird der Person bei ihrer Vorsprache angeboten, den Datenträger freiwillig zur Durchsicht vorzulegen“, schreibt er. Weigert sie sich, darf sie auch durchsucht werden.

Bei Ausreisepflichtigen, die wie Idris in Haft sitzen, werde jeweils die zuständige Justizvollzugsanstalt angefragt. Seien dort Handys oder andere Datenträger in der Verwahrung, würden diese eingezogen.

Eigentlich hätte Idris über den Einzug seines Handys informiert werden müssen, die Ausländerbehörde stellt dafür eine Bescheinigung aus. Diese gehe in solchen Fällen an das Gefängnis, schreibt der Sprecher, mit der Bitte, den Gefangenen zu informieren. Ob das jedoch im Einzelfall geschieht, das „entzieht sich des Einflussbereichs der Ausländerbehörde“.

Öffentliche Zahlen, geheime Werkzeuge

Um Smartphones wie das von Idris durchsuchen zu können, hat NRW einigen Aufwand betrieben. Die meisten Geräte sind heute mit Zugangscodes oder per Gesichtserkennung gesichert, nicht alle Betroffenen geben die Daten heraus, auch wenn das Aufenthaltsgesetz das vorschreibt. Die Behörde braucht dann ein Werkzeug, mit dem sie die Sicherungen überwinden und sich Zugang verschaffen kann.

Die „Stabsstelle Datenforensik“, die in Essen auch Idris‘ Handy durchsucht hat, arbeitet deswegen mit einer IT-forensischen Ausstattung, die die Zentrale Ausländerbehörde eigens dafür angeschafft hat. Solche Werkzeuge funktionieren wie ein Dietrich, mit dem sich die meisten Smartphones öffnen lassen, auch ohne Zugangsdaten.

Im Jahr 2024 hat die Stabsstelle auf diesem Weg die Datenträger von 114 Personen durchsucht und 93 Auswertungsberichte erstellt. Nur in zwei Prozent der Fälle scheiterten die Durchsuchungen. Das schreibt die Stadt Essen in ihrem Jahresbericht zur Arbeit der Zentralen Ausländerbehörde. Im Jahr darauf waren es bereits 254 durchsuchte Datenträger und 176 Berichte, teilt das zuständige Fluchtministerium auf Anfrage von netzpolitik.org mit.

Eine weitere solche Stelle arbeitet in der Zentralen Ausländerbehörde Bielefeld. Zusammengenommen hätten beide Stellen im Jahr 2024 205 Datenträger durchsucht. Im Jahr darauf waren es 402.

Bis zur Ausreise verwahrt

Die Kosten dafür trägt das Land NRW. Wie viel das kostet und von welchem Hersteller die Ausstattung stammt, das hält die schwarz-grüne Landesregierung allerdings geheim. „Aus Gründen des Datenschutzes“ will das zuständige Familienministerium auf Nachfrage keine Angaben machen.

In anderen Bundesländern, die vergleichbare Software für die Durchsuchungen nach dem Aufenthaltsgesetz einsetzen, ist hingegen dokumentiert, woher die Produkte stammen: vom Unternehmen Cellebrite. Es verkauft seine IT-forensischen Produkte unter anderem an Polizeibehörden, die damit in den Handys mutmaßlicher Straftäter nach Beweisen suchen, aber auch an Geheimdienste oder das Militär. Seit einigen Jahren gehören auch Ausländerbehörden in Deutschland zum Kundenkreis. (Hier ist eine Karte, die zeigt, wo Cellebrite bereits für die Durchsuchung der Handys von Ausreisepflichtigen eingesetzt wird.)

Stellt Cellebrite auch das Produkt, mit dem die Abteilung in Essen Handys durchsucht? Dafür gibt es keinen Beleg. Im bislang aktuellsten Jahresbericht der Stadt werden jedoch die Namen von zwei weiteren Cellebrite-Produkten genannt, die 2025 eingeführt werden sollten: Sie heißen Collector und Inspector und dienen dazu, die Festplatten von Computern zu durchsuchen. Auch das sind Datenträger und sie dürfen von den Ausländerbehörden ebenfalls eingezogen werden.

Auf die Nachfrage, ob diese Werkzeuge inzwischen im Einsatz sind, antworteten die Zentrale Ausländerbehörde Essen und das Ministerium nicht.

„Strafrechtlich relevante Zufallsfunde“

Das Ministerium sieht in der Geheimhaltung offenbar auch eine Art ermittlungstaktischen Vorteil. „Konkrete Information über die verwendete Soft- und Hardware, die über Presseberichte an eine breite Öffentlichkeit gelangen, könnten den Erfolg zukünftiger digital-forensischer Maßnahmen gefährden“, schreibt es im Ablehnungsbescheid zu einer Anfrage nach dem Informationsfreiheitsgesetz.

Nur: Es handelt sich streng genommen ja um gar keine Ermittlungen. Die Betroffenen sind keiner Straftat verdächtig, die Zentrale Ausländerbehörde ist auch keine Strafverfolgungsbehörde. Sie soll lediglich nach Hinweisen auf eine Nationalität suchen.

Dass die Grenzen zwischen den Aufgaben von Ausländerbehörden und der Strafverfolgung hier zunehmend aufweichen, darauf deutet auch ein weiterer Satz aus dem Jahresbericht der Stadt Essen hin. In einem Abschnitt zu den „hervorragenden Ergebnissen“, die mit der Auswertung der Datenträger hätten erzielt werden können („In 87 Prozent der Fälle zumindest identitätsklärende Hinweise“), heißt es dort auch, „entdeckte und möglicherweise strafrechtlich relevante Zufallsfunde“ seien „an die zuständige Ausländerbehörde bzw. Strafermittlungsbehörde“ gemeldet worden.

Auf Nachfrage, wie häufig es in den vergangenen Jahren zu solchen Zufallsfunden mit entsprechender Meldung kam und auf welcher Rechtsgrundlage das geschieht, antwortet die Behörde nicht.

Eine Maßnahme ohne Ziel

Der Berliner Jurist Davy Wang koordiniert bei der Gesellschaft für Freiheitsrechte Fälle zu eingezogenen Handys von Geflüchteten. Er hält eine solche Weitergabe für rechtswidrig. Das Aufenthaltsgesetz erlaube den Zugriff auf Datenträger ausschließlich, um Identität und Staatsangehörigkeit festzustellen sowie eine Rückführung zu ermöglichen. „Eine Befugnis, dabei gefundenen Daten zu anderen Zwecken – etwa zur Strafverfolgung – an andere Behörden weiterzuleiten, enthält das Gesetz nicht. Eine solche Weitergabe ist damit unzulässig.“

Rechtswidrig sei auch das Vorgehen der Ausländerbehörde im Fall von Idris, sagt Wang. „Der Zugriff auf den gesamten Datenbestand des Handys stellt einen schwerwiegenden Eingriff in die Privatsphäre dar und darf nicht erfolgen, wenn damit der verfolgte Zweck überhaupt nicht erreicht werden kann.“

Das Aufenthaltsgesetz erlaube diesen Eingriff nur unter engen Voraussetzungen. Im Falle von Idris sei klar, dass der Zweck – das Ermöglichen einer Rückführung – nicht erreichbar sei: „Seine Rückführung scheitert an faktischen Hindernissen, die im Verantwortungsbereich der eritreischen Botschaft liegen.“ Durch das Auswerten der Handydaten könnten diese weder beseitigt noch beeinflusst werden.

„Solche Fälle zeigen, dass der Datenzugriff in der Praxis nicht als enges Ausnahmeinstrument gehandhabt wird, sondern als Routinemaßnahme“, sagt Wang, „auch dort, wo sie von vornherein nichts bewirken kann.“ Damit werde die Privatsphäre der betroffenen Personen jedoch strukturell ausgehöhlt. „Die Durchsuchung wird als Druckmittel zur Durchsetzung migrationspolitischer Ziele missbraucht.“

Clara Bünger ist fluchtpolitische Sprecherin der Linken im Bundestag. „Die Regierungen der letzten Jahre haben unter Beweis gestellt, dass sie in der Lage sind, sich immer wieder neue grenzwertige oder sogar offen rechtswidrige Maßnahmen auszudenken, die den alleinigen Zweck haben, ausreisepflichtige Personen unter Druck zu setzen und sie zur Ausreise zu drängen“, sagt sie. Das ändere aber nichts daran, dass manche Menschen nicht abgeschoben werden könnten, weil sie zum Beispiel staatenlos sind.

Auch wenn es am Ende nicht zur Abschiebung komme, hätten die Maßnahmen schwere Konsequenzen. „Häufig werden solche Grundrechtseingriffe zuerst an Geflüchteten oder anderen Gruppen mit geringer Beschwerdemacht getestet“, sagt sie. „Wenn Protest ausbleibt, werden sie später ausgeweitet.“

„Bundesgebiet unverzüglich verlassen“

Idris sitzt weiterhin in Haft, inzwischen in der JVA Aachen. Er hofft darauf, dass er vorzeitig entlassen wird und einen Entzug machen kann, in einer christlichen Einrichtung für Suchthilfe. Dort war er schon einmal, bevor er rückfällig wurde.

Für ihn gilt allerdings weiterhin die Abschiebeanordnung aus Köln: „Sollten Sie aus irgendeinem Grund vorzeitig aus der Haft entlassen werden, haben Sie das Bundesgebiet unverzüglich, spätestens jedoch 14 Tage nach einer eventuellen Haftentlassung zu verlassen“, steht darin. Dass er das ohne Papiere nicht tun kann, ist klar.

Idris hat vor dem Verwaltungsgericht Köln Klage gegen seine Abschiebeanordnung eingereicht und bittet um eine Aufenthaltserlaubnis. Nur damit kann er eine von der Krankenkasse finanzierte Therapie machen. „Nach einer erfolgreichen Drogentherapie würde die Abkehr von meinen kleinkriminellen Aktivitäten wirklich näher rücken, die mir bislang nicht gelungen ist“, schreibt er. „Genau darin setze ich meine Hoffnungen. Diesen Weg möchte ich endlich gehen. Ich bin krank. Und ich möchte meine Krankheit überwinden.“

Das Schreiben hat er selbst mit Unterstützung verfasst, einen Rechtsbeistand hat er derzeit nicht.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Studie der Medienanstalten: Debattenkultur im Netz erodiert

10. April 2026 um 18:23

Die Bereitschaft, sich an Debatten in Sozialen Medien und in Online-Kommentarbereichen zu beteiligen, sinkt. Ein zentraler Grund dafür ist die Diskursqualität, die zunehmend als negativ wahrgenommen wird, so das Ergebnis einer Studie der Medienanstalten.

Zwei brennende Streichhölzer brüllen sich gegenseitig an.
In Online-Debatten fliegen oft die Funken. – Alle Rechte vorbehalten IMAGO / Dreamstime

Plattformen-Nutzer:innen und Social-Media-Redakteur:innen sind sich offenbar gleichermaßen einig: Die Debattenkultur im digitalen Raum verschlechtert sich zunehmend. Zu diesem Ergebnis kommt die „Transparenz-Check“-Studie der Medienanstalten. Konstruktive Debatten seien online demnach „kaum noch möglich“ und würden zum Teil gar als unwillkommen wahrgenommen. Dennoch wünsche sich eine deutliche Mehrheit der Befragten einen konstruktiven Austausch.

Mit der als negativ wahrgenommenen Diskursqualität sinkt offenbar auch die Bereitschaft, in den Kommentarspalten mitzudiskutieren. Der häufigste Grund dafür sei die aggressive Stimmung. Dementsprechend werde der respektvolle Umgang miteinander als zentral dafür angesehen, sich mehr zu beteiligen.

Zur Meinungsfreiheit im digitalen Raum liegen bei den Befragten zwei gegensätzliche Wahrnehmungen vor. Eine Gruppe versteht darunter, ohne Sorge vor Hass und Abwertung sprechen zu können. Die andere Gruppe will dagegen grundsätzlich alles ungehindert sagen dürfen. Besonders Menschen, die der AfD zuneigten, hätten das Gefühl, in ihrer Meinungsäußerung eingeschränkt zu sein. Wähler:innen der Linken oder der Grünen gaben dagegen häufiger an, frei artikulieren zu können.

Vertrauen in Soziale Medien ist sehr gering

Der Studie nach gibt es zwischen den Plattformen große Unterschiede. Im Vergleich zu Instagram würden Facebook und Twitter/X als wesentlich problematischer wahrgenommen – insbesondere von ehemaligen Nutzenden der Plattformen. Die schlechte Diskursqualität dort sei demnach einer der Gründe, warum Nutzende den Plattformen den Rücken kehren.

Facebook sei die Plattform, die am zweithäufigsten genutzt werde. Gleichzeitig ist sie die meistgenutzte Plattform, auf der Nutzende journalistische Beiträge lesen und kommentieren. Trotz Klarnamen werde die Atmosphäre dort aber als „toxisch“ wahrgenommen.

Das Vertrauen in die Sozialen Medien fällt insgesamt sehr gering aus. Dennoch gibt etwa ein Drittel der Befragten an, in den Kommentaren unter journalistischen Beiträgen bei Facebook, Instagram und YouTube mitzulesen.

„Vertrauen und Laune sinken nach dem Lesen von Kommentaren“

Ein Viertel derer, die aktiv kommentieren, wollen zumeist nur ihre Meinung äußern; knapp ein Viertel von ihnen will andere überzeugen und etwa jede achte Person möchte lediglich ihren Ärger kundtun. „Insgesamt überwiegen die negativen Auswirkungen von Diskursen in den Sozialen Medien“, so ein Fazit der Studie. „Extreme Meinungen überwiegen, Vertrauen und Laune sinken nach dem Lesen von Kommentaren.“

Allerdings zeigten die durchgeführten Experimente, dass eine erkennbare Moderation entscheidend dafür sein kann, dass die Diskursqualität positiver wahrgenommen wird. Je strenger moderiert wird und je konstruktiver der Austausch ist, desto respektvoller und ausgewogener wird der Diskurs wahrgenommen. Allerdings sind die Ressourcen für ein konstruktives Community-Management oftmals knapp.

Bei den Befragten bleibt unterm Strich eine Grundskepsis: Sie bezweifeln, dass Online-Diskurse überhaupt funktionieren und Kommentare zu neue Perspektiven führen können. Eine Mehrheit hat laut Studie das Gefühl, dass Online-Diskussionen spalten.

Desinformation und Bots

Die Anforderungen an das Community-Management sind in den vergangenen Jahren gewachsen. Verantwortlich dafür sind die steigende Zahl an Kommentaren und der zunehmend raue Tonfall. Zudem nehme der Anteil an Desinformation und Fake News zu.

Auch die Bedeutung von Bots hat die Studie unter die Lupe genommen. Insgesamt wurden vier Prozent der Kommentare als „wahrscheinliche Bot-Kommentare“ klassifiziert. Bei kontroversen Themen seien deutlich höhere Werte zu verzeichnen.

Eine Mehrheit der Befragten ist der Ansicht, aufgrund der Bot-Aktivität könnten sie sich im Netz inzwischen kaum noch mit echten Menschen austauschen.

Eine noch größere Rolle als die Bots spielen Trolle, Fake-Accounts und koordinierte Kommentar-Ströme. Diese würden laut den befragten Moderator:innen dazu genutzt, um den Verlauf von Diskussionen in Kommentarspalten gezielt zu beeinflussen.

Vorgehen der Studie

Der „Transparenz-Check“ der Medienanstalten ist dreistufig aufgebaut: Inhaltsanalyse, qualitative Tiefeninterviews und quantitative repräsentative Befragung.

Die Inhaltsanalyse zur Ermittlung der Rolle von Bots beruht auf Tausenden von Kommentaren unter insgesamt 39 Beiträgen von Bild, Der Spiegel, Süddeutsche Zeitung, Die Zeit sowie auf den Plattformen Facebook, Instagram und YouTube.

Elf Tiefeninterviews haben die Forschenden mit Personen aus Social-Media-Redaktionen, aus dem Community-Management sowie mit weiteren Expert:innen durchgeführt. Die quantitative repräsentative Befragung fand mit mehr als 3000 Internetnutzenden statt.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Hype um Prediction Markets: Wetten, dass Jesus vor 2027 zurückkehren wird

10. April 2026 um 13:41

Prediction Markets sind in vielen Ländern illegal. Das Wetten auf zukünftige politische und gesellschaftliche Ereignisse wird aber immer populärer. Dabei sind die Wetten manipulationsanfällig und ethisch teilweise höchst fragwürdig.

Eine Jesus-Figur rollt mit den Augen.
Ob er darüber mit den Augen rollen würde? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Jose Manuel Esp

„Die langfristige Vision ist, alles zu finanzialisieren und aus jeder Meinungsverschiedenheit ein Handelsgut zu machen“, sagt Tarek Mansour, Mitbegründer und Geschäftsführer von Kalshi. Plattformen wie Polymarket und Kalshi ermöglichen potenziell das Wetten auf jedes zukünftige Ereignis.

Laut Schätzungen von Similarweb verzeichnete Polymarket im März 2026 etwa 45,3 Millionen Besuche. Die zunehmende Popularität gilt mitunter den Ereigniswetten, also dem Wetten auf den Eintritt oder eben das Ausbleiben jener Ereignisse.

Die Nutzer:innen entscheiden selbst, auf welche Ereignisse sie wetten möchten. „Wird Jesus Christus vor 2027 zurückkehren?“ – die Chance steht laut Polymarket bei vier Prozent.

„Dystopischer Todesmarkt“

In letzter Zeit häufen sich jedoch Berichte über weniger harmlose Wettangebote. Ereigniswetten betreffen beispielsweise auch den Beginn und das Ende von Kriegen – oder sogar den detaillierten Verlauf und konkrete Menschenleben.

„Ekelhaft“ nennt dies Seth Moulton, US-Kongressabgeordneter der Demokratischen Partei: Nachdem Iran ein US-Kampfflugzeug abgeschossen hatte und die Suche nach dem zweiten Piloten anhielt, hatten Nutzer:innen von Polymarket Wetten auf den genauen Tag seiner Bergung abgeschlossen. Polymarket hat das Wettangebot wenig später aufgrund von „Integritätsstandards“ zwar deaktiviert, doch Moulton konterte, es seien auf der Plattform weiterhin Hunderte solcher „Kriegswetten“ aktiv und Polymarket sei ein „dystopischer Todesmarkt“.

Das Wetten auf Raketeneinschläge ist ein Routine-Angebot auf Polymarket. Mitunter geht es um hohe Beträge. Die Wettenden gewinnen oder verlieren, wenn eine Rakete nicht abgefangen wird oder eben trifft. Das ist die definitorische Voraussetzung in der Rubrik „Militärschläge“: Es muss ein Treffer sein. Als Basis der Überprüfung dient, was in der Presse steht.

Emanuel Fabian, Journalist der Times of Israel, erfuhr dies auf unangenehme Weise. Er hatte im Laufe des 10. März 2026 ein „relativ unwichtiges Update“ zu einem bestätigten Raketentreffer veröffentlicht, sagt er dem Guardian. Kurz darauf erhielt er etliche Drohungen: „Dir bleiben noch 90 Minuten die Lüge zu korrigieren.“ Eine andere Person drohte laut dem Bericht: „Nachdem du uns 900.000 Dollar Verlust beschert hast, werden wir mindestens denselben Betrag investieren, um dich fertigzumachen.“

Die Spur der Drohungen führt auf Polymarket: Die Wetteinsätze für Raketeneinschläge, über die Fabian berichtete, beliefen sich am 10. März auf rund 23 Millionen US-Dollar. Drohungen dieser Art lassen laut Fabian die Prognose zu, dass Journalist:innen bald häufiger unter dem Druck stehen könnten, ihre Berichterstattung an das gewünschte Ergebnis von Wetten anzupassen. Denkbar ist, dass eine Beteiligung an Wetten eine falsche oder verzerrende Berichterstattung befördern könnte.

Manipulation und Insiderhandel schwer verhinderbar

„Gesellschaftswetten“ haben analog zum klassischen Finanzmarkt aber nicht nur das Problem ethischer Grundsätze, sondern auch von Insiderhandel. Darunter versteht man, dass Menschen mit Vor- oder Insiderwissen dieses am Markt gezielt ausnutzen, um Gewinne zu machen.

Am Tag vor den ersten Angriffen der USA und Israels auf den Iran platzieren mehr als 150 Polymarket-Accounts hohe Wetten, mit denen sie den Angriff noch wenige Stunden vorher richtig „vorhersagen“. Ein besonders auffälliger Account konnte über den Verlauf mehrerer Wetten 93 Prozent der unangekündigten US-Militärschläge korrekt prognostizieren. Kurz vor Beginn des Waffenstillstandes zwischen den USA und Iran wiederholte sich das Muster: Mindestens 50 neu erstellte Polymarket-Accounts wetteten mit hohen Einsätzen, nur wenige Stunden davor. Ein ähnlicher Vorgang hatte sich bereits im Januar kurz vor der US-Militäraktion in Venezuela zugetragen. Ein Account „antizipierte“ die Gefangennahme Maduros und konnte damit innerhalb weniger Stunden mehr als 400.000 US-Dollar Gewinn einfahren.

In einem anders gelagerten Fall hat ein Account eine Million US-Dollar durch das Wetten auf Googles „Year in Search 2025“ gewonnen. Die Erfolgsrate dabei: 22 von 23 Malen richtig „geraten“. Auf die Wallet dieses Accounts wurden vorher drei Millionen US-Dollar eingezahlt und sofort hohe Wettsummen platziert. Auch Googles Freigabedatum von Gemini 3.0 Flash hatte derselbe Account zuvor richtig prognostiziert.

Wer diese mutmaßlichen Insider:innen sind, ist nur schwer nachverfolgbar. Alle Polymarket-Accounts können anonym betrieben werden. Zudem laufen sämtliche Trades über die Plattform-eigene Kryptowährung. Geldflüsse lassen sich auf diese Weise offenbar leicht verschleiern. Dennoch sah sich die Trump-Regierung dazu genötigt, eigene Mitarbeiter:innen vor Insider Trading zu warnen, berichtet das Wall Street Journal.

llustration der Polymarket Webseite und Logo.
Polymarket – Der größte Prediction Market operiert mit seinem umstrittenen Wettangebot „offshore“. - Alle Rechte vorbehalten IMAGO / Charpaud Christopher / ABACA

Wir haben sowohl Polymarket als auch Kalshi Presseanfragen geschickt, auf die beide Unternehmen allerdings nicht reagiert haben.

In Deutschland verboten, in den USA Graubereich

In Deutschland sind sogenannte Gesellschaftswetten prinzipiell verboten, die Gemeinsame Glückspielbehörde der Länder (GGL) warnt vor der Teilnahme. In einer Mitteilung der Behörde heißt es:

Aufgrund der hohen Manipulationsgefahr sind solche Wetten laut § 3 Abs. 1 Satz 4 in Verbindung mit § 4 Abs. 5 des Glücksspielstaatsvertrags 2021 (GlüStV 2021) nicht genehmigungsfähig.

Wer bei Polymarket oder anderen Plattformen wettet, macht sich somit strafbar. Polymarket bietet ein deutsches User-Interface an, mit einer deutschen IP-Adresse lassen sich dort keine Wetten platzieren. Solches Geoblocking lässt sich allerdings technisch recht einfach umgehen.

In den USA ist die Rechtslage unübersichtlich. Die US-Aufsichtsbehörde „Commodity Futures Trading Commission“ (CFTC) untersagt im Prinzip das Wetten in Bezug auf Krieg, Terror und Attentate. Die US-basierte Plattform Kalshi hält sich daran, bei Polymarket zeigt sich jedoch ein anderes Bild. Die Wetten auf Kriegsereignisse laufen dort nicht über das US-Geschäft, sondern über die internationale Sparte des Anbieters. Sogenanntes „Offshore Trading“ macht es möglich.

Indes haben US-Kongressabgeordnete, darunter Chris Murphy (Demokratische Partei), neue Gesetzesvorschläge eingebracht. Das Wetten auf Regierungshandeln, Krieg, Terror und ähnliche Ereignisse soll demnach auf gesetzlicher Ebene verboten werden. Auch Ereignisse, die sich von Einzelnen leicht manipulieren lassen, sollen darunter fallen – beispielsweise, ob Trump im April das Wort „RINO“ verwenden wird.

Prinzipiell soll das gesetzliche Verbot von Insider Trading auf die Prediction Markets ausgeweitet werden. Eine Abgeordnetengruppe forderte die CFTC zudem dazu auf, bis zum 15. April eine Reihe von Fragen zu ihrer Aufsichtsrolle zu beantworten. Darunter auch, warum die Behörde nicht gegen kriegsbezogene Wetten vorgeht und ob es Interessenkonflikte zwischen Finanzmarkt-Akteuren und hochrangigen Regierungsmitgliedern gibt.

Aktuell ist jedoch mit wenig Gegenwind von US-Behörden zu rechnen. Während die Biden-Administration gerichtlich gegen Prediction Markets vorging, hat die Trump-Regierung die Untersuchungen gegen Polymarket einstellen lassen. Michael Selig, Vorsitzender der CFTC, sagte gar, unter seiner Leitung sei es den Predictions Markets möglich, in den USA „aufzublühen“.

Familie Trump will mitmischen

Indes hat die Familie Trump Pläne für eine eigene Prognoseplattform: „Truth Predict“. Donald Trump Jr. ist zudem nicht nur als Berater für Polymarket und Kalshi tätig, sondern hat mit seiner Investmentfirma 1789 Capital auch direkt in Polymarket investiert.

Da die neuen Online-Plattformen auch im Sportwettengeschäft regulärer Wettanbieter mitmischen und wenig reguliert sind, seien klassische Sportwettenanbieter laut CNN besorgt. Eine anonym bleibende Person aus der Branche sagte demnach, die Beteiligung der Familie Trump an Prognosemärkten sei ein „entscheidender Faktor in dieser politischen Angelegenheit“.

Abgeordnete der Republikanischen Partei zögerten offenbar, sich in Washington in einen Streit einzumischen, der dem Geschäft der Familie Trump schaden könnte.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Widerstand gegen Big Tech: „KI wollen wir in unserer befreiten Welt nicht haben“

09. April 2026 um 16:43

KI sei verfänglich für faschistische Ideologien und gehe mit autoritären Machtzentren einher. Große Plattformen wie ImmobilienScout24 und Doctolib machen Profit mit Grundbedürfnissen der Menschen. Zwei Aktivist*innen schlagen im Interview konkrete Schritte hin zu einer demokratischen digitalen Teilhabe vor.

Deutsche Politiker*innen stechen mit Spaten symbolisch in einen Sandhaufen.
Milliardär und Gründer von Lidl und Kaufland Dieter Schwarz lässt in Heilbronn einen „Innovationspark für Künstliche Intelligenz“ bauen. (Archivbild) – Alle Rechte vorbehalten IMAGO / Arnulf Hettrich

Künstliche Intelligenz ist in aller Munde. Ihr wird nachgesagt, nicht nur Arbeitsprozesse zu vereinfachen und zu beschleunigen. Sie soll auch der Wirtschaft zu neuem Aufschwung verhelfen. Doch immer mehr kritische Stimmen greifen in die Debatte ein und beziehen eine klare Haltung gegen diese Technologie. Zwei von ihnen sind die Digitalexpert*innen Aline Blankertz und Malte Engeler.

Anlässlich der Konferenz „Cables of Resistance. Bewegungskonferenz gegen Big Tech“, die am Wochenende in Berlin stattfindet und mögliche Widerstandsstrategien gegen KI und große Plattformen ausloten möchte, haben wir mit ihnen gesprochen. Aline Blankertz ist angewandte Ökonomin und setzt sich für die demokratische Ausgestaltung von Wirtschaft ein, unter anderem im digitalpolitischen Kollektiv „Structural Integrity“. Sie ist an der Organisation der Konferenz beteiligt. Malte Engeler ist Jurist und Mitbegründer des digitalpolitischen Kollektivs.

Im Interview erklären sie, warum sogenannte KI besonders gut verfänglich für autoritäre Politiken ist, wie ihre Sabotage aussehen kann und wie die Gesellschaft wieder mehr demokratische Kontrolle über große Plattformen erreichen kann. Sie plädieren für eine politische Organisierung und die Vergesellschaftung von Plattformen, die solch essenzielle Bereiche der Daseinsvorsorge wie Wohnungssuche oder Arztterminbuchungen strukturieren.

„Künstliche Gebärmutter“ und KI haben den gleichen ideologischen Ursprung

netzpolitik.org: Was ist eigentlich eine „künstliche Gebärmutter“? Im Manifest der Konferenz ist die Rede davon.

Aline Blankertz: Die künstliche Gebärmutter ist eine Figur, die immer mal wieder rund um Elon Musk auftaucht. Dieser Idee des selektiven Pronatalismus liegt zugrunde, dass man stärker steuern möchte, wer Kinder bekommen darf. Die künstliche Gebärmutter ist das Mittel, um sich letztlich vom „weiblichen Körper“ lösen zu können. Es geht darum, aus einer weißen cis-männlichen Perspektive technisch steuern zu können, wohin es mit der Menschheit geht. Mein Verständnis ist, dass es diese künstliche Gebärmütter noch nicht technisch ausgereift gibt. Aber es laufen Forschungsprojekte, die das aktiv vorantreiben. Daneben existieren viele andere transhumanistische Projekte, wie zum Beispiel „Neuralink“, um menschliche Gehirne und Maschinen stärker miteinander zu verbinden.

In Europa ist es subtiler, aber viele dieser Entwicklungen hin zu solchen transhumanistischen Ideen ‒ also wie können Menschen mit technischen Upgrades besser gemacht werden ‒ sehen wir auch hier. Die künstliche Gebärmutter und die Brain-Computer-Interfaces unterscheiden sich zwar von KI, weil sie unmittelbarer auf die Ebene von Hardware und menschlichen Körpern setzen. Doch auch der KI-Diskurs hat den gleichen ideologischen Ursprung und wird technisch von denselben Menschen vorangetrieben.

„Diese Infrastrukturen kann niemand bei sich im Keller haben“

netzpolitik.org: Ist das der Grund warum ihr KI fundamental ablehnt? Und was versteht ihr unter KI genau?

Malte Engeler: Wenn wir von KI reden, dann meinen wir die in der Gesellschaft aktuell sehr präsente Form von KI: große Datenmodelle, die aus vorhandenen Datenquellen zukünftige oder neue Ergebnisse berechnen. Wir meinen maschinelles Lernen, das Menschen dazu nutzen, um neue Texte, Bilder, Videos oder Ton zu erstellen. Die Modelle werden auch in sozialen Situationen eingesetzt, um neue Entscheidungspunkte zu generieren. Zum Beispiel in militärischen Aktionen, in Verwaltungsentscheidungen oder zur Benotung im Bildungswesen. Es geht also um eine Technologie, die auf Basis einer immensen Datenmenge Muster erlernt und neue Ergebnisse mit diesen Mustern produziert. Wir reden hier von ganz großen Modellen.

Dieser Technologie ist inhärent, dass sie besonders für autoritäre und faschistische Kräfte anknüpfbar ist. Das ist also kein technischer Fehler, sondern die Technologie ist schlicht und einfach so gebaut. Dazu gehört, dass diese gigantischen Modelle eine große Zentralisierung mit sich bringen. Die Infrastrukturen, die zum Training und Erhalt der Modelle nötig sind, kann niemand bei sich im Keller haben. Diese riesigen Rechenzentren können eigentlich nur zentralisiert betrieben werden. Politisch anknüpfbar für faschistische Politiken sind diese Infrastrukturen deshalb, weil sie autoritäre Machtzentren stark bevorzugen.

Zum anderen ist da diese Mustererkennung, die immer auf Daten aus der Vergangenheit trainiert wird. Sie überträgt deshalb notwendigerweise diese Vergangenheit in die Zukunft und vereinheitlicht diese Zukunft statistisch auf einen weiß-patriarchal geprägten Mittelwert. Laut diversen Theorien steckt im Kern des Faschismus die Idee, dass es eine Wahrheit, eine tiefes völkisches, echtes Leben in der Gesellschaft gibt, das zum Erblühen gebracht werden soll. Und diese Idee von einer Wiedergeburt der nationalen Stärke findet sich im technischen Prinzip wieder, massenhaft Daten zu sammeln und das vermeintlich Wahre aus diesen Daten wieder extrapolieren zu können.

„Wünschenswert, wenn Menschen KI nicht auch noch freiwillig nutzen“

netzpolitik.org: Ist es aus antifaschistischer Sicht ein Problem, wenn Menschen ihre Suchanfragen nicht mehr in eine klassische Suchmaschine eingeben, sondern zum Beispiel in ChatGPT?

Aline Blankertz: Wir beschäftigen uns vor allem mit der kollektiven Dimension. Es ist nicht die einzelne Suchanfrage bei ChatGPT, die uns dem Faschismus näher bringt. Es sind eben die Zwänge, die an vielen Stellen bestehen. Beispielsweise, dass viele Menschen nun Dinge schneller machen müssen und es deswegen mit KI tun. Dass sie im Wettbewerb mit anderen stehen, um bessere Betriebsergebnisse hervorzubringen.

Es ist wünschenswert, wenn Menschen KI nicht auch noch freiwillig nutzen. Wenn sie es nur unterhaltsam finden, könnten sie sich eine andere Beschäftigung suchen, die weniger klimaschädlich ist und den KI-Hype nicht weiter am Leben hält. Aber das ist nicht das, womit wir antifaschistisch wirken können, indem wir einfach keine KI mehr verwenden.

„KI-Unternehmer*innen werden hierzulande glorifiziert“

netzpolitik.org: Welchen konkreten Schaden seht ihr in Europa und in Deutschland durch KI bereits?

Aline Blankertz: Aktuell läuft die Debatte, dass man in der Verwaltung großflächig KI einsetzen möchte, etwa nach dem Vorbild von DOGE aus den USA. Das wird zwangsläufig dazu führen, dass mehr Menschen diskriminiert werden und dafür wiederum weniger Verantwortung übernommen wird. Das kennen wir beispielsweise aus Amsterdam, wo ein Algorithmus zur Folge hatte, dass vor allem sozial schwachen Familien Betrugsvorwürfe gemacht wurden. Oder aus England, wo Abiturergebnisse während der Corona-Pandemie insbesondere von Schüler*innen aus ärmeren Gegenden abgewertet wurden.

Ein anderer Aspekt ist, dass auch hierzulande KI-Unternehmer*innen als Heilsbringende glorifiziert werden. Ein starkes Beispiel hierfür ist Dieter Schwarz, dem die Schwarz-Gruppe mit Lidl und Kaufland gehört. Neben vielen Rechenzentren baut er so etwas wie eine Privatstadt in Baden-Württemberg auf und wird dafür gefeiert. Die CEOs von SAP und Telekom werden ebenfalls häufig gefragt, was für eine Gesellschaft sie sich wünschen. Ganz so, als ob sie gesellschaftliche Interessen im Blick hätten.

Außerdem beschleunigt KI die gesellschaftliche Spaltung nicht nur im Mediendiskurs, indem plausibel klingende Outputs ohne Anspruch auf Wahrheit eine demokratische Diskussionsbasis untergraben. Sie entwertet schon jetzt Arbeit. Menschen haben Angst, von sogenannter KI ersetzt zu werden, die Gewerkschaften fahren ihre Forderungen zurück. Gleichzeitig erwirtschaften diejenigen, die in Aktien investiert haben, umso mehr Gewinne. Die ökonomische Ungleichheit wächst also noch stärker durch KI.

„In den USA zünden Menschen autonom fahrende Autos an“

netzpolitik.org: Was kann man dagegen tun?

Aline Blankertz: Wir können uns gegen KI wenden. Wir können uns verweigern. Wir können Trainingsdaten vergiften. Man kann auch so etwas wie Sabotage nach dem CIA-Sabotage-Manual betreiben. Es enthält einige inspirierende Ideen aus der Zeit des Zweiten Weltkriegs, wie Menschen den Faschismus verlangsamen können. Man kann Abläufe verringern, verlangsamen und weniger effizient machen. Man kann sich gegen Rechenzentren engagieren.

In den USA gibt es noch weitergehende Aktivitäten. Da zünden Menschen autonom fahrende Autos von Waymo an. Dort gibt es Roboter, die die Gehwege von Obdachlosen freihalten sollen. Menschen attackieren auch diese Roboter.

Um wirklich politisch wirksam sein zu können, müssen wir uns aber organisieren. Da führt kein Weg dran vorbei. Die Dienste im Individuellen zu wechseln reicht nicht. Zu sagen, „ich finde KI doof, reicht auch nicht“. Wir müssen uns politisch zusammenfinden und die Auswirkungen solcher digitalen Technologien stärker als Problem verstehen.

„Vergesellschaftung ist die Antwort“

netzpolitik.org: Auf der Konferenz gebt ihr einen Talk darüber, dass Regulierung und Open-Source-Alternativen nicht ausreichen, um gegen die Macht der Tech-Giganten anzukommen. Stattdessen schlagt ihr vor, große Tech-Plattformen zu vergesellschaften.

Malte Engeler: Aktuell erleben wir eine autoritäre Wende. In Zeiten von Kipppunkten wie diesen ist Abwehrkampf ein ganz wesentlicher Teil. Gegen etwas zu kämpfen ist nicht so motivierend wie für etwas. Ich kann das für mich persönlich ganz klar sagen: Mich motiviert nicht der Hass auf Big Tech. Mich motiviert der Wunsch nach einer besseren Welt. Wir brauchen konkrete Vorstellungen einer Realität, in der diese Technologien, die wir gerade bekämpfen, anders funktionieren. Und wie kommen wir dahin? Wie kann man eine Plattform, die uns jetzt ausbeutet und aus unseren Bedürfnissen Profit schlägt, in etwas Besseres verwandeln?

Die Antwort auf diese Fragen ist Vergesellschaftung: also die Überführung einer privatwirtschaftlich betriebenen kommerziellen Plattform in einen Zustand, in dem sie im Sinne des Gemeinwohls und der Bedürfnisbefriedung der Menschen demokratisch verwaltet wird.

„Mit kleineren Plattformen anfangen“

netzpolitik.org: Welche Plattformen würdet ihr gern vergesellschaften?

Malte Engeler: Sich allein diese Frage zu stellen, ist sehr spannend. Das führt dazu, dass auch linke und progressive Kräfte auf einmal anfangen, darüber nachzudenken: Was ist unsere Vision? Was ist unsere Idee von einer digitalen Wohnungsvermittlung oder von einem Portal, auf dem man sich Arzttermine klicken kann? Was würden wir mit diesen Infrastrukturen machen, wenn sie nicht nach kapitalistischen Prinzipien betrieben werden würden?

Auf der „Cables of Resistance“ gibt es auch einen Talk von der Redscout24-Gruppe, in der Aline und ich beteiligt sind. Das ist ein ganz konkreter Versuch zu zeigen, wie ImmobilienScout24 anders aussehen könnte. Aber das ist nur ein Beispiel von vielen. Doctolib wäre ein anderes.

Die Frage der Vergesellschaftung zwingt uns aber auch dazu, uns zu positionieren, welche Plattformen wir vielleicht gar nicht wollen. Man kann vergesellschaften, um dann nur abzuschalten. KI ist ein Beispiel für eine Technologie, die wir in unserer befreiten Welt nicht haben wollen.

Aline Blankertz: Konkret plädieren wir dafür, mit den kleineren Plattformen wie ImmoScout24 und Doctolib anzufangen. Denn über sie läuft aktuell der Zugang zu für alle Menschen wichtigen Bereichen der Daseinsvorsorge wie Wohnungen und Gesundheitsversorgung. So können wir erst einmal lernen, wie die Umstellung auf Bedürfnisorientierung funktioniert. Mittelfristig können wir dann unseren Blick stärker auf digitale Infrastrukturen wie Rechenzentren und globale Plattformen richten.

Was wir durch Vergesellschaftung gewinnen, ist, dass wir überhaupt wieder gesellschaftlich gestalten können. Im Moment läuft es danach, wie am meisten Geld für die Anteilseignenden herausspringt. Wenn wir an Demokratie glauben, müssen wir auch daran glauben, dass wir gesellschaftliche Infrastrukturen danach gestalten können.

Da kann man sich gut bei „Deutsche Wohnen & Co enteignen“ umsehen, die für ihre Anstalt öffentlichen Rechts ‒ so unsexy das auch klingen mag ‒ sehr detailliert ausbuchstabieren, welche Gruppen wie an Entscheidungsprozessen beteiligt werden sollen. Gleichermaßen wäre das auch bei einer digitalen Wohnungsvermittlungsplattform, die auf die Bedürfnisse von Menschen zugeschnitten ist.

„ImmoScout24 vom Markt verdrängen“

netzpolitik.org: Wie kann eine Bewegung oder ein Zusammenschluss von Bewegungen praktisch an ein Unternehmen wie ImmoScout24 herankommen?

Malte Engeler: Wir sollten nicht vergessen, dass es schon viele Strukturen gibt, die so organisiert sind. Man vergisst, dass wir das Rad nicht neu erfinden müssen. Bibliotheken zum Beispiel sind eine gut funktionierende öffentliche Infrastruktur. Sie haben einen gemeinsamen Datenbestand. Beispielsweise kann ich heute in der Staatsbibliothek Berlin ein Buch aus Heidelberg bestellen und es übermorgen abholen. Das sind auch keine privatwirtschaftlich betriebenen Informationszugangssysteme.

Es gibt verschiedene Wege zum Ziel. In einigen Gemeinden existieren noch kommunale Online-Plattformen zur Wohnungsverwaltung, auf denen sie den eigenen Wohnungsbestand anbieten. Sie stellen ihn nicht auf ImmoScout24 ein. Man könnte also festlegen: Wer Wohnraum hat und vermieten will, muss dafür die Plattform der Gemeinde nutzen. Bei einigen Infrastrukturen der Daseinsvorsorge wie Müllabfuhr oder Wasseranschluss gibt es schon ein ähnliches Prinzip, den sogenannten Anschluss- und Benutzungszwang.

Mit Aktivist*innen aus dem Fediverse, die viel Erfahrung mit dezentralen Strukturen haben, und Menschen, die solche Bibliotheken-Systeme bauen, könnte man ausloten, wie ein deutschlandweiter Katalog aussähe, mit dem man in jeder Kommune auf alle Wohnungen in Deutschland zugreifen kann.

Im Grunde verdrängt man ImmoScout24 auf diese Weise vom Markt und vergesellschaftet es gar nicht. Die Plattform wird so immer unwichtiger. Sie kann dann noch Eigentumswohnungen auf dem Land vermitteln, aber ist aus dem Mietraum raus. Das wäre bereits eine Errungenschaft.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Digitale Überwachungsbefugnisse: Schwarz-rotes Sicherheitspaket „zum Großteil verfassungswidrig“

09. April 2026 um 16:03

Die Kritik am Überwachungspaket der Bundesregierung reißt nicht ab. Die Gesellschaft für Freiheitsrechte warnt vor „Eingriffen in die Grundrechte aller Menschen“ und „mächtigen Überwachungsmaßnahmen“.

Gesichtserkennungsmuster im Gesicht einer Frau
Automatisierte Gesichtserkennung ist wegen ihrer Eingriffstiefe in Grundrechte hoch umstritten. (Symbolbild) – Alle Rechte vorbehalten IMAGO / Shotshop

Die Gesellschaft für Freiheitsrechte (GFF) nennt in ihrer aktuellen Stellungnahme zum Sicherheitspaket (PDF) die Gesetzesvorhaben der Bundesregierung zur biometrischen Fahndung im Internet und zur automatisierten Datenanalyse „zum Großteil verfassungswidrig“. Die Bürgerrechtsorganisation lehnt deshalb die Einführung der darin vorgeschlagenen Befugnisse und Änderungen fast rundweg ab.

Es handle sich bei den geplanten Befugnissen nicht nur um Werkzeuge, die zu schwerwiegenden Grundrechtseingriffen führen, sondern um „Instrumente zur potenziellen Massenüberwachung“, weil es sich eben nicht um gezielte Maßnahmen handle. Gleichzeitig würden keinerlei Nachweise vorliegen, dass diese Befugnisse tatsächlich zu einer effektiven Polizeiarbeit beitragen würden, so die GFF.

Staatliche Souveränität vollkommen ausgeblendet

Besonders besorgniserregend sei auch, dass die Referentenentwürfe staatliche digitale Souveränität vollkommen ausblenden würden, heißt es in der Stellungnahme. Das liege daran, dass der Gesetzentwurf vorsieht, dass biometrische Abgleiche im Internet auch von privaten Unternehmen im Ausland durchgeführt werden dürfen. Zu solchen Unternehmen gehört zum Beispiel das umstrittene PimEyes, über das netzpolitik.org oftmals berichtet hat. Solche Unternehmen haben die Gesichtsbiometrie von Millionen Menschen gegen alle Regeln des europäischen Datenschutzes erlangt, indem sie ohne zu fragen Gesichtsbilder im Internet ausgewertet und gespeichert haben.

Darüber hinaus ist laut der GFF auf Grundlage des Entwurfs auch der Einsatz von Softwaretools privater Anbieter für eine Datenanalyse möglich, wie etwa die Software Gotham des US-Unternehmens Palantir. Trotz dieser Möglichkeit sieht der Entwurf laut der GFF keinerlei Vorgaben vor, die sensibelste Polizeidaten vor Fehlern, Datenlecks, unberechtigtem Zugriff, missbräuchlicher Nutzung oder Manipulation schützen. Sogar zum Training von KI-Systemen dürften polizeiliche Daten an private Unternehmen übermittelt werden.

Zivilgesellschaft warnt vor Plänen für KI-Fahndung

„Eingriffe in die Grundrechte aller Menschen“

Der biometrische Abgleich mit Daten aus dem Internet ermögliche „schwerwiegende Eingriffe in das Recht auf informationelle Selbstbestimmung“ – und das bei einer enormen Streubreite. Das ermächtige die Bundespolizei zu Eingriffen in die Grundrechte potenziell aller Menschen, kritisiert die GFF. Denn diese könnten nur begrenzt beeinflussen, ob zum Beispiel Bild- und Videomaterial oder Tonaufnahmen von ihnen gegen ihren Willen im Internet veröffentlicht werden.

Außerdem könnten durch den Abgleich Rückschlüsse auf besonders sensible Daten wie politische Einstellungen und sexuelle oder religiöse Orientierung gezogen werden, z.B. bei Aufnahmen von Demos, Veranstaltungen oder Gottesdiensten.

Das Internet mache mittlerweile einen erheblichen Teil des öffentlichen Raumes aus. Mit den neuen Befugnissen werde die Anonymität in diesem digitalen öffentlichen Raum faktisch unmöglich gemacht. Das sei mit enormen Abschreckungseffekten verbunden und habe erhebliche Auswirkungen auf die Ausübung von Grundrechten, kritisiert die GFF.

Kritik haben die Bürgerrechtler:innen auch an der Eingriffsschwelle für die Nutzung der Instrumente, die laut der schwarz-roten Koalition ab „erheblichen Straftaten“ gelten soll. Doch diese genügten nicht dem verfassungsrechtlich notwendigen Gewicht einer besonders schweren Straftat. Zudem würden die erfassten Straftaten im Gesetzentwurf nicht hinreichend konkretisiert.

„Mächtige Überwachungsmaßnahmen“ mit Palantir & Co.

Bei der automatisierten Datenanalyse, wie sie etwa Palantir durchführt, sollen große Mengen auch bislang ungefilterter oder getrennt gespeicherter Daten mit weiteren Daten verbunden und verarbeitet werden. Die Polizei erhofft sich durch die Zusammenführung neue Erkenntnisse.

„Dabei besteht die Gefahr, dass aufgrund von Fehlern im Analyseprogramm, insbesondere aufgrund diskriminierender Algorithmen, Menschen fälschlicherweise ins Visier der Sicherheits- und Strafverfolgungsbehörden geraten, obwohl sie dafür keinen Anlass geboten haben“, kritisiert die GFF. Sie warnt zudem vor Einschüchterungseffekten und davor, dass aufgrund des Ausbaus der Überwachung immer mehr sensible Daten bei den Behörden gespeichert werden dürfen. „Automatisierte Datenanalysen sind mächtige Überwachungsmaßnahmen“, folgert die Organisation. Deswegen seien strenge Beschränkungen zum Schutz der Grundrechte nötig.

Die GFF fordert deswegen:

Die Datenanalyse sollte dabei insbesondere ausdrücklich auf einfach-automatisierte Abgleiche und reine Suchvorgänge begrenzt werden. Algorithmische Sachverhaltsbewertungen, Profiling und KI-basierte Analysen müssen ausgeschlossen werden. Die Menge der einbezogenen Daten ist stark zu begrenzen. Die Eingriffsschwellen für automatisierte Datenanalysen müssen erhöht und Schutzmaßnahmen gegen Fehler, Diskriminierung und Intransparenz aufgenommen werden.

In der 30 Seiten starken Stellungnahme, welche die GFF im Rahmen der Verbändebeteiligung abgegeben hat, sind zahlreiche weitere Bedenken hinsichtlich der Verfassungsmäßigkeit der Überwachungspläne der Bundesregierung gelistet. Auch andere Organisationen aus der Zivilgesellschaft wie Amnesty International oder der Chaos Computer Club haben massive Kritik an dem Vorhaben der Bundesregierung.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Ältere BeiträgeHaupt-Feeds

Zum Wochenende: Mama wurde rückfällig

06. März 2026 um 17:00
Von: Astrid
Wie Gewohnheiten sich ändern und was das mit freier Software, freier Gesellschaft und dem di.day zu tun hat.

Gesellschaft für Freiheitsrechte: Klage gegen zentrale Speicherung von Gesundheitsdaten geht weiter

25. Februar 2026 um 17:39

Beim Forschungsdatenzentrum Gesundheit sollen die Gesundheitsdaten aller gesetzlich Versicherten zusammenlaufen. Ein Gerichtsverfahren dagegen wird nun fortgesetzt. Dessen Ausgang könnte Pläne von Gesundheitsministerin Nina Warken durchkreuzen.

Zwei Menschen vor blauem Hintergrund
Karl Broich und Nina Warken auf der Pressekonferenz zur Eröffnung des Forschungsdatenzentrums Gesundheit im Oktober 2025. – Alle Rechte vorbehalten IMAGO / dts Nachrichtenagentur

Drei Jahre lang herrschte Stillstand. Nun geht ein Gerichtsverfahren weiter, das sich gegen die zentrale Speicherung von Gesundheitsdaten aller gesetzlich Versicherten im Forschungsdatenzentrum Gesundheit (FDZ) richtet.

Die Klage hatte die Gesellschaft für Freiheitsrechte (GFF) gemeinsam mit Constanze Kurz, netzpolitik.org-Redakteurin und Sprecherin des Chaos Computer Club (CCC), sowie einem weiteren anonymen Kläger im Mai 2022 eingereicht. Weil das FDZ aber jahrelang nicht arbeitsfähig war und kein IT-Sicherheitskonzept vorlegen konnte, ruhte das Verfahren seit Februar 2023. Im vergangenem Herbst wurde das FDZ offiziell eröffnet, weshalb die GFF das Verfahren nun nach eigenen Angaben fortsetzt und weitere Schriftsätze eingereicht hat.

Der Ausgang der Klage könnte weitreichende Folgen haben. Denn es geht um die Forschung mit Gesundheitsdaten, eine zentrale Säule der erst vor wenigen Wochen vorgestellten Digitalisierungsstrategie von Bundesgesundheitsministerin Nina Warken (CDU). Sollte das Gericht zugunsten der Klagenden entscheiden, könnten wichtige Vorhaben ihres Ministeriums ins Wanken geraten.

Kläger:innen fordern effektiven Widerspruch und besseren Schutz

Die Klagenden werden von dem Rechtswissenschaftler Matthias Bäcker vor dem Sozialgericht Berlin und dem Sozialgericht Frankfurt vertreten. Aus ihrer Sicht verstößt die zentrale Sammlung hochsensibler Gesundheitsinformationen beim FDZ zum einen gegen das Grundrecht der Versicherten, selbst über die eigenen Daten zu bestimmen, sowie gegen das Datenschutzrecht der Europäischen Union.

Zum anderen seien die gespeicherten Daten nicht ausreichend geschützt. Für deren Übermittlung werden nur Namen, Geburtstag und -monat der Versicherten entfernt. Ein von der GFF in Auftrag gegebenes Gutachten des Kryptographie-Professors Dominique Schröder kommt zu dem Schluss, dass eine solche Pseudonymisierung die Versicherten nicht ausreichend schützt. Durch den Abgleich mit anderen Datensätzen ließen sich Betroffene ohne großen Aufwand re-identifizieren.

Die GFF fordert daher für alle Versicherten ein „voraussetzungsloses Widerspruchsrecht“, dass ihre eigenen Gesundheitsdaten für Forschung und andere Zwecke weitergenutzt werden. „Gesundheitsdaten gehören zu den sensibelsten Informationen überhaupt und sind ein lukratives Ziel für Kriminelle“, sagt Jürgen Bering, Jurist bei der GFF. „Forschung darf daher nur unter ausreichenden Schutzmaßnahmen stattfinden.“

Auf dem Weg zu „einem der größten Daten-Hubs“

Gesundheitsministerin Warken sieht das Forschungsdatenzentrum als „Innovationsmotor“ der Gesundheitsforschung. Die Einrichtung ist beim Bundesamt für Arzneimittel und Medizinprodukte (BfArM) in Bonn angesiedelt. Seit 2022 werden dort Gesundheitsdaten zu allen gesetzlich Versicherten in einer zentralen Datenbank zusammengeführt und für die Dauer von bis zu 100 Jahren gespeichert. Forschende müssen sich bei diesem Zentrum registrieren, um mit den Daten arbeiten zu können.

Bislang übermitteln die gesetzlichen Krankenkassen nur die Abrechnungsdaten all ihrer Versicherten an das FDZ. Diese Daten geben Auskunft darüber, welche Leistungen die Versicherungen in Rechnung gestellt bekommen haben und mit welchen Diagnosen diese versehen sind.

Ab dem vierten Quartal dieses Jahres sollen dann nach und nach die Behandlungsdaten aus der elektronischen Patientenakte hinzukommen. BfArM-Chef Karl Broich geht davon aus, dass seine Behörde in zehn Jahren bundesweit „einer der großen Daten-Hubs“ ist.

„Gesundheitsdaten brauchen zwingend angemessene Sicherheitsmaßnahmen“

Sollte die GFF mit ihrer Klage Erfolg haben, könnte dieses Ziel verfehlt werden. Denn bislang ist vorgesehen, dass die ePA-Daten automatisch an das FDZ gehen – sofern Versicherte dem nicht aktiv widersprechen. Dieser Automatismus müsste dann möglicherweise einer aktiven Einwilligung der Versicherten weichen.

Aus Sicht der Klagenden wäre dies zu begrüßen. „Es wird höchste Zeit, dass das Verfahren fortgeführt wird“, sagt Constanze Kurz. „Denn es braucht Klarheit zur Sicherheit und zum Widerspruchsrecht, schon weil inzwischen der Kreis der nutzungsberechtigten Stellen ganz erheblich erweitert wurde.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Die Naivität der Gutgläubigen

22. Februar 2026 um 10:48
Sind wir in Zeiten in denen wir alles in Frage stellen müssen zu gutgläubig? Und wie können wir dennoch unseren Werten treu bleiben wenn uns Vertrauen wichtig ist?

Zum Wochenende: Wenn die Welt zu schwierig wird

20. Februar 2026 um 17:00
Die zunehmende Komplexität des Lebens befördert Schwurbler und Populisten. Warum das so ist, und wie man dem entgegentritt, lest ihr in diesem Artikel zum Wochenende.

Bundesgesundheitsministerium: So umfassend will Warken die Gesundheitsdaten aller Versicherten verknüpfen

16. Februar 2026 um 13:00

Bundesgesundheitsministerin Nina Warken hat ihre Digitalisierungsstrategie vorgelegt. Darin betont die CDU-Ministerin, die Patient:innensouveränität stärken zu wollen. Tatsächlich aber will sie eine der umfassendsten Gesundheitsdateninfrastrukturen weltweit aufbauen. Nutznießer sind Forschung und Pharma-Unternehmen. Die Rechte der Patient:innen bleiben auf der Strecke.

Bundesministerin für Gesundheit Nina Warken schaut konzentriert
Ganz auf die Vernetzung von Gesundheitsdaten fokussiert: Gesundheitsministerin Nina Warken (CDU). – Alle Rechte vorbehalten IMAGO / dts Nachrichtenagentur

Rund 75 Millionen gesetzlich Versicherte, ihre Gesundheitsdaten täglich übermittelt an ein nationales Forschungsdatenzentrum, verknüpfbar mit hunderten Medizinregistern und europaweit vernetzt – das ist die Vision von Bundesgesundheitsministerin Nina Warken (CDU).

Die Ministerin präsentierte in der vergangenen Woche ihre „Digitalisierungsstrategie für das Gesundheitswesen und die Pflege“. Darin verspricht Warken eine bessere medizinische Versorgung und mehr Patientensouveränität. Tatsächlich aber zielt ihre Strategie vor allem darauf ab, eine der umfassendsten Gesundheitsdateninfrastrukturen weltweit aufzubauen.

Das knapp 30-seitige Papier legt zugleich die Grundlage für ein umfangreiches „Digitalgesetz“. Den Entwurf will das Bundesgesundheitsministerium (BMG) noch im laufenden Quartal vorlegen. Die Rechte der Patient:innen drohen darin weitgehend auf der Strecke zu bleiben.

Die geplante Dateninfrastruktur ruht auf drei Säulen: die elektronische Patientenakte, das Forschungsdatenzentrum Gesundheit und das geplante Medizinregistergesetz. Das Zusammenspiel aller drei Vorhaben ebnet auch der EU-weiten Vernetzung der Gesundheitsdaten den Weg.

Die ePA soll zur „Gesundheits(daten)plattform“ werden

Alle Versicherten, die nicht widersprochen haben, besitzen seit Januar 2025 eine elektronische Patientenakte (ePA); seit Oktober 2025 sind Behandelnde dazu verpflichtet, sie zu verwenden. Gesundheitsministerin Warken will die ePA nicht nur zum „zentralen Dreh- und Angelpunkt“ der ärztlichen Versorgung machen, sondern auch zur „Gesundheits(daten)plattform“ ausbauen.

Dafür sollen erstens mehr strukturierte Daten in die ePA fließen, die dann „möglichst in Echtzeit für entsprechende Anwendungsfälle nachnutzbar“ sind. Derzeit sind dort vor allem noch PDF-Dateien hinterlegt, die nicht einmal durchsuchbar sind, was den Umgang mit der ePA aus Sicht von Behandelnden deutlich erschwert.

Zweitens soll die ePA weitere Funktionen wie eine digitale Terminvermittlung und elektronische Überweisungen erhalten. Die Patientenakte soll so „auch interessanter werden für diejenigen, die nicht krank sind“, kündigte Warken an. Derzeit nutzen gerade einmal rund 4 Millionen Menschen ihre ePA aktiv. Bis zum Jahr 2030 soll sich ihre Zahl, so das Ziel des BMG, auf 20 Millionen erhöhen.

„Künstliche Intelligenz“ soll Symptome auswerten

Wer sich krank fühlt, soll künftig auch über die ePA-App eine digitale Ersteinschätzung einholen können. Mit Hilfe eines Fragenkatalogs sollen Versicherte dann erfahren, ob ihre Symptome den Gang zur Hausärztin oder gar zur Notfallambulanz rechtfertigen.

Diese Auswertung soll offenbar auch mit Hilfe sogenannter Künstliche Intelligenz erfolgen. Ohnehin soll KI laut Warken „in Zukunft da eingesetzt werden können, wo sie die Qualität der Behandlung erhöht, beim Dokumentationsaufwand entlastet oder bei der Kommunikation unterstützt“. Bis 2028 sollen beispielsweise mehr als 70 Prozent der Einrichtungen in der Gesundheits- und Pflegeversorgung KI-gestützte Dokumentation nutzen – ungeachtet der hohen Risiken etwa für die Patientensicherheit oder die Autonomie der Leistungserbringer.

Dafür will das BMG „unnötigen bürokratischen Aufwand“ für KI-Anbieter reduzieren. Das Ministerium strebt dafür mit Blick auf den Digitalen Omnibus der EU-Kommission „eine gezielte Anpassung der KI-Verordnung“ an. Das umstrittene Gesetzesvorhaben der Kommission zielt darauf ab, Regeln für risikoreiche KI-Systeme hinauszuzögern und den Datenschutz deutlich einzuschränken. Zivilgesellschaftliche Organisationen warnen eindringlich, dass mit dem Omnibus der „größte Rückschritt für digitale Grundrechte in der Geschichte der EU“ drohe.

Forschungsdatenzentrum soll als „Innovationsmotor“ wirken

Die in der ePA hinterlegten Daten sollen aber nicht nur der ärztlichen Versorgung dienen, sondern vor allem auch der Forschung zugutekommen. Sie sollen künftig – sofern Versicherte dem nicht aktiv widersprechen – täglich automatisch an das Forschungsdatenzentrum Gesundheit (FDZ) gehen. Während Warken die ePA als „Dreh- und Angelpunkt“ der Versorgung sieht, beschreibt sie das FDZ als „Innovationsmotor“ der Gesundheitsforschung.

Das FDZ wurde nach jahrelangen Verzögerungen im vergangenen Herbst erst handlungsfähig. Es ist beim Bundesamt für Arzneimittel und Medizinprodukte (BfArM) in Bonn angesiedelt. Forschende können sich bei dem Zentrum registrieren, um mit den dort hinterlegten Daten zu arbeiten. Auch Pharma-Unternehmen können sich bewerben. Eine Voraussetzung für eine Zusage ist, dass die Forschung einem nicht näher definierten „Gemeinwohl“ dient.

Die pseudonymisierten Gesundheitsdaten sollen das FDZ nicht verlassen. Stattdessen erhalten Forschende Zugriff auf einen Datenzuschnitt, der auf ihre Forschungsfrage abgestimmt ist. Die Analysen erfolgen in einer „sicheren Verarbeitungsumgebung“ auf einem virtuellen Desktop, das Forschende übers Internet aufrufen können.

Ob dabei tatsächlich angemessene Schutzstandards bestehen, muss indes bezweifelt werden. Denn das Forschungszentrum verfügte in den vergangenen Jahren nicht einmal über ein IT-Sicherheitskonzept, weshalb auch ein Gerichtsverfahren der Gesellschaft für Freiheitsrechte ruht.

Gemeinsam mit der netzpolitik.org-Redakteurin Constanze Kurz hatte die GFF gegen die zentrale Sammlung sensibler Gesundheitsdaten beim FDZ geklagt. Aus ihrer Sicht sind die gesetzlich vorgesehenen Schutzstandards unzureichend, um die sensiblen Gesundheitsdaten vor Missbrauch zu schützen. Sie verlangt daher für alle Versicherten ein voraussetzungsloses Widerspruchsrecht gegen die Sekundärnutzung der eigenen Gesundheitsdaten. Nachdem das FDZ seit Oktober den aktiven Betrieb aufgenommen hat, dürfte das ruhende Verfahren in Kürze fortgesetzt werden.

„Real-World-Überwachung“ ermöglichen

Dessen ungeachtet haben sich laut BfArM-Präsident Karl Broich bereits 80 Einrichtungen beim FDZ registriert. Die Antragsteller kommen zu gleichen Teilen aus Wirtschaft, Verwaltung und Forschung. Mehr als zwei Drittel von ihnen hätten bereits konkrete Forschungsanträge gestellt, bis zum Ende des Jahres will Warken diese Zahl über die Schwelle von 300 hieven. Alle positiv beschiedenen Anträge sollen künftig in einem öffentlichen Antragsregister einsehbar sein.

Zum Jahreswechsel wird das FDZ wohl auch über weit mehr Daten verfügen als derzeit. Bislang übermitteln die gesetzlichen Krankenkassen die Abrechnungsdaten all ihrer Versicherten an das Forschungszentrum. Diese geben bereits Auskunft darüber, welche Leistungen und Diagnosen die Versicherungen in Rechnung gestellt bekommen haben.

Ab dem vierten Quartal dieses Jahres sollen dann nach und nach die Behandlungsdaten aus der ePA hinzukommen. Den Anfang machen Daten aus der elektronischen Medikationsliste, anschließend folgen die Laborfunde, dann weitere Inhalte.

Der baldige Datenreichtum gibt dem FDZ aus Sicht von BfArM-Chef Broich gänzlich neue Möglichkeiten. Er geht davon aus, dass seine Behörde in zehn Jahren bundesweit „einer der großen Daten-Hubs“ ist. Mit den vorliegenden Daten könnten Forschende dann umfassende „Lifecycle-Beobachtungen“ durchführen – „eine Real-World-Überwachung also, die klassische klinische Prüfungen so nicht abdecken können“.

Auch im FDZ soll „Künstliche Intelligenz“ mitwirken. Zum einen in der Forschung selbst: „Dafür arbeiten wir an Konzepten, die Datenschutz, Sicherheit und wissenschaftliche Nutzbarkeit von Beginn an zusammendenken“, sagt Broich. Zum anderen soll das FDZ Datensätze etwa für das Training von Sprachmodellen bereitstellen, wie die Digitalisierungsstrategie des BMG ausführt und auch bereits gesetzlich festgeschrieben ist. Sowohl Training als auch Validierung und Testen von KI-Systemen sind eine zulässige Nutzungsmöglichkeiten. Das bedeutet konkret: Die sensiblen Gesundheitsdaten von Millionen Versicherten können zum Training von Sprachmodellen verwendet werden.

Wie „Künstliche Intelligenz“ unser Gesundheitswesen verändern soll – und welche Fragen das aufwirft

Warken will Medizinregister miteinander verknüpfen

Ab 2028 könnten Trainingsdaten dann auch detaillierte Daten zu Krebserkrankungen enthalten. Denn in knapp zwei Jahren sollen die FDZ-Datenbestände mit Krebsregistern sowie dem Projekt genomDE verknüpft werden, das Erbgutinformationen von Patient:innen sammelt.

Die Datenfülle beim FDZ dürfte damit noch einmal ordentlich zunehmen. Allein die Krebsregister der Länder Bayern, Nordrhein-Westfalen und Rheinland-Pfalz halten Daten von insgesamt mehr als drei Millionen Patient:innen vor. Wer nicht möchte, dass etwa die eigenen Krebsdaten mit den Genomdaten verknüpft werden, muss mindestens einem der Register komplett widersprechen.

Im Gegensatz etwa zu den Krebsregistern der Länder, die auf Basis spezieller rechtlicher Grundlagen arbeiten, bewegen sich die meisten anderen Medizinregister dem BMG zufolge derzeit „in einem heterogenen Normengeflecht von EU-, Bundes- und Landesrecht“, was „die Schaffung einer validen Datenbasis“ behindere.

Das Ministerium hat daher bereits im Oktober das „Gesetz zur Stärkung von Medizinregistern und zur Verbesserung der Medizinregisterdatennutzung“ auf den Weg gebracht. Der Referentenentwurf sieht vor, einheitliche rechtliche Vorgaben und Qualitätsstandards für Medizinregister zu schaffen.

Ein Zentrum für Medizinregister (ZMR), das ebenfalls am BfArM angesiedelt wäre, soll demnach bestehende Medizinregister nach festgelegten Vorgaben etwa hinsichtlich Datenschutz und Datenqualität bewerten. Qualifizierte Register werden dann in einem Verzeichnis aufgeführt, dürfen zu einem festgelegten Zweck kooperieren und auch anlassbezogen Daten zusammenführen. Die personenbezogenen Daten, die dort gespeichert sind, können für die Dauer von bis zu 100 Jahren in den Registern gespeichert werden.

Derzeit gibt es bundesweit rund 350 Medizinregister. Zu den größten zählen das „Deutsche Herzschrittmacher Register“, das die Daten von mehr als einer Million Patient:innen enthält, und das „TraumaRegister DGU“ mit Daten von mehr als 100.000 Patient:innen. Das Gesundheitsministerium geht davon aus, dass etwa drei Viertel der bestehenden Medizinregister Interesse daran haben könnten, in das Verzeichnis des ZMR aufgenommen zu werden.

Verbraucher- und Datenschützer:innen mahnen Schutzvorkehrungen an

Gesundheitsdaten, die dem ZMR vorliegen, sollen ebenfalls pseudonymisiert oder anonymisiert der Forschung bereitstehen. Das geplante Medizinregistergesetz sieht außerdem vor, dass die Daten qualifizierter Register ebenfalls miteinander verknüpft werden können.

Zu diesem Zweck sollen Betreiber von Medizinregistern und die meldenden Gesundheitseinrichtungen registerübergreifende Pseudonyme erstellen dürfen. Als Grundlage dafür soll der unveränderbare Teil der Krankenversichertennummer von Versicherten (KVNR) dienen.

Fachleute weisen darauf hin, dass eine Pseudonymisierung insbesondere bei Gesundheitsdaten keinen ausreichenden Schutz vor Re-Identifikation bietet. Das Risiko wächst zudem, wenn ein Datensatz mit weiteren Datensätzen zusammengeführt wird, wenn diese weitere personenbezogene Daten der gleichen Person enthält.

Das Netzwerk Datenschutzexpertise warnt zudem davor, die Krankenversichertennummer in einer Vielzahl von Registern vorzuhalten. Weil im Gesetzentwurf notwendige Schutzvorkehrungen fehlen würden, sei „das Risiko der Reidentifizierung bei derart pseudonymisierten Datensätzen massiv erhöht“.

Der Verbraucherzentrale Bundesverband kritisiert die Menge an personenbezogenen Daten, die laut Gesetzentwurf an qualifizierte Medizinregister übermittelt werden dürfen. Dazu zählen neben sozialdemographischen Informationen auch Angaben zu Lebensumständen und Gewohnheiten sowie „zu einem Migrationshintergrund oder einer ethnischen Zugehörigkeit, der Familienstand oder die Haushaltsgröße“.

Um die Patient:innendaten besser zu schützen, forderte der Verband bereits im November vergangenen Jahres, eindeutig identifizierende Daten vom Kerndatensatz eines Medizinregisters getrennt aufzubewahren.

Gesundheitsministerium schafft Schnittstellen in die EU

Das Gesundheitsministerium lässt sich davon jedoch nicht beirren und strebt weitere Datenverknüpfungen an. Laut seiner Digitalisierungsstrategie will das BMG das Forschungspseudonym auch dazu nutzen, um die Gesundheits- und Pflegedaten „mit Sozialdaten und Todesdaten zu Forschungszwecken“ sowie „mit Abrechnungs- und ePA-Daten“ zu verbinden. Ob Versicherte dieser umfangreichen Datenverknüpfung überhaupt noch effektiv und transparent widersprechen können, ist derzeit zweifelhaft. Sicher aber ist: Der Aufwand dürfte immens sein.

Die Digitalisierungsstrategie macht ebenfalls deutlich, dass das Ministerium die geplanten Maßnahmen auch in Vorbereitung auf den Europäischen Gesundheitsdatenraum (EHDS) ergreift. Der EHDS ist der erste sektorenspezifische Datenraum in der EU und soll als Blaupause für weitere sogenannte Datenräume dienen. Schon in wenigen Jahren sollen hier die Gesundheitsdaten von rund 450 Millionen EU-Bürger:innen zusammenlaufen und grenzüberschreitend ausgetauscht werden.

Konkret bedeutet das: In gut drei Jahren, ab Ende März 2029, können auch Forschende aus der EU beim FDZ Gesundheitsdaten beantragen. Und das Zentrum für Medizinregister soll dem BMG zufolge ebenfalls Teil der europäischen Gesundheitsdateninfrastruktur werden.

Der größte Brückenschlag in der Gesundheitsdateninfrastruktur steht also erst noch bevor. Und auch hier bleibt die Ministerin eine überzeugende Antwort schuldig, was die Versicherten davon haben.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Digitale Souveränität wird zum Kampfbegriff

06. Februar 2026 um 17:00
In der Schweiz formiert sich ein hochkarätiges Netzwerk für die digitale Unabhängigkeit. Das ist den USA-Vertretern ein Dorn im Auge. Behörden haben jetzt die Chance, mit gutem Beispiel voranzugehen.

Organisationen im Fediverse

06. Februar 2026 um 07:30
Warum haben es Organisationen im Fediverse oft so schwer und was können wir tun, damit es auch für sie einfacher wird?

Zum Wochenende: Sagt nicht Ihr, sondern Wir

23. Januar 2026 um 17:00
In schweren Zeiten gilt es, zusammenzuhalten. Die Trennung von "ihr und wir" ist kein gutes Rezept für die Gesellschaft. Die Besinnung auf Gemeinsamkeiten bringt uns weiter.

EU fragt nach Feedback

22. Januar 2026 um 09:00
Ein positives Zeichen der EU in Richtung Opensource und freie Software. Die Europäische Kommission fragt konkret nach Feedback im Open Source Bereich.

Anna sichert Spotify

09. Januar 2026 um 11:00
Nahezu der komplette Musikkatalog von Spotify ist ausserhalb des Streaming-Dienstes öffentlich zugänglich geworden. Verantwortlich ist das Projekt Anna’s Archive, das bislang vor allem für das Archivieren von Büchern und wissenschaftlichen Texten bekannt war.

Digital Independence Day

05. Januar 2026 um 09:00
An jedem ersten Sonntag im Monat ruft ein breites Bündnis aus Organisationen zum Wechsel auf freie IT-Lösungen auf. Damit soll die digitale Unabhängigkeit in der Bevölkerung gefördert werden.

Zum Wochenende: Navigation und digitale Karten zwischen Komfort, Datenschutz und Gewohnheit

02. Januar 2026 um 19:00
Von: Astrid
Digitale Unabhängigkeit heißt Wahlfreiheit und nicht Verzicht: Frau ersetzt einen Platzhirschen schrittweise und kombiniert Komfort mit Selbstbestimmtheit – kleine Schritte statt radikaler Umstellung in Form einer Kurzgeschichte und eines Vergleiches.

Huduma Namba: Wie Kenias Zivilgesellschaft die Totalerfassung der Bevölkerung bekämpfte

30. Dezember 2025 um 10:24

Mit radikaler Verweigerung brachte die kenianische Zivilgesellschaft eine geplante Mega-Datenbank ihrer Regierung zu Fall. Wie das gelang und warum der Kampf noch nicht gewonnen ist, berichtete Inklusionsaktivist Mustafa Mahmoud Yousif auf dem 39. Chaos Communication Congress in Hamburg.

Eine Person hält eine Art Tablet und fertigt damit ein Passfoto einer anderen Person an
Biometrische Erfassung für die staatliche Datenbank „Huduma Namba“ in Kipcherere, Bariongo (Kenia). – Alle Rechte vorbehalten IMAGO / ZUMA Press Wire

Hoffnung in verzweifelten Zeiten zu stiften ist keine leichte Aufgabe, das macht Mustafa Mahmoud Yousif gleich zu Beginn seines Vortrags klar. Und doch hat sich der Menschenrechtsaktivist genau das vorgenommen. Er ist nach Hamburg auf den 39. Chaos Communication Congress gekommen, um von der Kraft der Zivilgesellschaft zu berichten und Mut zu machen. Er spricht über den erfolgreichen Protest einer Bürger:innenbewegung gegen ein digitales Identifikationssystem in Kenia.

Das Problem mit dem „Huduma Namba“ genannten System ist schnell umrissen: In einer riesigen zentralen Datenbank wollte die kenianische Regierung 2019 die Bevölkerung erfassen. Diese sollte zahlreiche Angaben über sie beinhalten, von Größe, Alter, Landbesitz und Stammeszugehörigkeit über Einkommens- und Bildungslevel bis zu Angaben über Familienangehörige. Auch biometrische Daten und DNA sollten erfasst werden.

Nur wer registriert ist, sollte Zugang zu staatlichen Leistungen bekommen, etwa sein Kind auf eine Schule schicken können. Die Regierung wollte sich zudem das Recht einräumen, Daten mit autorisierten Stellen zu teilen – auch mit Unternehmen, fürchtete die kenianische Zivilgesellschaft. Mit den umfangreichen Daten könnten zudem Profile von Personen erstellt werden, so die Sorge. In einem Land, in dem staatlichen Stellen nicht zu trauen sei, eine echte Gefahr, so der Ko-Vorstandsvorsitzende des Instituts für Staatenlosigkeit und Inklusion.

Koloniales Echo

Huduma Namba sollte zur „einzigen Quelle der Wahrheit“ über die Menschen in Kenia werden, erklärt Yousif. Und das in einem Land, das unter britischer Kolonialherrschaft alles andere als gute Erfahrungen mit Identitätssystemen gemacht hat. Denn für die Kolonialherren war die Identitätskontrolle ein Herrschaftsinstrument, mit dem sie die unterdrückte Bevölkerung spalten und in ihrer Bewegungsfreiheit einschränken konnte.

Die Briten hätten das Land in 42 Regionen für 42 Stämme geteilt, mit der Hauptstadt Nairobi als 43. Bezirk. Schwarze Menschen, so Yousif, mussten jederzeit Ausweisdokumente, die sogenannten Kipande, bei sich tragen und der Polizei vorlegen. Die Dokumente enthielten Angaben über die Identität der Personen, wo sie lebten und in welchen Gebieten sie sich aufhalten durften. „Sie haben die Menschen in Ethnien und Bezirke unterteilt, damit sie nicht gemeinsam aufbegehren können“, so Yousif.

Im digitalen Zeitalter seien Daten zum neuen Rohstoff geworden, der nicht mehr in klassischen Minen, sondern beim Data Mining gewonnen wird. Statt auf Datenminimierung zu setzen, wie es aus Perspektive des Datenschutzes geboten wäre, habe die kenianische Regierung bei „Huduma Namba“ deshalb auf Datenmaximierung gesetzt.

In einer übereilten Roll-out-Phase von nur sechs Monaten habe die kenianische Regierung versucht, die Bevölkerung zur Registrierung zu drängen. Gerade ohnehin marginalisierte Gruppen, etwa Menschen ohne gültige Dokumente, seien jedoch gefährdet gewesen, zurückgelassen zu werden, kritisiert Yousif. Kinder, deren Eltern teils kenianische Staatsangehörige und geflüchtete Personen seien, wären auf Dauer als Geflüchtete registriert und dem Risiko der Staatenlosigkeit ausgesetzt worden.

Radikale Verweigerung

Weil es an einer politischen Opposition zu dem Projekt fehlt, habe es an der Zivilgesellschaft gelegen, Widerstand zu organisieren. Zahlreiche Nichtregierungsorganisationen hätten sich zusammengeschlossen, um in Sozialen Medien gegen den ID-Zwang mobil zu machen.

Insbesondere die junge Generation sei auf die Kampagne angesprungen. „Sie hatten das Gefühl, dass sie in ein System gezwungen werden, bei dem nicht Menschen, sondern Unterdrückung im Mittelpunkt stehen.“ Die Antwort darauf war radikale Verweigerung: Als die Regierung damit gedroht habe, nicht-registrierte Menschen des Landes zu verweisen, trendete der Hashtag #deportme, also „schiebt mich ab“. Zum Schlachtruf der Bewegung wurde der Slang-Begriff „Hatupangwingwi“, das in etwa „Wir lassen uns nichts vorschreiben“ bedeutet.

Auch traditionelle Medien hätten das Thema und dem Protest zu mehr Wucht verholfen. NGOs klagten zudem auf Basis des neuen kenianischen Datenschutzgesetzes. Mit Erfolg: Das Verfassungsgericht erklärte die Datenbank für ungültig, unter anderem, weil eine Datenschutz-Folgenabschätzung fehlte. Erhobene DNA-Daten dürfen zudem nur dann genutzt werden, wenn entsprechende Schutzvorkehrungen getroffen werden.

2022 wählten die Menschen in Kenia eine neue Regierung, die einen Neuanfang versprach und erstmalig Vertreter:innen der Zivilgesellschaft mit an den Tisch holte.

Der Kampf geht weiter

Doch damit endete der Kampf für Mustafa Mahmoud Yousif und seine Mitstreier:innen nicht. Auch die neu aufgesetzte Datenbank „Maisha Namba“ soll umfangreiche Daten über die Menschen Kenias enthalten. Auch hier fehlen der Zivilgesellschaft ausreichende Schutzmechanismen, um Bürger:innen vor Profilbildung und Diskriminierung zu schützen.

Doch Yousif gibt die Hoffnung nicht auf. Immerhin: Statt einer überhasteten Registrierungsphase werden Menschen Stück für Stück und ab Geburt registriert. Und die Verantwortlichkeiten für das Projekt sind jetzt klarer geregelt, sagt der Aktivist. „Wir wissen jetzt, wen wir verklagen müssen.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Ein Nachruf an Jerry und warum ich ihm dankbar bin

16. Dezember 2025 um 09:00
Am Samstag, den 06.12.2025 kam in den MX Linux News die traurige Nachricht, dass der als jerry3904 bekannte Mitbegründer von MX Linux verstorben ist.

❌