🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Heute — 16. April 2026Haupt-Feeds

Outsourcing und Ausbeutung: „Es gibt keine KI ohne Datenarbeit“

15. April 2026 um 18:07

Hinter dem Erfolg von Künstlicher Intelligenz und Sozialen Medien stecken ausgebeutete Arbeiter:innen. Bei einem Fachgespräch im Deutschen Bundestag wurde heute diskutiert, wie ihre Lage verbessert werden kann. Die Botschaft der Sachverständigen war klar: Deutschland muss mehr Verantwortung übernehmen.

Verschwommene Landschaftsszene in Abendsonne, einige Objekte sind gelb umrandet und nicht verschwommen: Ein Wasserturm, ein Funkmast, etwas unerkennbares. Daneben in kleiner Schrift passende Labels zu den Objekten mit einer in Prozent angegeben Genauigkeitswahrscheinlichkeit
Die Welt durch die Brille der Daten-Annotation CC-BY 4.0 Elise Racine / betterimagesofai.org

Im Bundestag wurde heute erstmals über die Arbeitsbedingungen von Datenarbeiter:innen hinter Künstlicher Intelligenz und Sozialen Medien diskutiert. Die Ausschüsse für Digitales und Arbeit hatten zu einem Fachgespräch zum Thema Data Labeling geladen. Die klare Botschaft der drei Sachverständigen: Wenn Deutschland auf KI setzt, dann muss es mehr Verantwortung für die Menschen im Maschinenraum der Technologie übernehmen.

Als Data Labeling oder auch Daten-Annotation bezeichnet man eine Tätigkeit, bei der Menschen zum Beispiel Bildmaterial mit Metadaten versehen, also mit Labels, die den Inhalt beschreiben. Das ist unter anderem für Machine-Learning-Systeme erforderlich, die hinter fast allem stehen, auf dem heute das Label „KI“ klebt. Die Arbeiter:innen sind selten bei den Tech-Konzernen selbst beschäftigt, sondern werden häufig unter ausbeuterischen Bedingungen bei Outsourcing-Firmen oder -Plattformen angestellt.

Seit Jahren bringen Whistleblower:innen, Aktivist:inen, Forscher:innen und Journalist:innen die unsichtbar gemachten Arbeitskräfte in die Öffentlichkeit. Auch wir auf netzpolitik.org berichten kontinuierlich darüber. Die Arbeitsbedingungen in der Branche haben sich aber kaum verbessert, weshalb Erwartungen an die Politik groß sind. Das heutige Fachgespräch, an dem sich Abgeordnete von Union, SPD, Grünen und Linkspartei beteiligten, könnte ein Anfang sein. An konkreten Ideen, wie sich die Lage der Arbeiter:innen verbessern lässt, mangelt es jedenfalls nicht.

„Sie sehen die KI, aber uns sehen Sie nicht“

Die ehemalige Datenarbeiterin Joan Kinyua war virtuell aus der kenianischen Hauptstadt Nairobi zugeschaltet. Sie habe mehr als acht Jahre in der Branche gearbeitet hat, die „Künstlicher Intelligenz dabei hilft, die Welt zu verstehen“. Für unterschiedliche Anbieter habe sie unter anderem Bilder von Straßen mit Metadaten versehen, damit selbstfahrende Autos keine Unfälle bauen. Auch mit Straßenszenen aus Berlin habe sie arbeiten müssen (lest dazu mehr in unserem kürzlich veröffentlichten Interview mit Joan).

Später habe sie auch Bilder mit Gewaltdarstellungen klassifizieren müssen, sogar solche, die Gewalt an Kindern zeigten. Gleichzeitig habe sie selbst Daten für das KI-Training erzeugen sollen, indem sie Bilder ihrer Tochter zur Verfügung stellt.

Ausgeübt habe sie die Tätigkeit meist vom eigenen Computer zuhause, über sogenannte Microwork-Plattformen – „ohne Arbeitsvertrag, Sozialversicherung oder Gesundheitsversorgung“. Oft habe sie stundenlang auf neue Aufträge warten müssen, teilweise bis zu 20 Stunden am Tag auf Stand-By. Immer wieder hätten Auftraggeber:innen ihre Ergebnisse abgelehnt. Den Input hätten sie trotzdem behalten, sie selbst sei leer ausgegangen. So habe es Tage gegeben, an denen sie in fünf Stunden nur zwei Cent verdient habe. Im Schnitt würden Datenarbeiter:innen in Kenia 250 US-Dollar im Monat verdienen, was kaum zum Überleben reiche.

Von ihrer Arbeit habe sie außerdem Panik-Attacken und Angstzustände erhalten. Wie ihr gehe es vielen in der Branche, schildert Kinyua. Als Präsidentin der kenianischen Data Labelers Association vertrete sie inzwischen die Interessen von mehr als tausend Datenarbeiter:innen. Viele von ihnen litten unter posttraumatischen Belastungsstörungen.

„Sie sehen die KI, aber uns sehen Sie nicht“, so beschrieb Joan Kinyua den Abgeordneten ihre Lage. Es sei auch in der Verantwortung des Deutschen Bundestages, das zu ändern und für bessere Bedingungen zu sorgen. Unter anderem schlug die Kenianerin Mindeststandards für Datenarbeiter:innen in Deutschland und weltweit vor. Dazu zählt auch eine Obergrenze für die Arbeit an belastenden Inhalten. Zudem brauche es unabhängige Audits der Anbieter, sowie Register für KI-Arbeiter:innen und ganz grundsätzlich mehr Transparenz über Outsourcing und Lieferketten von Tech-Konzernen.

Milliarden-Profite dank Prekarisierung

Dr. Milagros Miceli von der TU Berlin berichtete von ihren Erkenntnissen aus fast einem Jahrzehnt Forschung zu Datenarbeit. Die von Joan Kinyua geschilderten Arbeitsbedingungen seien „kein Einzelfall, sondern ein konstantes Muster“. Oder genauer gesagt: das Geschäftsmodell einer milliardenschweren Branche.

Der von ihr geprägte Begriff der Datenarbeit umfasse mehr als das Labeling von Daten im engeren Sinne: Auch das Generieren und Sammeln von Daten zähle dazu, in zunehmendem Maße außerdem die Validierung des algorithmischen Outputs und das Korrigieren von Fehlern. Zudem müssten Arbeiter:innen immer wieder so tun, als seien sie eine KI.

Miceli ist eine der Initiator:innen des „Data Workers Inquiry“, in dem Datenarbeiter:innen von ihrer Wirklichkeit berichten. Kürzlich hat das Projekt die Geschichte einer Person veröffentlicht, die sich als AI Girlfriend ausgeben musste, also als Chatbot, der eine Liebesbeziehung mit seinen Nutzer:innen simuliert.

Die unterschiedlichen Formen der Datenarbeit seien essenzieller Bestandteil von KI-Produkten, einer Studie zufolge würde sie 80 Prozent der Entwicklungsarbeit von Künstlicher Intelligenz ausmachen. Miceli ist in ihrer Botschaft deshalb klar: „Ohne Datenarbeit und ohne Menschen wie Joan Kinyua gibt es keine KI“. Tech-Konzerne würden Milliarden damit verdienen „dass sie Arbeiter:innen durch Outsourcing und Plattformisierung prekarisieren und austauschbar machen“. Wenn Deutschland KI fördern wolle, müsse deshalb unbedingt für bessere Arbeitsbedingungen sorgen.

Viele der Arbeiter:inen seien hochqualifiziert, hätten Bachelor-Abschlüsse oder sogar promoviert, berichtet die Forscherin. Dabei sei wichtig, dass die Tätigkeit nicht auf Länder wie Kenia beschränkt ist, sondern auch in Deutschland und Europa viele Menschen in der Branche tätig seien. Wie viele genau, das könne man aufgrund der Intransparenz der Unternehmen nicht sagen.

Probleme bei Gesundheits- und Datenschutz

Bekannt ist, dass mehrere Tech-Konzerne und Outsourcing-Unternehmen in Deutschland große Zentren für die Moderation von Inhalten auf Social-Media-Plattformen unterhalten. Eine Tätigkeit, die die Sachverständigen ebenfalls zum Feld der Datenarbeit zählt und die bereits vor drei Jahren bei einem Fachgespräch im Bundestag Thema war. Julia Kloiber vom Superrr Lab war damals bereits dabei und wies heute erneut darauf hin, dass dabei oft Menschen in vulnerablen Lebenssituationen ausgenutzt würden.

Kloiber empfahl unter anderem besseren Schutz für Menschen, die mit schädlichen Inhalten arbeiten müssen. Bei der Polizei etwa, wo ebenfalls Menschen mit Darstellungen von Kindesmissbrauch arbeiten müssten, gebe es klare Expositionsbegrenzungen. Auch für Datenarbeiter:innen brauche es eine Obergrenze, die die Arbeit mit belastendem Material festlegt. Außerdem brauche es Trauma-Prävention und Zugang zu professioneller psychologischer Unterstützung.

Der fehlende Schutz habe nicht nur schwerwiegende Folgen für die Betroffenen, sondern auch für das Gesundheitssystem, schließlich könnten Menschen ein ganz Leben lang unter posttraumatischen Belastungsstörungen leiden. Manchmal könnten sie deshalb nicht mehr arbeiten. Die dadurch entstehenden Kosten würden von den Tech-Konzernen externalisiert und von der Allgemeinheit aufgefangen.

Kloiber wies zudem auf Datenschutzprobleme beim Outsourcing hin: Nicht nur würden die Datenarbeiter:innen selbst stark überwacht, bei ihnen landeten auch große Mengen personenbezogener Daten und sensibler Inhalte. Erst kürzlich hatten Datenarbeiter:innen als Whistleblower:innen darüber berichtet, dass sie Aufnahmen aus Meta-Brillen bearbeiten müssten und dabei auch Nacktaufnahmen und andere intime Szenen von Nutzer:innen zu Gesicht bekämen.

„Unsere digitale Zukunft darf nicht auf Ausbeutung fußen“

Deutlich wurde bei dem Fachgespräch, dass auch deutsche Firmen davon profitieren, dass sie prekäre Arbeit an Menschen wie Joan Kinyua auslagern. Auch die Auto-Industrie, die Pharma-Branche oder Tech-Unternehmen wie Siemens gehörten zu den Kunden von Outsourcing-Unternehmen im Datenbereich, berichtete etwa Milagros Miceli.

Für Julia Kloiber ist klar, dass Deutschland deshalb auch Verantwortung übernehmen müsse. Eine Untersuchung des Fairwork-Projekt der Universität Oxford und Wissenschaftszentrums Berlin habe die Löhne von vier Outsourcing-Unternehmen untersucht. Nur zwei von ihnen hätten Mindestlohn gezahlt, keines den sogenannten Existenzlohn („Living Wage“), der nicht nur das bloße physische Überleben, sondern auch soziale und kulturelle Teilhabe ermöglicht.

Einen wichtigen Ansatzpunkt sieht die Geschäftsführerin des Superrr Lab deshalb in der Regulierung von Lieferketten. Hier drohe der hohe Standard des erst kürzlich eingeführten und dann schon wieder halb gecancelten deutschen Lieferkettengesetzes abgesenkt zu werden. Die Schwarz-Rote Koalition hatte sich darauf geeinigt, nicht über die – ebenfalls gerade ausgehöhlte – EU-Lieferkettenrichtlinie hinauszugehen.

Bei der Umsetzung der Richtlinie müsse Deutschland sicherzustellen, dass der Geltungsbereich nicht eingeschränkt werde. Die EU-Regeln sollen nur Unternehmen ab 5000 Beschäftigten und einem Umsatz von 1,5 Milliarden Euro gelten. In Deutschland würden dann 95 Prozent der Unternehmen von den Sorgfaltspflichten für ihre Lieferketten entbunden, so Kloiber.

Die Expertin brachte zudem ein Direktanstellungsgebot ins Spiel, wie es erst kürzlich gefeuerte und streikende TikTok-Angestellte in Deutschland gefordert hatten. Ganz grundsätzlich fordert Kloiber eine realistischere Kosten-Nutzen-Rechnung, wenn in Deutschland KI ausgebaut und etwa in der Verwaltung eingesetzt wird. Soziale und auch ökologische Kosten dürften nicht länger ausgeblendet werden: „Unsere digitale Zukunft darf nicht auf Ausbeutung fußen.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Your old Kindle won’t stop working on 20 May – but it could…

10. April 2026 um 00:59

Four older Kindle modes with concerned faces drawn on the screens.Amazon is dropping support for Kindle older models from 20 May, 2026, meaning owners of pre-2013 models will be unable to download new books or set up a device that has been factory reset — deregistering a device will effectively ‘brick’ it. While no company can support all of their products forever (one could argue a company the size of this one could, mind), most of the devices impacted, listed below, have not received firmware updates for over a decade, and most lost on-device access the Kindle Store. The following 2012 or earlier Kindles are affected, as of 20 May, […]

You're reading Your old Kindle won’t stop working on 20 May – but it could…, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without permission.

Grundrechte: Zwei Insider berichten vom Europäischen Datenschutzbeauftragten

09. April 2026 um 09:25
Von: Constanze

Wir sprechen mit Thomas Zerdick und Robert Riemann, die beim Europäischen Datenschutzbeauftragten arbeiten. Sie berichten aus dem Inneren des Amtes, wie es in Gesetzgebungsverfahren einbezogen wird und warum die Kritik am Datenschutz eigentlich eine deutsche Kritik ist. Sie erklären auch, was sie sich für die Zukunft der Behörde wünschen.

EDPD-Tassen beim Europäischen Datenschutzgipfel 2024
Der Europäische Datenschutzausschuss (EDPD) bringt als Dachorganisation die nationalen Datenschutzbehörden der EU-Länder und den europäischen Datenschutzbeauftragten (EDPS) zusammen. – Alle Rechte vorbehalten EDPS

In Europa ist Datenschutz ein Grundrecht, das für alle 27 Mitgliedstaaten gilt. Auch die EU-Organe und EU-Einrichtungen selbst stehen unter Aufsicht eines Datenschutzbeauftragten.

Doch was macht eigentlich dieser Europäische Datenschutzbeauftragte (EDSB), der schon mehr als zwei Jahrzehnte für den Schutz der Privatsphäre und die Datenschutzrechte der Bürger arbeitet? Was sind seine Aufgaben, welche Rolle hat der EDSB in Brüssel? Wer konsultiert ihn? Wann wird er typischerweise angehört? Wie funktioniert die Zusammenarbeit zwischen dem EDSB und den nationalen Behörden?

Das berichten uns zwei Insider: Thomas Zerdick und Robert Riemann, die beide beim EDSB arbeiten.

Thomas Zerdick ist Jurist und Leiter des Referats für Aufsicht und Durchsetzung. Vor seiner Zeit beim EDSB arbeitete er bei der Europäischen Kommission im Referat Datenschutz und war einer derjenigen, die an der EU-Datenschutzgrundverordnung mitgeschrieben haben. Robert Riemann ist Informatiker und arbeitete bis Ende Dezember beim EDSB im Referat Technik und Privatheit.

Das Gespräch ist eine gekürzte und behutsam überarbeitete Fassung des Podcasts „Dicke Bretter“ von Constanze Kurz, Elisa Lindinger und Elina Eickstädt beim Chaosradio. In „Dicke Bretter“ beleuchten wir Institutionen, Akteure oder Organisationen, die daran mitwirken, wenn Gesetze, Richtlinien oder auch nur politische Positionen bei digitalen Themen entstehen.

Die unabhängige Datenschutzaufsichtsbehörde

Constanze Kurz: Ihr arbeitet beide beim Europäischen Datenschutzbeauftragten. Was sind die Aufgaben dieses Amtes?

Thomas Zerdick: Der Europäische Datenschutzbeauftragte ist die unabhängige Datenschutzaufsichtsbehörde für die EU-Organe und EU-Einrichtungen. Das sind eben zum Beispiel das Europäische Parlament und die Europäischen Kommission, aber auch wir selbst als Europäischer Datenschutzbeauftragter oder auch Einrichtungen wie Europol.

Thomas Zerdick (2.v.r.)
Thomas Zerdick (2.v.r.) - Alle Rechte vorbehalten EDPS

Wir überwachen die Datenverarbeitung dieser EU-Organe und EU-Einrichtungen. Wir bearbeiten Beschwerden von Bürgerinnen und Bürgern, führen Untersuchungen durch und entscheiden dazu. Ich selbst bin Leiter des Referates Aufsicht und Durchsetzung und mache genau das mit meinem Team: Wir überprüfen, ob die EU-Organe und -Einrichtungen die Datenschutzvorschriften auch einhalten, die sie von den anderen verlangen.

Constanze Kurz: Sind in deinem Team typischerweise Juristen?

Thomas Zerdick: In meinem Team sind wir bis auf eine Person alle Juristen. Wir sind ungefähr dreißig Mitarbeiter.

Datenschutz ist im Kern Grundrechtsschutz. Da wir Entscheidungen vorbereiten, die der Europäische Datenschutzbeauftragte dann erlässt, brauchen wir juristische Abwägungen. Wir nehmen Abwägungen und Prüfungen von Rechtsgrundlagen vor, bewerten Zweckbindung oder Verhältnismäßigkeit. Denn alles das, was der Europäische Datenschutzbeauftragte entscheidet, kann auch vor Gericht überprüft werden. Daher brauchen wir Juristen, die sicherstellen, dass das gerichtsfest ist.

„Ziemlich bekannt hier in Brüssel“

Constanze Kurz: Wie viele Menschen arbeiten insgesamt beim Europäischen Datenschutzbeauftragten?

Thomas Zerdick: Insgesamt sind wir ungefähr 120 Mitarbeiter. Das klingt viel, ist es aber nicht, weil ungefähr die Hälfte davon beim Europäischen Datenschutzausschuss arbeitet. Das ist eine andere Einrichtung: Der Europäische Datenschutzausschuss ist durch die EU-Datenschutz-Grundverordnung eingerichtet worden und koordiniert alle Datenschutzaufsichtsbehörden in der Europäischen Union. Da gibt es ein Sekretariat, in dem die Kollegen arbeiten.

Constanze Kurz: Ich möchte ein wenig über den Kopf der Behörde reden. In Deutschland ist es häufig so, dass die Bundesdatenschutzbeauftragten, manchmal sogar die Landesdatenschutzbeauftragten, ziemlich bekannt sind, zum Beispiel Peter Schaar oder Ulrich Kelber. Sie waren oft in den Medien vertreten. Sie sind jeweils als eine relativ laute Stimme für den Datenschutz vernehmbar gewesen. Derzeit haben wir Frau Specht-Riemenschneider hier in Deutschland als Bundesdatenschutzbeauftragte. Auch sie hat eine Menge Interviews gegeben, als sie ihr Amt antrat. Wie ist denn das in Europa? Die Aufgaben des Europäischen Datenschutzbeauftragten sind ja anders. Würdet ihr sagen, er ist eine laute Stimme für den Datenschutz oder arbeitet er eher im Hintergrund?

Wojciech Wiewiórowski beim Data Protection Day 2025 in Brüssel.
Wojciech Wiewiórowski beim Data Protection Day 2025 in Brüssel. - Alle Rechte vorbehalten EDPS

Thomas Zerdick: Der derzeitige Europäische Datenschutzbeauftragte, Wojciech Wiewiórowski, ist ziemlich bekannt hier in Brüssel. Das erklärt sich natürlich auch aus dem Aufgabenzuschnitt. Der wichtigste Unterschied zwischen dem Europäischen Datenschutzbeauftragten und den nationalen Aufsichtsbehörden ist die Zuständigkeit: Der Europäische Datenschutzbeauftragte ist ausschließlich zuständig für die EU-Organe und EU-Einrichtungen, also für öffentliche Verwaltung der Europäischen Union. Daher kennt man ihn vielleicht etwas weniger in den Mitgliedstaaten.

Er ist gleichberechtigtes Mitglied im Europäischen Datenschutzausschuss, wo sich alle Aufsichtsbehörden treffen. Wojciech Wiewiórowski trifft sich zum Beispiel regelmäßig mit Louisa Specht-Riemenschneider. Wenn es Entscheidungen gibt, die der Europäische Datenschutzbeauftragte trifft, zum Beispiel gegen die Europäische Kommission oder gegen Europol, sind wir auch in den Medien im Vordergrund. Von daher sehe ich den Unterschied als nicht sehr groß im Vergleich zu den Mitgliedstaaten.

Öffentliche Stellungnahmen

Constanze Kurz: Auch in Europa wird der Datenschutzbeauftragte konsultiert, wenn es um geplante Gesetze geht oder wenn es die angesprochenen Institutionen und deren Evaluierung geht. Er gibt öffentliche Stellungnahmen ab. Wie häufig kommt das vor?

Thomas Zerdick: Ich würde sagen quasi wöchentlich. Das ist ein Unterschied im Vergleich zur nationalen Ebene: Die Europäische Kommission ist verpflichtet, den Europäischen Datenschutzbeauftragten zu konsultieren. Und zwar immer dann, wenn es neue Rechtsakte gibt, die von der Kommission vorbereitet werden, die personenbezogene Daten betreffen.

Das ist also relativ breit, denn das ist heute fast immer der Fall: Digitalisierung, Sicherheit, Migration, Gesundheit, Künstliche Intelligenz, Plattformregulierung, internationale Verträge. Jeweils kommt der Europäische Datenschutzbeauftragte ins Spiel. Er gibt Stellungnahmen oder Kommentare ab, die wir dann veröffentlichen. Und das wird immer mehr.

Constanze Kurz: All diese Themen haben mittlerweile technische Komponenten, alle Datenschutzfragen verbinden sich mit Technikfragen. Was macht das Referat Technik und Privatheit, um eine Stellungnahme mit technischem Wissen zu bereichern? Wie läuft die Zusammenarbeit mit den Juristen?

Robert Riemann.
Robert Riemann.

Robert Riemann: Wenn beispielsweise ein neuer Rechtsakt vorbereitet und dazu formell die Stellungnahme vom Europäischen Datenschutzbeauftragten eingeholt wird, dann koordiniert das ein Referat. Sie schauen im Haus, wer die Kompetenzen hat, um die Arbeit zu unterstützen. Sobald klar wird, dass es tatsächlich etwas sehr Technisches ist, das so von einer Abteilung noch nicht bearbeitet wurde, dann gibt es eine Anfrage an das Referat Technik und Privatheit, um eine Person zur Unterstützung zu benennen. Diese Person arbeitet dann gleichberechtigt mit den Juristen zusammen an der Stellungnahme.

Constanze Kurz: Das klingt wie typische wissenschaftliche Arbeit, um eine Technik zu ergründen oder Technikfolgen abzuschätzen. Gibt es eine Zusammenarbeit mit akademischen Forschern oder Sachverständigen, die man sich dazu holt?

Robert Riemann: Für dieses Beispiel eines Rechtsakts wird typischerweise keine externe Expertise hinzugezogen. Aber natürlich ist es so, dass die Leute das Thema recherchieren. Bevor ein Vorschlag der Kommission auf den Tisch kommt, werden häufig die Themen schon in der Öffentlichkeit angesprochen. Wenn sich Forscher oder auch NGOs wie EDRi oder Interessenverbände in Brüssel mit eigenen Stellungnahmen äußern, werden die natürlich gelesen. Insofern gibt es schon einen Einfluss auf das, was intern diskutiert wird. Aber es ist nicht so, dass der Europäische Datenschutzbeauftragte für den Fall einer Beantwortung dieser Anfragen der Kommission für eine Stellungnahme die Meinung von außen explizit einholen würde.

Lange über die eigentliche Amtszeit hinaus

Constanze Kurz: Jetzt gibt es für den Amtsträger gerade eine besondere Situation, die mit der Benennung des Europäischen Datenschutzbeauftragten verbunden ist. Denn der derzeitige Amtsinhaber arbeitet schon lange über seine Amtszeit hinaus, die fünf Jahre beträgt. Die Amtszeit endete eigentlich am 5. Dezember 2024. Aber es gab die Situation, dass sich der EU-Rat und das EU-Parlament nicht im Einvernehmen auf einen neuen Kandidaten geeinigt haben, sondern zu unterschiedlichen Voten gekommen sind. Wie verläuft das Auswahlverfahren, warum kam es diesmal zu diesem Stillstand und was kann man jetzt machen?

Thomas Zerdick: Die Datenschutzgrundverordnung für die EU-Organe regelt das. Der Europäische Datenschutzbeauftragte hat eine Amtszeit von normalerweise fünf Jahren und ist zu benennen im Einvernehmen zwischen dem europäischen Parlament und den Mitgliedstaaten im Rat der EU. Nach Ablauf der Amtszeit macht die Europäische Kommission eine Ausschreibung, da kann sich jeder bewerben. Dann werden die Bewerber von der Europäischen Kommission geprüft und die Liste mit geigneten Kandidaten veröffentlicht. Von dieser Liste müssen sich dann das Parlament und der Rat für eine Person entscheiden. Diesmal haben sie sich noch nicht entscheiden können. Das ist nicht neu, das gab es leider schon mal. Aber die EU-Datenschutzgrundverordnung für die Organe, die sagt: Solange es keinen neuen Amtsinhaber gibt, bleibt der alte im Amt und hat alle Rechten und Pflichten. Also solange die sich nicht einigen, macht der jetzige Amtsinhaber einfach weiter.

Constanze Kurz: Und wenn sie sich niemals einigen, dann bleibt er einfach für immer im Amt? Oder gibt es irgendeine Frist, die bis zum Zeitpunkt eine Einigung bestehen muss?

Thomas Zerdick: Es gibt keine Frist. Das sieht die Verordnung nicht vor.

Constanze Kurz: Und wenn der Amtsträger irgendwann keine mehr Lust hat?

Thomas Zerdick: (lacht) Das sieht die Verordnung auch nicht vor.

Robert Riemann: Das ist auch kein europäischer Sonderfall, sondern diese Situation gibt es auch in den Mitgliedsländern. Ich denke da in Spanien, wo es auch Schwierigkeiten gab, ein neues Mandat zu verabschieden. Auch in einigen Bundesländern in Deutschland gab es lange Zeit Unklarheit, wer das Mandat bekommt. Insofern ist das leider etwas, was man in Europa häufiger beobachten muss.

Constanze Kurz: Würdet ihr einen Tipp abgeben, wie sich dieser Stillstand auflösen wird oder wann sich diese beiden Institutionen vielleicht einigen könnten? Was sagen denn die Auguren?

Thomas Zerdick: Die Auguren sagen derzeit nichts. Wir können dazu nichts sagen, weil es in der Hand vom Parlament und vom Rat ist, die sich zusammensetzen und eine Lösung finden müssen.

Wie Kommission und Datenschutzbeauftragter zusammenarbeiten

Constanze Kurz: Ich möchte euch nach dem typischen Ablauf befragen, wenn der Europäische Datenschutzbeauftragte tätig wird. Wir nehmen mal ein ganz umstrittenes Beispiel: die Chatkontrolle. Wie wurde hier der Europäische Datenschutzbeauftragte involviert? Die Kommission hat ja vor mehr als drei Jahren den Vorschlag dazu vorgelegt. Wie ist die typische Vorgehensweise, wenn eine Konsultation beginnt, die ja stattfinden muss?

Thomas Zerdick: Die Europäische Kommission arbeitet ihren Vorschlag aus. Bevor sie diesen Vorschlag veröffentlicht, gibt es eine interne Abstimmung in der Europäischen Kommission. Gleichzeitig mit dieser internen Abstimmung werden wir als Amt informell unterrichtet und können dann bereits erste kleine Kommentare abgeben. Sobald die Kommission ihren Gesetzgebungsvorschlag veröffentlicht hat, leitet sie ihn ganz amtlich dem Europäischen Datenschutzbeauftragten zu, mit der Bitte um Stellungnahme.

Dann setzen sich die Kolleginnen und Kollegen aus dem Referat Politik und Gesetzgebung zusammen, analysieren den Vorschlag der Kommission und schreiben die Stellungnahme, die dann vom Europäischen Datenschutzbeauftragten veröffentlicht wird. Mit dieser Stellungnahme kann der Gesetzgeber – das Parlament und der Rat der EU-Mitgliedstaaten – dann arbeiten. Damit erschöpft sich normalerweise das Offizielle, das Amtliche des Europäischen Datenschutzbeauftragten. Aber er ist natürlich jederzeit bereit, auch zu Anhörungen zu kommen und vorzutragen, was in dieser Stellungnahme steht.

EU-Datenschutzbeauftragter gegen wahlloses Scannen bei freiwilliger Chatkontrolle

Constanze Kurz: Das war jetzt das Beispiel der Chatkontrolle. Wird für jedes dieser Verfahren die Stellungnahme öffentlich oder gibt es auch welche, wo das nicht der Fall ist?

Thomas Zerdick: Die Stellungnahmen sind grundsätzlich öffentlich.

Constanze Kurz: Nun wurden ja gerade beim Beispiel Chatkontrolle auch neue technische Fragen aufgeworfen. Da geht es um massenhaftes Scannen oder darum, wie beispielsweise Filter funktionieren. Wie wird technische Expertise einbezogen?

Robert Riemann: Das Referat Politik und Gesetzgebung identifiziert die technischen Themen, hier etwa Kryptographie und Pseudonyme, und schickt eine Anfrage an das Referat Technik. Mein Referatsleiter bekommt das dann auf seinen Schreibtisch und sucht sich eine Person aus seinem Team, die schon in den letzten Jahren zu dem Thema gearbeitet hat. Sie wird dann mitarbeiten und den Juristen Frage und Antwort stehen.

Wir sind in unserer Technikergruppe fünfzehn Leute und müssen zusammen alle Datenschutzthemen abdecken können. Das heißt beispielsweise, dass wir uns zu Pandemiezeiten mit Bluetooth-Tokens beschäftigt haben und zu Blockchain-Zeiten alle Blockchain-Expertinnen wurden. Das ist wirklich breit gefächert. Wir können natürlich nicht auf dem Niveau Expertise anbieten, wie das die Universitäten teilweise können oder auch spezielle Organisationen, die nur ein Kernthema haben. Das bedeutet, dass wir natürlich viel Recherche am Schreibtisch machen, um einen fundierten Beitrag zu einer Stellungnahme zusammen mit den Juristen zu erarbeiten.

Constanze Kurz: Das ist also der Ablauf für den Fall einer Stellungnahme, die der Europäische Datenschutzbeauftragte allein abgibt. Aber was passiert, wenn auch der Europäische Datenschutzausschuss angehört wird?

Robert Riemann: Der Europäische Datenschutzbeauftragte ist ja Teil des Europäischen Datenschutzausschusses. Das heißt, er bringt sich dort in fast allen Themen ein. Beim Europäischen Datenschutzausschuss gibt es mehrere Fachgruppen. Dazu gehört die Technology Experts Sub-Group, also eine Expertengruppe zu Technologiefragen. Dahin dürfen alle Mitgliedsländer, die im Europäischen Datenschutzausschuss vertreten sind, eine Person entsenden, die sich dort zu Themen einbringen kann.

Soll eine Stellungnahme erarbeitet werden, meldet sich ein Mitgliedsland freiwillig und leitet dieses Projekt federführend. Personen, die daran mitarbeiten, bilden eine Art Schreibteam und treffen sich beispielsweise alle zwei Wochen, um einen ersten Entwurf vorzubereiten.

Technische Fragen landen wahrscheinlich bei dieser Expertengruppe für Technologiefragen. Deutschland hat eine gewisse Sonderrolle, weil es ja nicht nur Mitarbeiter von der Bundesbeauftragten für den Datenschutz hat, sondern auch Mitarbeiter in den Landesdatenschutzbehörden. Zusätzlich gibt es deswegen auch noch einen deutschen Prozess, der festlegt, wer in welcher Gruppe zu welchem Thema mitarbeitet. Am Ende arbeiten dann ein Technologieexperte aus Spanien, einer aus Italien, einer aus Hessen und dann vielleicht noch jemand aus Finnland mit.

Deren Entwurf wird zunächst in der Expertengruppe für Technologiefragen vorgestellt. Sie trifft sich monatlich, seit der Corona-Pandemie online und zweimal im Jahr auch mit einen Pflichtpräsenztermin, so dass man sich ein bisschen kennenlernen kann. An einem Tag werden dann alle Themen einmal durchgearbeitet. Wenn dann die Expertengruppe mit einem Entwurf zufrieden ist und annimmt, dass er mehrheitsfähig ist, dann kann das theoretisch schon der Plenarsitzung mit allen Aufsichtsbehörden vorgelegt werden. Aber bei sehr komplexen Fragen holt man die juristische Perspektive vorher hinzu.

Thomas Zerdick: Das klingt alles sehr kompliziert, aber ist es eigentlich nicht. Es ist ein typisches Beispiel, wie Europa zusammenarbeitet. Denn in diesen Expertengruppen sitzen eben Vertreter aller Datenschutzaufsichtsbehörden aus ganz Europa. Da werden täglich Kompromisse geschmiedet, Ansichten ausgetauscht und versucht, eine einheitliche Auslegung in diesen Datenschutzfragen zu finden.

„Wir haben uns in Europa zum Positiven weiterentwickelt“

Constanze Kurz: Es gibt auch Kritik an diesem Datenschutzausschuss, eigentlich schon an der Vorgängergruppe, damals noch Artikel-29-Gruppe, vor allem weil die Stellungnahmen unverbindlich waren und wegen der teilweise langfristigen Prozesse, die für so einen Konsens wohl dazugehören. Wie seht ihr diese Kritik?

Thomas Zerdick: Die Kritik kenne ich seit über zwanzig Jahren. Vorher wurde sich beschwert, dass die Artikel-29-Gruppe unverbindliche Stellungnahmen abgibt, an die man sich aber halten muss. Das wurde immer beklagt. Jetzt ist es eigentlich umgekehrt: Der Europäische Datenschutzausschuss, der immer noch Stellungnahmen abgibt, trifft inzwischen verbindliche Entscheidungen gegenüber den eigenen Datenschutzaufsichtsbehörden. Nun wird auch das wieder beklagt.

Ich denke, wir haben uns in Europa zum Positiven weiterentwickelt. Wir haben die Datenschutzgrundverordnung, für deren einheitliche Anwendung der Europäische Datenschutzausschuss an der Arbeit ist. Das hat sich jetzt eingespielt, die Entscheidungen kommen auch relativ schnell.

Constanze Kurz: Die Datenschutzgrundverordnung ist ein EU-Gesetz, das Wirkung entfaltet in allen EU-Ländern und das Grundrecht regelt, was man in Deutschland oft informationelle Selbstbestimmung nennt. Aus meiner Sicht gab es damals eine bestimmte politische Situation, in der es möglich war, die Datenschutzgrundverordnung tatsächlich zum Gesetz zu machen. Doch heute wird der Datenschutz ein bisschen anders betrachtet: Gerade kann man das an dem sogenannten digitalen Omnibus sehen, wo versucht wird, die Datenschutzgrundverordnung zu verändern. Datenschutz scheint aktuell nicht gerade ein hippes Thema zu sein und wird auch in Deutschland manchmal als Innovationsbremse diskreditiert, zumindest von der aktuellen Regierung. Was haltet ihr von den Vorschlägen, die jetzt im digitalen Omnibus besprochen werden?

Thomas Zerdick: Wieso reden wir denn über den Datenschutz in Europa? Weil die europäische Grundrechte-Charta, also praktisch die Verfassung von Europa, den Datenschutz ausdrücklich als Grundrecht stützt. Das ist eine feste Sache, an der man nicht vorbeikommt. Die Auswirkung dieses Grundrechts ist, dass die EU verpflichtet ist und die Mitgliedstaaten ebenso, dieses Grundrecht zu schützen und Regeln dafür zu schaffen, wie man das am besten macht.

Das hat die Europäische Union schon seit 1995 gemacht. Und es gibt seit 2016 die Datenschutzgrundverordnung, die versucht zu sagen, was die Regeln sind, um mit personenbezogenen Daten umzugehen. Das war der erste große EU-Rechtsakt, der im digitalen Feld spielt – ein Meilenstein.

Jetzt haben wir den digitalen Omnibus, der versucht, an dem Text der Datenschutzgrundverordnung Änderungen vorzunehmen. Ich denke nicht, dass man sagen kann, das Ganze wird in Frage gestellt. Das geht nicht, weil die EU-Grundrechte-Charta diesen Schutz des Grundrechts Datenschutz einfordert. Der Europäische Datenschutzausschuss und der Europäische Datenschutzbeauftragte arbeiten gerade an einer Stellungnahme für diesen digitalen Omnibus.

Constanze Kurz: Da drängt sich eine Frage auf: Angenommen, es bestehen rechtliche Differenzen, also eine Stellungnahme des Europäischen Datenschutzbeauftragten bewertet rechtliche Fragen anders als beispielsweise die EU-Kommission. Wie ist dann der weitere Verlauf? Kann die EU-Kommission das auch einfach ignorieren? Muss sie bestimmte Elemente aus den Stellungnahmen aufnehmen?

Thomas Zerdick: Kein Mensch ist verpflichtet, uns zuzuhören, um es mal ganz krass zu sagen. Aber das ist natürlich Expertise und Datenschutzwissen, was wir herantragen. Das ist die ureigenste Aufgabe einer unabhängigen Datenschutzaufsicht, dieses Wissen weiterzugeben und zu sagen, was unsere Auslegung, unser Verständnis von einem Vorschlag ist.

Wir wissen, dass sowohl die Kommission als auch die Mitgliedstaaten als auch die Abgeordneten im Europäischen Parlament sehr wohl lesen, was vom Europäischen Datenschutzbeauftragten geschrieben wird. Aber rechtlich verbindlich ist das nicht.

Constanze Kurz: In Deutschland ist es häufig so, dass zum Beispiel bei Bundestagsgesetzgebungsprozessen die Bundesdatenschutzbeauftragte hinzugezogen wird. Aber die Gesetzesvorschläge müssen auch nicht unbedingt die Meinung der Bundesdatenschutzbeauftragten übernehmen. Am Ende landen in Deutschland dann einige Gesetze vor dem Bundesverfassungsgericht, wo wiederum die Bundesdatenschutzbeauftragte als Sachverständige an der Urteilsfindung mitwirkt. Wie ist das in Brüssel, wo ja auch viele Gesetzgebungsverfahren am Ende beim Europäischen Gerichtshof landen? Tritt dort der Europäische Datenschutzbeauftragte auch als Sachverständiger auf, wenn darüber gestritten wird, ob ein Gesetz mit der EU-Charta in Einklang ist?

Thomas Zerdick: Ja, durchaus. Das liegt dann beim Europäischen Gerichtshof, er kann uns als Sachverständigen beiladen. Das ist auch bereits passiert. Ich war selber persönlich zu einem Fall dort, wo es um die Vorratsdatenspeicherung ging. Der Europäische Gerichtshof lädt uns dann ein und stellt Fragen, die wir zu beantworten haben, erst schriftlich oder auch in der mündlichen Verhandlung in Luxemburg.

Software auf code.europa.eu

Constanze Kurz: Wie wird der Europäische Datenschutzbeauftragte noch hinzugezogen?

Thomas Zerdick: In laufenden Gesetzgebungsverfahren werden wir oft vom Europäischen Parlament beigeladen oder von Ausschüssen oder auch von einzelnen Abgeordneten im Europäischen Parlament. Auch der Rat der Europäischen Union lädt ab und zu den Europäischen Datenschutzbeauftragten ein, wenn zu gewissen Punkten Stellungnahmen abzugeben sind.

Robert Riemann: Es kann vorkommen, dass eine nationale Datenschutzbehörde einen Beschwerdefall hat oder auch ein Unternehmen beaufsichtigt und Bedenken hat in der Auslegung der Datenschutzgrundverordnung. In solchen Fällen kann sich die Datenschutzbehörde an den Europäischen Datenschutzausschuss wenden und vorschlagen: Wir haben hier ein interessantes Thema, das nicht nur relevant für unser Land ist, sondern für die ganze Europäische Union. Eine gemeinsame Stellungnahme kann dann in der Plenarsitzung vorgeschlagen und erarbeitet werden. Daran arbeitet natürlich oft auch der Europäische Datenschutzbeauftragte mit.

Thomas Zerdick: Es gibt eine kollegiale Zusammenarbeit mit anderen Aufsichtsbehörden, etwa bei Ergebnissen von Untersuchungen, die wir in Brüssel als Europäischer Datenschutzbeauftragter gemacht haben, zum Beispiel im Fall Europäische Kommission und Microsoft 365. Dann können die Kollegen aus den Mitgliedstaaten sagen, bitte teilt mit uns auf dem Amtswege eure Erkenntnisse, damit wir davon lernen können. Das ist unser tägliches Brot.

Robert Riemann: Es gibt auch internationale Kooperationen in anderen Themenbereichen: Software entwickeln wir zum Beispiel gemeinsam. Und über die Grenzen in Europa hinweg entwickeln wir auch Methoden, um technische Audits durchzuführen. Wir haben dazu auf code.europa.eu Software, die auch Unternehmen benutzen können, bevor die Datenschutzbehörden sie einsetzen. Darüber hinaus gibt es seit zwei, drei Jahren auch jedes Jahr Workshops, wo Techniker nach Brüssel kommen, um sich auszutauschen.

Die Juristen haben das schon länger gemacht. Nun ist der Austausch nicht mehr nur auf Rechtsfragen beschränkt, sondern findet auch zu technischen Fragen statt, auch teilweise zu ganz praktischen Fragen.

Constanze Kurz: Ist das also eine neuere Entwicklung, wenn das erst seit zwei oder drei Jahren stattfindet?

Robert Riemann: Genau. Die Datenschutzbehörden der EU-Staaten sind häufig sehr klein. Der Europäische Datenschutzausschuss hat in seinem Jahresbericht veröffentlicht, wie viele Mitarbeiter in den einzelnen Ländern mitarbeiten. In Deutschland haben wir natürlich einen Luxusfall, ungefähr 1.000 Menschen arbeiten hier über die verschiedenen Landesbehörden verteilt. Aber es gibt eben auch Länder wie Liechtenstein, wo es nur wenige Personen sind, die aber auch viele technische Lösungen abdecken können müssen. Insofern sind wir darauf angewiesen, effizient zusammenzuarbeiten und uns über unsere Ansätze nicht nur zu Rechtsfragen, sondern auch zu technischen Fragen auszutauschen.

„Die Kritik am Datenschutz ist eigentlich eine deutsche Kritik“

Constanze Kurz: Wir haben ja in den letzten Monaten seit der zweiten Amtseinführung von Donald Trump erlebt, dass sich die US-amerikanische und die europäische Datensphäre auseinanderentwickeln und dass Digital-Gesetze und Datenschutzgesetze auf europäischer Ebene in den politischen Kampf hineingezogen werden. Wie seht ihr diesen Konflikt, dass die Regeln, die eben häufig für große US-Unternehmen hier in Europa geschaffen wurden, nun unter diesen Vorzeichen in der Spitzenpolitik debattiert und vom US-Präsidenten in ganz klassische Handelskriege reingezogen werden?

Thomas Zerdick: Ganz entspannt. Das gab es schon zu Zeiten der ersten Datenschutzrichtlinie 1995. Schon damals war absehbar: Wenn sich Europa entscheidet, Datenschutzvorschriften einzuführen, weil es ein Grundrecht ist, betrifft das Wirtschaftsinteressen insbesondere der US-amerikanischen Konzerne. Schon damals war sehr viel Politik im Spiel, und das war nichts anderes, als dann die Datenschutzgrundverordnung verhandelt wurde. Da kamen die Amerikaner schon sehr früh zur EU-Kommission und haben vorgeschlagen: Macht das doch mal anders, macht das noch mal weniger scharf. Es war letztlich ironischerweise die durch Edward Snowden ausgelöste Affäre, die dann auf europäischer Seite dazu geführt hat, zu sagen: Das geht uns zu weit, wir brauchen jetzt scharfe europäische Datenschutzvorschriften.

Aus Brüsseler Sicht ist das nichts Neues, das ist ganz normal. Schlecht wäre es natürlich, wenn dem Druck nachgegeben würde. Das kann ich mit dem europäischen Grundrechtscharakter des Datenschutzes schlecht vereinbaren, wenn wir plötzlich sagen würden: Ja, wir haben jetzt Gesetze, aber wir wenden sie nicht an, weil es US-amerikanische Konzerne sind.

Constanze Kurz: Als Deutsche bin ich seit vielen Jahren vertraut mit den Datenschutzdiskussionen, die häufig öffentlich geführt werden. Die Chatkontrolle wäre dafür ein Beispiel oder die Vorratsdatenspeicherung. Die deutsche Öffentlichkeit räumt dem Grundrecht auf informationelle Selbstverstimmung einen Wert ein. Auch die Verfahren, die beim Bundesverfassungsgericht geführt werden, erfahren oft eine große Öffentlichkeit. Das ist aber nicht in allen europäischen Ländern so. Wie seht ihr die Diskrepanzen bei der Wahrnehmung dieses Grundrechts in Europa?

Thomas Zerdick: Das erklärt sich zum Teil aus den geschichtlichen Unterschieden. Aber es ist ja ein großer Konsens vorhanden: Datenschutz existiert und ist auch ein Grundrecht in allen europäischen Mitgliedstaaten. Das ist also nicht anders als in Deutschland. Und die Grundlage der Zusammenarbeit zumindest bei den Aufsichtsbehörden ist eben die Datenschutzgrundverordnung.

Man muss auch sagen, dass Deutschland – derzeit zumindest – ziemlich allein dasteht, weil die Kritik am Datenschutz eigentlich eine deutsche Kritik ist. Das ist ganz merkwürdig. Diese großflächigen Spitzen gegen den Datenschutz hört man aus anderen Mitgliedstaaten so nicht. Im Gegenteil, das wird dort einfach gemacht und umgesetzt, und dann ist gut.

Bundesregierung sägt am Datenschutz

Kurz und knappe Informationen zu dem, was der Datenschutzbeauftragte macht

Constanze Kurz: Gibt es etwas, was ihr für den Europäischen Datenschutzbeauftragten für die Zukunft wünschen würdet? Was wäre notwendig oder würde die Effizienz oder die Qualität der Arbeit sehr verbessern?

Robert Riemann: Meine Wünsche wären gar nicht so spezifisch nur für Datenschutzbehörden, eher allgemein für Behörden. Wir hatten beispielsweise beim Europäischen Datenschutzbeauftragten schon früh eine digitale Akte. Das hat während der Corona-Pandemie unheimliche Vorteile gehabt. Aber ich denke, generell könnte man noch viel mehr durch Automatisierung von Prozessen erreichen. Ich wünsche mir, dass wir Dashboards haben, um Fallmanagement zu machen, und zwar nicht für jedes Land einzeln, sondern am besten eines, was für alle Datenschutzbehörden funktionieren würde. Sowas haben wir momentan nicht.

Ich würde mir auch wünschen, dass es eine digitale Strategie gibt, die nicht nur national denkt, sondern auch europäisch. Und ich denke, es fehlt uns an vielen Standardisierungsprozessen. Das ist schwer in Gang zu bringen, weil die Datenschutzbehörden nur wenige Informatiker haben und das Geld knapp ist. Insofern ist es nicht klar, wie sich das demnächst verbessern könnte.

Thomas Zerdick: Ich würde mich Robert anschließen. Warum? Natürlich hat ein Amt wie der Europäische Datenschutzbeauftragte nie genug Mitarbeiter und nie genug Geld. Das wird sich in absehbarer Zeit auch nicht ändern. Aber was uns gut zu Gesicht stände, wäre eine bessere Automatisierung von Prozessen.

Nur ein Beispiel: Wir bearbeiten natürlich auch Eingaben und Beschwerden von Bürgerinnen und Bürgern. Und wir sehen gerade in der letzten Zeit eine 140-prozentige Steigerung dieser Beschwerden auf uns zukommen. Warum? Weil die Leute, die sich beschweren, zu generativer KI greifen und sich eine Beschwerde beispielsweise an die Europäische Kommission generieren lassen und sie direkt an den Europäischen Datenschutzbeauftragten schicken. Wir brauchen hier sozusagen Waffengleichheit, wir müssen auch praktisch KI-gestützte Anwendungen zur Verfügung haben, um vielleicht besser und effizienter arbeiten zu können.

Wir sind ja auch gleichzeitig Aufsichtsbehörde für KI-Systeme von den europäischen Organen. Das heißt, wir haben eine Doppelaufgabe: nicht nur Datenschützer, sondern auch KI-Aufsicht. Ich sehe die Notwendigkeit, dass wir die zugrundeliegende Technik verstehen und auch Kolleginnen und Kollegen dafür einstellen, die das beaufsichtigen können.

Kein Tracking, keine Werbung

Du vermeidest Meta? Besuche den Mastodon-Account von netzpolitik.org. Unterstütze unsere Arbeit!

Constanze Kurz: Wenn sich jemand nun noch mehr interessiert für den Europäischen Datenschutzbeauftragten, wo holt man sich mehr Informationen?

Thomas Zerdick: Auf unserer Homepage edps.europa.eu findet man alles, was das Herz begehrt, insbesondere auch kurz und knappe Informationen zu dem, was wir machen und auch zur Technik und zu neuen Technologien, aber auch unsere Entscheidungen. Podcasts gibt es auch!

Robert Riemann: Ich möchte noch eine weitere Möglichkeit erwähnen, wie man uns folgen kann: Der Europäische Datenschutzbeauftragte hat einen Mastodon-Account.

Constanze Kurz: Ich möchte mich bedanken für die Zeit, die ihr euch genommen habt, und für die Einblicke, die ihr gegeben habt. Vielen Dank für das Gespräch!


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

KI-Risiken: Breites Bündnis warnt vor verwässerten KI-Regeln

08. April 2026 um 17:16

Die geplante „Vereinfachung“ der europäischen KI-Verordnung könnte den Schutz von Verbraucher:innen vor der Technologie erheblich schwächen. Ein breites Bündnis von 32 Organisationen warnt insbesondere vor Lücken bei Medizingeräten und Spielzeug.

Sollten Transparenzregeln nicht mehr gelten, könnten Patient:innen den Einsatz von KI in Medizingeräten womöglich nicht mehr nachvollziehen. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Mathew Schwartz

Die Sorge ist groß, dass die geplante „Vereinfachung“ der europäischen KI-Regeln zu deren Aushöhlung führen könnte. Davor warnt die europäische Verbraucherschutzorganisation BEUC gemeinsam mit 31 anderen Organisationen in einem gemeinsamen Brief an die Verhandler des sogenannten KI-Omnibusses: die EU-Kommission, die zypriotische Ratspräsidentschaft und die Berichterstatter:innen des Europaparlaments Arba Kokalari (EVP) und Michael McNamara (Renew).

Die unterzeichnenden Organisationen vertreten neben Verbraucher:innen und der Zivilgesellschaft auch Ärzt:innen, Krankenhäuser und Gesundheitsdienste, Prüfstellen wie den TÜV sowie die Wissenschaft. Sie befürchten, dass in den aktuellen Trilog-Verhandlungen zwischen EU-Parlament, den EU-Ländern und der Kommission zentrale Elemente der KI-Verordnung zur Diskussion gestellt werden könnten. Die angestrebte Vereinfachung dürfe nicht auf Kosten des Verbraucherschutzes und der Grundrechte gehen, bekräftigt der Brief.

Im Zentrum der Kritik steht eine mögliche Änderung, die das Europäische Parlament in die laufenden Trilog-Verhandlungen einbringt: Bestimmte Sektoren sollen aus dem unmittelbaren Anwendungsbereich der KI-Verordnung ausgenommen werden, darunter Medizintechnik, Funkgeräte, Spielzeug und Maschinen. Abgeordnete und Industrievertreter argumentierten, dass diese Produkte schon unter eigene Sicherheitsvorschriften fallen würden und die Hersteller ansonsten einem doppelten Aufwand ausgesetzt seien.

Zivilgesellschaft warnt vor Lücke

Die Autor:innen des Briefs sehen dies anders: Sie betonen, dass die KI-Verordnung spezifische KI-Risiken reguliere, die in den sektorspezifischen Regeln nicht behandelt würden. Dazu zählen etwa Diskriminierung, Intransparenz und die kontinuierliche Veränderung der Systeme. Durch die Ausnahmen würde eine Regulierungslücke entstehen.

Als Beispiel für die möglichen Nachteile dieser Änderung für Verbraucher:innen nennen sie Medizingeräte. Diese würden zunehmend über KI-Funktionen verfügen, die bei der Diagnose, Behandlung oder Überwachung von Patient:innen zum Einsatz kommen würden. Die derzeitigen sektoralen Regeln für Medizingeräte würden KI-spezifische Risiken aber nicht ausdrücklich berücksichtigen. Ähnliches gelte für Kinderspielzeug.

Die Organisationen bekräftigen darüber hinaus, dass die Regulierung durch diese Änderung komplexer würde statt einfacher. Erstens würde Unsicherheit darüber entstehen, welche KI-Systeme weiterhin der EU-Verordnung unterliegen. Zweitens würde sich die Regulierung zersplittern: Anstatt ein einziges Gesetz für KI zu haben, würden die unterschiedlichen sektoralen Regulierungen gelten. Sollten KI-Risiken dort nachträglich ergänzt werden, müssten womöglich Dutzende Gesetze geändert werden.

Ein fragmentierter und unnötig komplexer Regulierungsrahmen würde nur die Rechtsunsicherheit erhöhen, warnt der Brief: „In einer Zeit, in der die EU bestrebt ist, das Vertrauen in KI zu stärken und ihre technologische Souveränität zu festigen, ist die Wahrung des Vertrauens in einen kohärenten und effektiven Rahmen für die KI-Governance von entscheidender Bedeutung.“

Ergebnis bis Ende April

Beim KI-Omnibus hat die EU bislang ein hohes Tempo vorgelegt. Im November von der EU-Kommission vorgestellt, haben die EU-Länder sowie das Parlament im März ihre jeweiligen Verhandlungspositionen festgezurrt. Ende März fand bereits das erste Trilog-Treffen statt. Aktuell verhandeln die EU-Institutionen in technischen Meetings miteinander, schon am 28. April wollen sie sich auf den finalen Kompromiss einigen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kafka und Künstliche Intelligenz: Die Sehnsucht nach totaler Souveränität

08. April 2026 um 10:18

Mit Hilfe von KI-Agenten sollen Einzelpersonen schon bald Unternehmen mit Milliardenbewertung aufbauen. Das klingt verführerisch, weil es einer prometheischen Sehnsucht nach totaler Souveränität schmeichelt. Allerdings wusste schon Franz Kafka, dass Ein-Personen-Unicorns mythische Wesen sind.

Ein Gemälde, das einen Mann mit Bart zeigt, der eine Fackel hoch hält.
Prometheus gab den Menschen die Kontrolle übers Feuer und büßte dafür. – Gemeinfrei Heinrich Füger, Prometheus bringt den Menschen das Feuer (1817)

Am 18. Februar 1922 notierte Franz Kafka in sein Tagebuch eine Miniatur, die wie so vieles aus seiner Feder auf den ersten Blick komisch wirkt und auf den zweiten unheimlich. Ein Theaterdirektor, der alles von Grund auf selbst schaffen muss – sogar die Schauspieler muss er erst zeugen. Ein Besucher wird nicht vorgelassen, der Direktor sei mit wichtigen Theaterarbeiten beschäftigt. Und was tut er? Er wechselt die Windeln eines künftigen Schauspielers.

Man lacht kurz. Dann hört man auf.

Die totale Kontrolle über den Produktionsprozess kehrt sich in die Selbstauflösung des Produzenten um. Wer alles selbst erschaffen will – Stück, Bühne, Ensemble –, landet zwangsläufig bei der Windel. Wie man aus der wunderbaren Kafka-Biographie von Reiner Stach lernen kann: Ambition und Absurdität sind bei Kafka keine Gegensätze.

Als Schriftsteller war Kafka jemand, der Nacht für Nacht sein ganzes Ensemble allein erschaffen musste, neben dem Bürojob in der Arbeiter-Unfall-Versicherungsanstalt. Er wusste, dass der kreative Absolutismus seinen Preis hat: Man ist bis zum Umfallen beschäftigt. Mit dem, was gerade nötig ist, damit die Sache irgendwann und irgendwie weitergeht. Und dann fällt einem das nächste Problem auf.

Der Gründer als vollständiges Ensemble

Ich kenne diesen Tagebucheintrag aus Nicolas Mahlers Band „Kafka für Boshaft“. Seit Monaten lese ich ihn immer wieder. Konkret: Seit Sam Altman und andere Vordenker der Branche die Prophezeiung ausgaben, dass Einzelpersonen mit Hilfe von KI-Agenten bald Unternehmen mit Milliardenbewertung aufbauen würden. Das Stichwort lautet Ein-Personen-Unicorns. Übersetzt: Der Gründer als vollständiges Ensemble, als Entwickler, Designer, Vertriebler, Buchhalter und Marketingstratege zugleich, verstärkt durch eine Armee von Sprachmodellen, die gehorsam Code generieren und Kunden kontaktieren.

Diese Prophezeiung ist verführerisch, weil sie einer uralten, prometheischen Sehnsucht nach totaler Souveränität und Kontrolle schmeichelt. Kein Team, das koordiniert werden will. Keine menschlichen Eigenheiten, die berücksichtigt werden müssen. Keine lästigen Kollegen, die anderer Meinung sind. Nur man selbst, die Bühne und die Modelle. Das klingt nach Befreiung. Es riecht nach Windel. Kafka, so ist mir beim Lesen aufgefallen, hat sein Stück hundert Jahre zu früh aufgeschrieben.

Denn Kafkas Direktor ist ja nicht deshalb lächerlich, weil sein Vorhaben scheitert – er scheitert im Tagebucheintrag ja gar nicht. Er ist lächerlich, weil die innere Logik seines Ehrgeizes ihn unausweichlich dorthin geführt hat: zur Windel. Wer lückenlose Kontrolle anstrebt, muss die Schauspieler selbst zeugen; wer sie selbst zeugt, muss auch für sie sorgen. Die Allmacht endet im Pflegeheim der eigenen Schöpfung.

Was der Mensch (ver)lernt

Das weist auf einen blinden Fleck hin, der in der aktuellen Euphorie um Solo-Coder und ihre KI-Agenten in den sozialen Medien oft übersehen wird. Nicht die Frage, ob diese Werkzeuge produktiv sind – das sind sie, oft beeindruckend –, sondern die Frage, was der Mensch dahinter dabei lernt oder verlernt. Sprachmodelle produzieren auf Zuruf: Code, Marktanalyse, Pitch-Deck. Aber sie wissen im strengen Sinne gar nichts. Der Direktor hat ein glänzendes Ensemble gezeugt; ob es spielen kann, erfährt er erst, wenn der Vorhang aufgeht.

Nehmen wir den KI-Bühnenbildner: Er kann Ihnen den Unterschied zwischen Preußischblau und Kobalt in drei Absätzen erklären. Aber er scheitert daran, ein Objekt auf der Bühne zu lokalisieren, das nicht dort ist, wo er es erwartet. Die jüngste Forschung zu multimodalen Sprachmodellen zeigt genau das: Selbst die leistungsfähigsten Systeme erzielen beim visuellen Grounding – dem schlichten Auffinden eines Gegenstandes im Bild – erschreckend niedrige Trefferquoten; bei Aufgaben, die das Erkennen von Abwesenheit erfordern, versagen die meisten vollständig. Was Kognitionswissenschaftler das Binding-Problem nennen, ist in der Praxis vernichtend: Das Modell beschreibt, was es zu sehen erwartet. Es sieht nicht. In anderen Worten: Der KI-Bühnenbildner malt aus dem Gedächtnis, nicht aus der wirklichen Anschauung.

Und der Hauptdarsteller? Er kommt manchmal, wenn man ihm richtig zuflüstert („promptet“), auf die richtige Zeile – aber über Wege, die er sich nicht merken kann, weil er sie nicht gegangen ist. Apples Forschungsteam hat das in einer wichtigen Studie nüchtern „The Illusion of Thinking“ genannt: Sogenannte Reasoning-Modelle, die durch verlängerte Denkprozesse besonders zuverlässig wirken sollen, erleiden ab einem bestimmten Komplexitätsniveau einen Genauigkeitskollaps. Bei einfachen Aufgaben übertreffen sie die älteren Modelle nicht einmal. Was bleibt, ist ein Ensemble, das gelegentlich brillant klingt, aber strukturell unzuverlässig ist. Kein Probengedächtnis, keine Replizierbarkeit. Das Paradox setzt sich beim Publikum fort: Studierende, die regelmäßig KI-Assistenten zum Schreiben und Denken nutzen, zeigen messbar schwächere Gedächtnisleistung, geringere kognitive Eigenständigkeit und – besonders ernüchternd – auch dann noch schlechtere Ergebnisse, wenn sie wieder ohne KI arbeiten. MIT-Forscher sprechen von „kognitiver Verschuldung“.

Die Windeln stapeln sich im Fundus.

Wohin eine solche Aufführung führt? Das sieht man am Bild des Hobby-Coders, der zwar engagiert mit Claude Code spielt, sich aber nie die Prinzipien von sauberem Code angeeignet hat. Zweihundert Zeilen, die funktionieren – bis sie es nicht mehr tun. Dann beginnt das Debugging: ein Durchsuchen von generiertem Code, den der Autor nicht mehr versteht, und zunehmend auch nicht das Modell, das beim nächsten Prompt munter darüber hinweg generiert. Laut einer Analyse von 211 Millionen Codezeilen durch GitClear hat sich der sogenannte Code-Churn im KI-Zeitalter verdoppelt, während 45 Prozent des KI-generierten Codes Sicherheitslücken enthält. Dies wird zunehmend von Hackern ausgenutzt. Der Begriff „Vibe Coding“ ist keine zwei Jahre alt und hat bereits eine eigene technische Schuldenkrise produziert, die erst langsam sichtbar wird. Das Theater steht. Die Windeln stapeln sich im Fundus.

Diese Kritik bedeutet nicht, dass die Werkzeuge wertlos wären. Ich selber nutze lokale KI-Modelle gerne und viel, gerade für mühsame Programmieraufgaben. Für technisch versierte Gründer sind KI-Agenten ein Hebel, den frühere Generationen nicht kannten. Manche Windeln nimmt einem das Modell tatsächlich ab. Doch Unicorns heißen nicht umsonst so: mythische Wesen, selten und wunderlich. Ein-Personen-Unicorns wären mythische Wesen zweiter Ordnung. Was manche Influencer in den sozialen Medien als wundersame Programmierprojekte präsentieren, die angeblich an einem Wochenende entstanden sind, sind Ausnahmen aus einer frühen Phase. Alle anderen debuggen noch.

Der Unterschied zwischen Vision und Theater auf dem höchsten Niveau liegt in der Arbeit dazwischen. Nicht in der glamourösen, nicht in der sichtbaren, sondern in der stillen, zeitaufwändigen, ein wenig demütigenden Arbeit, die das Geschehen auf der Bühne am Laufen hält. Ökonomen, die Transformationstechnologien von der Dampfmaschine bis zur Elektrifizierung analysiert haben, nennen das die Komplementaritätsbedingung. Eine Basistechnologie entfaltet ihren Nutzen nicht durch bloße Verfügbarkeit, sondern durch die jahrelange, unsichtbare Reorganisation von Prozessen, Kompetenzen und Institutionen.

Daron Acemoglu hat das für die generative KI konkret beziffert: Selbst unter optimistischen Annahmen dürfte die Technologie das BIP über zehn Jahre um weniger als ein Prozent heben – weil die komplementäre Arbeit, die sie erst produktiv macht, Zeit braucht und konstante Validierung verlangt.

Man wird nicht vorgelassen. Der Direktor ist beschäftigt.

Was er tut? Er wechselt Windeln.

Die KI nimmt einem ein paar davon ab. Vielleicht sogar viele. Aber das Theater baut sie einem nicht.

Anselm Küsters ist Fachbereichsleiter Digitalisierung und Neue Technologien am Centrum für Europäische Politik (cep) in Berlin. Im Sommersemester 2025 und Wintersemester 2025/26 war er zudem Vertretungsprofessor für Digital Humanities an der Universität Stuttgart. Er ist Autor des Buches „Small is beautiful 2.0: Mit digitaler Dezentralisierung zu einer menschlicheren Wirtschaft“, das jüngst im Herder Verlag erschienen ist.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Ältere BeiträgeHaupt-Feeds

Debian bereitet erneut Abstimmung über KI vor

06. März 2026 um 07:23
Von: Ferdinand
Ein bezeichnender Unterschied zwischen proprietärer und freier Software ist, dass, wenn mit Software Geld verdient wird, die Bedenken schnell wegfallen, während bei Freier Software noch diskutiert wird.

Xournal++ adds tablet-friendly toolbar mode

04. März 2026 um 05:31

Xournalpp note taking app.If you take handwritten notes on Linux, chances are Xournal++ is something you’ve tried as its solid feature set and stylus support has earned it a loyal following amongst those who’d rather annotate PDFs or sketch equations than type. One criticism that follows it around is its interface. It’s rather pointer-led; lots of menus, buttons and tiny hit targets in toolbars. It doesn’t prevent you from doing what you opened the app to do – write, draw, scrawl and markup – but it’s not ideal. Well, that’s what a new tablet mode toolbar configuration recently merged in Xournal++‘s development builds […]

You're reading Xournal++ adds tablet-friendly toolbar mode, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without permission.

Kali Linux führt optionale KI-Unterstützung ein

02. März 2026 um 08:02
Von: Ferdinand
Die auf Pen-Testing und ethisches Hacking spezialisierte Distribution Kali Linux bietet seit Kurzem optional die Verwendung von Claude AI über einen eigenen MPC-Server an.

Grundrechte: Wie Polizei und Justiz unsere Meinungsfreiheit einschränken

27. Februar 2026 um 07:38

Noch nie gab es so viele Ermittlungsverfahren und Hausdurchsuchungen wegen bloßer Worte. Heute gelten etliche politische Aussagen als strafbar, die noch vor zehn Jahren ganz klar erlaubt waren. Dabei sollten wir gerade in der gegenwärtigen Lage mehr Meinungsfreiheit wagen.

Zweii Männer und eine Frau sitzen an einem Tisch mit Akten.
Staatsanwälte der Zentralstelle zur Bekämpfung von Hasskriminalität im Internet Niedersachsen. – Alle Rechte vorbehalten CBS, 60 Minutes

Ronen Steinke ist Leitender Redakteur im Politikressort der Süddeutschen Zeitung und Lehrbeauftragter an der juristischen Fakultät der Goethe-Universität Frankfurt am Main. Heute erscheint sein neues Buch Meinungsfreiheit: Wie Polizei und Justiz unser Grundrecht einschränken – und wie wir es verteidigen im Berlin Verlag. Wir veröffentlichen das Vorwort mit freundlicher Genehmigung von Autor und Verlag. Alle Rechte vorbehalten.

Das zentrale Prinzip, auf dem jede Demokratie beruht, die Meinungsfreiheit, entzweit die Demokratien gerade gewaltig. Die USA auf der einen Seite, Europa auf der anderen.

Im Februar 2025 trat auf der Münchner Sicherheitskonferenz der amerikanische Vizepräsident J. D. Vance in einem Luxushotel auf die Bühne in einem Saal voller europäischer Regierungsvertreterinnen und Regierungsvertreter – und schaltete gleich auf Angriff. Europa würge die Meinungsfreiheit ab, behauptete der Amerikaner, dunkler Anzug, blaue Krawatte, ernster Ton. Die größte Bedrohung für Europa heute komme gar nicht mehr aus Russland oder China, sondern „von innen“. Infolge eines, wie Vance es ausdrückte, „Rückzugs Europas von einigen seiner grundlegenden Werte“. Dann belehrte der US-Vizepräsident seine Zuhörer – und besonders seine deutschen Gastgeber – darüber, dass die „Demokratie auf dem heiligen Prinzip ruht, dass die Stimme der Menschen ein Gewicht hat“.

Mit Blick auf die zahlreichen, immer schärfer werdenden europäischen Gesetze gegen sogenannte Hassrede, also solche Dinge wie die staatlichen „Zensurwünsche“ an die Adresse sozialer Medien wie Facebook oder X, die staatlich verordneten Online-Blocker und -Filter, wie sie vor allem Deutschland in den zurückliegenden zehn Jahren stark forciert hat, formulierte der Gast aus den USA: „Firewalls haben da keinen Platz.“ Das Prinzip der Meinungsfreiheit verlange nämlich eine spezielle Fähigkeit von Regierenden: die Fähigkeit, Kritik zu erdulden. „Entweder man hält dieses Prinzip hoch, oder man hält es nicht hoch.“

Entsetzen und Belustigung

Stille herrschte im Saal, europäische Teilnehmer waren für einen Moment sprachlos, und einige erzählten hinterher, wie sie innerlich geschwankt hätten zwischen Gefühlen des Entsetzens, aber auch der Belustigung. Denn, natürlich: Von Leuten wie J. D. Vance, die in ihrer Heimat kritische Journalisten diffamieren, Universitäten unter Druck setzen und Late-Night-Show-Hosts wegmobben, lässt man sich nicht so gern über demokratische Tugenden belehren. Für deutsche Politiker war es ein Leichtes, darauf hinzuweisen, dass der Amerikaner nicht wirklich gut positioniert sei, um über den Respekt vor abweichenden Meinungen zu dozieren.

Immerhin, gerade hatte die Regierung des US-Präsidenten Donald Trump und seines Vizes Vance die Nachrichtenagentur Associated Press achtkantig aus dem Weißen Haus geworfen, weil die Journalisten sich die Freiheit genommen hatten, den Golf von Mexiko weiterhin als „Golf von Mexiko“ zu bezeichnen, während die Trump-Regierung lieber kindisch von einem „Golf von Amerika“ sprechen wollte. Gleichzeitig hatte in den USA der Kampf gegen unliebsame Stimmen, auch mit drastischen Mitteln wie der Durchsuchung von Handys und sozialen Netzwerken nach kritischen Äußerungen gegen Amerikas Verbündeten Israel, gerade erst begonnen.

Sprachtabus in Deutschland

Aber, schrecklicher Gedanke: Was, wenn der Gast aus Amerika dennoch einen Punkt hatte? Der US-Vizepräsident ist schließlich nicht der Erste, der in Bezug auf Europa etwas bemerkt hat, auch Linksliberale in den USA blicken gegenwärtig mit zunehmend mulmigen Gefühlen auf das, was sich in Europa und besonders in Deutschland vollzieht. Von außen sieht man Dinge vielleicht manchmal klarer als von innen: Schon immer war die Bundesrepublik innerhalb der westlichen Welt das Land mit den meisten Sprachtabus, den schärfsten Strafvorschriften gegen bloße Worte, freedom of speech wird hier traditionell kleiner geschrieben als in den USA. Und: In dem Jahrzehnt zwischen 2015 und 2025, in dem die demokratische Kultur sich beiderseits des Atlantiks als äußerst volatil erwiesen hat und die Demokratie in einen Stresstest geraten ist, hat Deutschland sich entschieden, noch einmal deutlich mehr vom selben zu versuchen.

Das heißt, Deutschland hat darauf gesetzt, noch einmal zusätzliche Gesetze zu schaffen sowie auch alte, schon bestehende Gesetze zu verschärfen, um politische Äußerungen stärker zu regulieren und einzuschränken. Der Bundestag hat Strafparagrafen erweitert und vermehrt, der Tatbestand der Volksverhetzung ist gleich in mehrfacher Hinsicht ausgebaut worden, der Tatbestand der öffentlichen Billigung von Straftaten ist so ausgedehnt worden, dass man jetzt schon dafür bestraft werden kann, wenn man Taten „befürwortet“, die allein in der Fantasie spielen. Viele Staatsanwaltschaften haben die Bekämpfung von Hatespeech zu einer neuen Priorität erhoben, sie haben neue, schlagkräftige Teams gegründet, um zu ermitteln und juristische Spielräume auszuschöpfen.

Noch nie hat es hierzulande so viele Ermittlungen wegen bloßer Worte gegeben. Wegen reiner Äußerungsdelikte, wie Juristinnen und Juristen sagen. Die Zahlen der Ermittlungen haben sich in diesem Jahrzehnt – je nachdem, welchen Tatbestand man ansieht – teils verdreifacht, vervierfacht, verfünffacht, bei manchen, früher völlig unbekannten Delikten wie der öffentlichen Billigung von Straftaten sogar verhundertfacht, von jährlich knapp 20 auf 2000. Selbst wegen des Uraltdelikts der Blasphemie, „Beschimpfen von Bekenntnissen“, gab es im Jahr 2024 plötzlich 125 Ermittlungen – ein Rekord. Das liegt zum einen sicher daran, dass das Internet nichts vergisst und Äußerungen dort technisch leichter zu dokumentieren sind als im analogen Raum. Zum anderen aber auch daran, dass die Bereitschaft des Staates, auf Worte mit Verboten und Strafen zu reagieren, groß ist wie nie.

Vulnerable Gruppen schützen

Anfangs ist dies zweifellos aus besten Absichten geschehen. Als es losging mit der härteren Gangart, etwa 2015/16, lautete die Idee, dass man vor allem vulnerable Gruppen besser davor beschützen müsse, niedergebrüllt zu werden. Das ist richtig – ein wichtiger Gedanke. Als etwa die ZDF-Journalistin Dunja Hayali sich im Sommer 2025 zu einem tödlichen Attentat in den USA äußerte, dem Anschlag auf den Rechtsradikalen Charlie Kirk, da prasselten in den sozialen Medien so viele Kommentare auf sie ein, dass einen der Mut zum offenen Wort schon mal verlassen könnte. Hayali hatte unter anderem gesagt, es sei nicht zu rechtfertigen, dass manche Gruppen Kirks Tod feierten – „auch nicht mit seinen oftmals abscheulichen, rassistischen, sexistischen und menschenfeindlichen Aussagen“. Das genügte schon, um manche zu triggern.

„Sie werden bald für ihre Äußerungen bitter bezahlen“, schrieb @gordons_katzenabenteuer auf Instagram an die Journalistin, „Sie haben nur das allerschlimmste verdient. Schauen sie lieber ab jetzt öfter über ihre Schulter.“ Ein Nutzer namens @nocebo_the_mortem schrieb: „Ich hoffe, sie werden auch vor ihrer Familie erschossen“. @jaroabroad pflichtete bei: „Du bist ein Stück Scheiße sondergleichen und die Drohungen sind völlig gerechtfertigt!“ @juki030 schrieb: „Wir werden dich noch hängen sehen!“ @team.114hrc schrieb: „Heul leise du Dre…… Wirst bald die nächste sein“. @volkersuthoff schrieb: „Hoffentlich erschießt dich einer, du miese dreckslesbe!“

Wenn Täter mit solchen Gewaltdrohungen durchkämen, dann bliebe von der Meinungsfreiheit der Bedrohten nicht viel übrig. Zumal solche Attacken oft strategisch sind. Eine Studie der britischen Zeitung The Guardian ergab, dass von den zehn am häufigsten in Online-Kommentaren beleidigten Autorinnen und Autoren der Zeitung acht Frauen waren, vier von ihnen nicht weiß. Die anderen beiden waren schwarze Männer. In Deutschland sind Menschen mit Migrationshintergrund mehr als doppelt so oft von Online-Beschimpfungen betroffen wie andere. Das sind Menschen, die noch nicht sehr lange eine Stimme im politischen Diskurs haben und die aus Sicht der Pöbler wieder „auf ihre Plätze“ verwiesen werden sollen. Dahinter steckt der Wunsch, diese Gruppen gezielt aus dem Diskurs herauszutreiben.

Über Ziel hinausgeschossen

Das ist reaktionär, es ist antidemokratisch. Dagegen braucht es eine Verteidigung. Auch durch den Staat. Aber: Inzwischen ist der deutsche Strafverfolgungsapparat weit über dieses Ziel hinausgeschossen. Zunehmend geht es nicht erst bei Drohungen los, sondern schon bei viel harmloserem Spott. Wird ein Mensch in Deutschland „dämlich“ oder „Schwachkopf“ genannt, dann ist normalerweise klar, dass das keine Staatsanwaltschaft in Bewegung versetzt. Widerfährt das einem Politiker oder einer Politikerin, dann bilden sich gerade neue Maßstäbe heraus. Ein Bürger in Bayern bekam einen Strafbefehl, weil er die Grünen-Politikerin Annalena Baerbock als die „dümmste Außenpolitikerin der Welt“ bezeichnet hatte. Ein Fall für den neuen Strafparagrafen der „Politikerbeleidigung“.

Seit 2021 werden Beleidigung, üble Nachrede und Verleumdung gegen „Personen des politischen Lebens“ in einem einzigen Paragrafen zusammengefasst. Die Zahl der Ermittlungsverfahren, die der Staat auf dieser Grundlage eingeleitet hat, hat sich seither jährlich verdoppelt. 2021 waren es 748, im Jahr darauf schon 1.404. Im Jahr darauf dann 2.598. Und dann, zuletzt, 4.439 Fälle Fälle. Wohlgemerkt: Um Bedrohungen – oder andere Formen von Gewalt – geht es hier nicht.

Wie weit ist zu weit?

Der neue Wind weht scharf: Bis vor zehn Jahren war es noch undenkbar, dass die Polizei im Morgengrauen zu Razzien in Privatwohnungen anrückt, allein weil jemand das juristische Delikt der Beleidigung begangen haben soll, das in der Regel nur zu sehr geringen Strafen führt. Man hätte es für unverhältnismäßig gehalten. Eine Durchsuchung ist ein schwerer Grundrechtseingriff. Heute geschieht dies dagegen laufend, bei „Aktionstagen“ wird gleich an Dutzenden oder gar Hunderten Türen von Tatverdächtigen parallel geklingelt.

Man liest darüber sogar in der New York Times, in Artikeln, deren Autoren allerdings verwundert klingen über die Entwicklung der Meinungsfreiheit auf dem alten Kontinent. „Wie weit kann man gehen, bevor es zu weit geht?“, schrieben zwei Europa-Korrespondenten der Zeitung in einer langen Reportage im September 2022 über die neue Strenge, mit der Deutschland weiter gehe als „jede westliche Demokratie“. How far is too far?

Razzia wegen „Pimmel“

Hausdurchsuchungen erleben nun zunehmend auch Menschen, die im Netz ihre Meinung zu Ereignissen der internationalen Politik äußern. In den aufwühlenden Debatten zum Nahostkonflikt zum Beispiel war dies der Fall. Als ein Mann in München bei Instagram schrieb, dass das Massaker der palästinensischen Terrormiliz Hamas gegen israelische Zivilistinnen und Zivilisten am 7. Oktober 2023 natürlich entsetzlich sei, andererseits aber ein besetztes Volk das „legitime Recht auf Widerstand mit allen notwendigen Mitteln“ habe, genehmigte das Amtsgericht die Beschlagnahme seines Handys und anderer „internetfähiger Endgeräte“. Das kam unerwartet. Dass Menschen in Diskussionen solche kruden Aussagen einwerfen, die förmlich danach rufen, dass andere Menschen ihnen in der Diskussion widersprechen und mit Kontext oder Differenzierung antworten, ist nicht neu. Dass dies solche strafrechtlichen Interventionen nach sich zieht, ist durchaus neu.

In den Debatten zur innerdeutschen Politik ist dies ebenso zu beobachten. So hat etwa ein altgedienter Lokalpolitiker der Grünen in München erlebt, dass ihm verboten wurde, dem bayerischen Vizeministerpräsidenten Hubert Aiwanger von den Freien Wählern vorzuwerfen, dessen „Hetze“ gegen die Grünen ähnele in ihrer Sündenbock-Struktur der einstigen antisemitischen Agitation der Nazis. Der Grünen-Lokalpolitiker bekam dafür seinerseits ein Strafverfahren wegen Volksverhetzung, worüber er sehr staunte, und 2024 sogar schon Schuldsprüche in nicht nur einer, sondern zwei Gerichtsinstanzen; seine politische Karriere ist erledigt. Anderen zur Warnung.

Als Hamburgs Innensenator während der Corona-Pandemie eine strenge Ermahnung an seine Bürgerinnen und Bürger aussprach, keine Partys zu feiern, dann aber dabei erwischt wurde, wie er selbst eine – illegale – Party mit Dutzenden Gästen zelebrierte, kommentierte der Betreiber einer Punkkneipe aus dem Stadtteil St. Pauli im sozialen Netzwerk X, das damals noch Twitter hieß, diese Heuchelei lakonisch: „Du bist so 1 Pimmel.“ Kurz darauf tauchten vier uniformierte, bewaffnete Beamte vor der Wohnungstür des Gastronomen auf. Sie durchsuchten Räume, beschlagnahmten Geräte. Ein weiteres Verfahren wegen Politikerbeleidigung begann.

Gestern erlaubt, heute verboten

Damit hatte der Hamburger Gastronom nicht gerechnet. Damit hätte aber auch ich, ein ausgebildeter Jurist, der an der juristischen Fakultät der Universität Frankfurt unterrichtet, nicht gerechnet. Selbst wenn man sich sehr anstrengt, im Bilde zu sein, die teils sehr weite neue Interpretation des Strafrechts und von solchen sehr offenen Begriffen wie „Beleidigung“ im Blick zu behalten und politisch informiert zu bleiben, kann man bei diesem Tempo der Entwicklung immer häufiger auch überrascht werden.

Und das ist, meine ich, ein Problem. Damit hat sich in diesem Land etwas verändert. Nicht nur die USA haben ein Problem mit der Meinungsfreiheit, sondern, auf unsere Weise, auch wir. Darum soll es in diesem Buch gehen. Der deutsche Staat definiert heute etliche Aussagen als strafbar, die noch vor zehn Jahren ganz klar unter die Meinungsfreiheit fielen. Die Schwelle, von der an Polizei und Justiz hierzulande von strafbarer „Hetze“ ausgehen, ist an etlichen Stellen rapide abgesenkt worden, teils durch Änderungen der Gesetze, teils durch eine Änderung der Gesetzesinterpretation. Gestern noch erlaubt, heute verboten: Das ist ein juristischer Großtrend, den ich darstellen, analysieren und auf den ich auch eine kritische Antwort zu formulieren versuchen möchte.

UN-Sonderberichterstatter entsetzt

Im Frühjahr 2025, als J. D. Vance in München war, war ich, umgekehrt, in den USA. Ich habe in Kalifornien an Universitäten geforscht, die gerade große Not hatten, sich gegen die autoritären Übergriffe der Trump-Regierung zur Wehr zu setzen. Ich habe mit Rechtswissenschaftlern zusammengesessen, die gerade dabei waren, sich für Proteste gegen diese Trump-Politik zu vernetzen. David Kaye zum Beispiel, der ehemalige UN-Sonderberichterstatter für das Menschenrecht auf Meinungsfreiheit, der mir sein Lieblingscafé in Santa Monica zeigte, vegan und hundefreundlich. Aber so groß ihr Entsetzen über die Trump-Pläne war, so wenig hat das gleichzeitig ihre Sorge über das gemindert, was sie von der anderen Seite des Atlantiks her mitbekamen. „Diese Razzien“, sagte David Kaye.

Als in Kalifornien der Sommer begann, brachte die Sendung 60 Minutes des US-Senders CBS eine Reportage aus – Niedersachsen. Eine amerikanische Reporterin interviewte zwei deutsche Staatsanwälte und eine Staatsanwältin, die auf die Verfolgung von Hatespeech spezialisiert waren. Die Strafverfolger erzählten von den inzwischen üblichen Hausdurchsuchungen wegen Online-Postings und den teils verdutzten Reaktionen der Betroffenen, die oft sagen würden: Sie hätten gar nicht gewusst, dass ihre Äußerungen verboten seien. So erzählte es einer der Staatsanwälte und grinste.

Voraussetzung jeder Freiheit

In Santa Monica sprach mich David Kaye darauf an. Er fand das befremdlich. Staatsanwälte, die sich nichts dabei zu denken schienen, dass sie Menschen überraschten mit der Information, dass etwas neuerdings verboten sei? Was sei das für ein Verständnis von Rechtsstaat? Und er wies mich noch auf einen weiteren Aspekt hin, der ihm Sorgen bereite. „Pimmel“ sei in den USA noch das Mildeste, was man an Spott über den Präsidenten lesen könne. Es geschehe praktisch jeden Tag, dass jemand ihn als „Schwachkopf“ bezeichne, als „dümmsten Präsidenten aller Zeiten“ sowieso. Das ist nach amerikanischem Recht straffrei, zum Glück. Nicht auszudenken, was Donald Trump anstellen könnte, wenn sich die USA mit ihrem Strafrecht ein Beispiel an Deutschland nähmen.

Die Meinungsfreiheit wird in Demokratien traditionell als das wichtigste aller politischen Grundrechte verstanden, weil sie sozusagen die Voraussetzung aller weiteren Freiheiten schafft. Sie ist die Basis, auf der man politisch überhaupt in einen Streit eintreten kann, Forderungen stellen, sich Gehör verschaffen und so weiter. Die Bundesrepublik war noch jung, es war 1952, da schrieben die Richter des Bundesverfassungsgerichts (in diesem Fall waren es sieben Männer und eine Frau) in einem ihrer ersten Urteile, dass die Meinungsfreiheit für eine Demokratie „schlechthin konstituierend“ sei. Sprachlich schöner, auch ein wenig pathetischer: Die Freiheit, seine Meinung zu sagen, sei „die notwendige Voraussetzung beinahe jeder anderen Form der Freiheit“, so lauten die berühmten Worte des einstigen amerikanischen Supreme-Court-Richters Benjamin Cardozo. Und, ja: Es darf auch polemisch sein. Überspitzt. Oder emotional. Jedenfalls bis hin zu einer Grenze.

Was würde Trump damit tun?

Ich frage mich inzwischen, ob wir uns in Deutschland nicht ganz schön schnell gewöhnt haben an die Alltäglichkeit von Hausdurchsuchungen wegen „Politikerbeleidigung“, an die grassierende Verunsicherung, ob man denn noch von einer „dümmsten Außenministerin der Welt“ sprechen darf, an die Tatsache, dass schwierige zivilgesellschaftliche Debatten eingeengt werden – und ich frage mich auch, ob eine offene Gesellschaft ihre Strafjustiz nicht an etlichen Stellen dringend zurückpfeifen müsste, braucht man doch gerade in volatilen Zeiten eher mehr Debatte, nicht weniger. In der amerikanischen Cartoon-Serie „South Park“ taucht derweil der amerikanische Präsident Donald Trump als Sexpartner des Teufels auf, und es werden Zoten gerissen über das kleine Gemächt des Commanders in Chief.

Wenn die USA unter Trump solche Gesetze hätten wie Deutschland, dann würde dies J. D. Vance und Co. noch ganz andere Möglichkeiten bieten, ihre Kritiker einzuschüchtern. Dieses Szenario, in dem ein rechtsautoritärer Regierungschef mit einem fragilen Ego à la Trump oder Vance seine Kritiker wegen krimineller „Beleidigung“ verfolgen lassen könnte: Liberale Amerikaner wie David Kaye sind heilfroh, dass dies gerade nicht ansteht und dass wahrscheinlich auch der amerikanische Supreme Court verhindern würde, dass solche Instrumente diesen Rechtspopulisten in die Hände fielen. In Deutschland, wo die Anklagebehörden in diesem Punkt immer mehr Macht und gesetzlichen Spielraum bekommen haben, ist dieses Szenario vielleicht nur eine Landtagswahl entfernt.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Von Kinderhilfswerk bis Lehrerverband: So breit ist die Kritik am Social-Media-Verbot

21. Februar 2026 um 14:08

Bundeskanzler Friedrich Merz (CDU) findet ein Social-Media-Verbot bis 16 Jahre sympathisch. Viele Organisationen aus Kinderschutz, Wissenschaft und Pädagogik lehnen das Verbot allerdings ab – und warnen vor Schäden für Kinder und Jugendliche. Die Übersicht.

Ein Kind und eine erwachsene Person halten sich an den Händen. Ihre Köpfe sind mit bunten Fäden umwickelt. Sie schauen auf digitale Geräte.
Wie führt man Kinder in die digitale Welt? (Symbolbild) – Alle Rechte vorbehalten IMAGO/Westend61

Bekommt Deutschland ein Social-Media-Verbot nach australischem Vorbild? Druck machen zumindest wichtige Politiker*innen aus den Regierungsparteien SPD und CDU. Die Debatte kocht auch international, weil in Australien seit dem 10. Dezember ein solches Verbot gilt.

Medienwirksam sprechen sich Staats- und Regierungschefs für ähnliche Maßnahmen aus, darunter der französische Präsident Emmanuel Macron und der spanische Ministerpräsident Pedro Sánchez. Unter Expert*innen gibt es aber viel Skepsis und Ablehnung. Das zeigen mehr als 20 Positionspapiere und Stellungnahmen von unter anderem Kinderschutz-Organisationen, Pädagog*innen, Schüler*innen und Forschenden.

Viele sprechen sich klar gegen ein Social-Media-Verbot aus und warnen vor gravierenden Folgen. Doch selbst Befürworter*innen eines Social-Media-Verbots argumentieren vorsichtig und nennen Altersbeschränkungen allenfalls als eine von vielen Maßnahmen. Ein Konsens ist erkennbar, dass vor allem Plattformen sichere Räume für Kinder und Jugendliche schaffen müssen.

Hier kommt, ohne Anspruch auf Vollständigkeit, eine Übersicht wichtiger Stimmen und deren Argumente.


Deutsches Kinderhilfswerk: „Verbote entmündigen Kinder“

November 2025, „Unsere Haltung zu Social-Media-Verboten“

Wer ist das? Das deutsche Kinderhilfswerk ist ein 1972 gegründeter Verein. Dessen Mitglieder engagieren sich für „eine kinderfreundliche Gesellschaft, in der die Kinder ihre Interessen selbst vertreten“.

Was ist die Position? „Pauschale Verbote entmündigen Kinder und Jugendliche“, schreibt das Kinderhilfswerk. Sie stünden in krassem Widerspruch zum Recht auf digitale Teilhabe, das die UN-Kinderrechtskonvention garantiert. Den kompetenten und sicheren Umgang müssten Kinder und Jugendliche durch aktive Nutzung lernen. „Verbote würden die positiven sozialen Kommunikationswege in diesem Bereich abschneiden und Kindern einen Rückzugsort ihrer Lebenswelt ohne angemessenen Ersatz nehmen.“


UNICEF: „Verbote können nach hinten losgehen“

Dezember 2025: „Age restrictions alone won’t keep children safe online“

Wer ist das? UNICEF ist das 1946 gegründete Kinderhilfswerk der Vereinten Nationen.

Was ist die Position? „Social-Media-Verbote bergen eigene Risiken und könnten sogar nach hinten losgehen“, warnt die NGO auf Englisch. Gerade für isolierte oder marginalisierte Kinder seien soziale Medien eine „Lebensader“. Altersbeschränkungen müssten Teil eines umfassenderen Ansatzes sein, der auch das Recht junger Menschen auf Privatsphäre und Mitbestimmung achtet. Minderjährige sollten nicht in unregulierte, weniger sichere Bereiche des Internets gedrängt werden.


Save the Children: „falsches Sicherheitsgefühl“

Dezember 2025: „Policy Statement on Social Media Bans“

Wer ist das? Save The Children wurde 1919 gegründet und bezeichnet sich als weltgrößte unabhängige Organisation für Kinderrechte.

Was ist die Position? Save The Children unterstützt „wirksame, die Privatsphäre respektierende Altersüberprüfungen“. Dennoch ist die Organisation besorgt, dass altersbasierte Beschränkungen „unbeabsichtigte Schäden verursachen, ein falsches Sicherheitsgefühl vermitteln und die Rechte und Möglichkeiten von Kindern einschränken könnten“. Weiter pocht sie darauf, dass Plattformen ihre Produkte „wirklich sicher und altersgerecht gestalten“.


Bundesschülerkonferenz: Medienbildung „an erster Stelle“

Februar 2026: „Verbote sind keine Lösung“

Wer ist das? Die Bundesschülerkonferenz engagiert sich für Bildungspolitik und Mitbestimmung von Schüler*innen in Deutschland.

Was ist die Position? Die psychische Gesundheit von Jugendlichen würde immer schlechter, schreibt die Generalsekretärin der Bundesschülerkonferenz. Social Media leiste dazu einen erheblichen Beitrag. Der Fokus der Debatte liege aber zu stark auf Verboten. „An erster Stelle muss bessere Medienbildung in Schulen stehen, denn sonst ist das Verbot nichts anderes als eine Problemverschiebung.“


Deutscher Bundesjugendring: Manipulative Designs verbieten

Oktober 2025: „Stellungnahme zur Konsultation zum Digital Fairness Act“

Wer ist das? Der Deutsche Bundesjugendring vertritt deutsche Jugendverbände und Landesjugendringe.

Was ist die Position? „Junge Menschen haben Rechte auf Schutz, Teilhabe und Befähigung – auch digital“, schreibt der Verein in einem Statement zum Digital Fairness Act, einem geplanten Digitalgesetz der EU. Der Bundesjugendring lehnt „pauschale Zugangsbeschränkungen“ ab und fordert sicher gestaltete Räume. Funktionieren soll das etwa über „verbindliche Verbote manipulativer Gestaltung“. Konkrete Beispiele seien „endlose Feeds, Lootbox-Mechaniken oder manipulative Abo-Taktiken“.


ACT Youth Advisory: Verbote können isolieren

November 2024: „The ACT Youth Advisory Council’s Response to the Online Safety Amendment“

Wer ist das? Der ACT Youth Advisory vertritt Jugendliche im „Australian Capital Territory“, wo auch die australische Hauptstadt Canberra liegt.

Was ist die Position? Der ACT-Jugendrat hätte das australische Social-Media-Verbot am liebsten verhindert. Statt Jugendliche auszusperren, so die Forderung, solle die Regierung die Plattformen regulieren. Die Jugend-Vertreter*innen sahen etwa das Recht auf freie Meinungsäußerung in Gefahr – und das Recht auf sicheren und freien Zugang zu Informationen. Sie warnten außerdem davor, dass das Verbot vulnerable junge Menschen isolieren könne.


Deutscher Lehrerverband: „weder umsetzbar noch sinnvoll“

Juni 2025: „Digitale Teilhabe ist Realität und muss gelernt werden“

Wer ist das? Der Deutsche Lehrerverband ist eine der größten Organisationen von Lehrer*innen in Deutschland.

Was ist die Position? Eine gesetzliche Altersgrenze für soziale Medien ist „weder realistischerweise umsetzbar noch sinnvoll“, schreibt Verbandspräsident Stefan Düll. Kinder und Jugendliche müssten lernen, sich in der digitalen Welt sicher und verantwortungsvoll zu bewegen. Es könne nicht die Lösung sein, Jugendlichen „plötzlich mit dem 16. Geburtstag“ einen Zugang zu geben. „Wir sollten nicht ständig diskutieren, was Kindern verboten wird – sondern was wir ihnen ermöglichen.“


BzKJ: Völliges Verbot „zu weitgehend“

Dezember 2024: „Junge Menschen haben ein Recht auf digitale Teilhabe“

Wer ist das? Die Bundeszentrale für Kinder- und Jugendmedienschutz ist als Bundesbehörde zuständig für die Durchsetzung von Kinderrechten im Netz auf Grundlage des EU-Gesetzes über digitale Dienste (DSA).

Was ist die Position? „Kinder und Jugendliche haben ein Recht auf digitale Teilhabe und darauf, digitale Lebensräume sicher zu erkunden“, sagte BzKJ-Direktor Sebastian Gutknecht bereits Ende 2024. „Das völlige Verbot von Social Media für unter 16-Jährige“ halte er für „zu weitgehend.“ Die Anbieter in der EU hätten die gesetzliche Pflicht, „ihre Plattformen für junge Menschen mit strukturellen Vorsorgemaßnahmen möglichst sicher zu gestalten“.


Landesanstalt für Kommunikation: „erhebliche Bedenken“

Februar 2026: „Social-Media-Verbot – Worum geht’s?“

Wer ist das? Die „Landesanstalt für Kommunikation“ (LFK) aus Baden-Württemberg ist eine von 14 deutschen Aufsichtsbehörden für privaten Rundfunk und Online-Medien.

Was ist die Position? Nach einer Sammlung von Pro- und Contra-Argumenten zieht die Behörde ein Fazit: Demnach sei der Schutz von Kindern und Jugendlichen komplex, und es bestünden „erhebliche Bedenken gegen vermeintlich einfache Lösungsvorschläge“. Insbesondere zu beachten seien „Fragen bezüglich der Umsetzbarkeit und der Reichweite eines Verbots“ sowie „unbeabsichtigte negative Folgen“.


BfDI: „keinesfalls“ undifferenzierte Altersgrenzen

Dezember 2025: Stellungnahme für den Thüringer Landtag

Wer ist das? Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) berät unter anderem die Bundesregierung bei Datenschutzgesetzgebung.

Was ist die Position? „Keinesfalls sollte undifferenziert für jedes soziale Medium in Gänze eine bestimmte Altersgrenze festgelegt werden“, schreibt Bundesdatenschutzbeauftragte Louisa Specht-Riemenschneider in einer Stellungnahme für den Thüringer Landtag. Kinder und Jugendliche hätten ein Recht auf soziale Teilhabe. Altersbeschränkungen müssten allenfalls risikobasiert sein. Aussehen könne das so: „Die Grundversion des Dienstes ist kinderfreundlich und für alle zugänglich. Erst wenn jemand eine Funktion anschalten oder einen Bereich besuchen möchte, der mit einem hohen Risiko verbunden ist, wird die Altersprüfung eingesetzt.“

Durchblick statt Schnellschüsse

Recherchen wie diese sind nur möglich durch eure Unterstützung.


Berliner Psychotherapeut*innen: mehrstufiger Schutz

Januar 2026: „Psychotherapeutenkammer warnt (…) und fordert wirksamen Schutz“

Wer ist das? Die Psychotherapeutenkammer Berlin vertritt die Interessen approbierter Psychotherapeut*innen in der deutschen Hauptstadt.

Was ist die Position? Die Therapeut*innen warnen vor Schäden für die psychische Gesundheit durch „Überkonsum von Plattformen wie Instagram, TikTok und YouTube“, auch wenn bisherige Studien keine Kausalitäten zeigen. Deshalb fordern sie ein Mindestalter und Kontrollen. „Datenschutzkonforme technische Verfahren müssen sicherstellen, dass Kinder unter einem festgesetzten Mindestalter nicht einfach Accounts erstellen“. Die Therapeut*innen fordern aber auch „sichere Voreinstellungen und Schutzmechanismen gegen exzessive Nutzung“.


Australian Psychological Society: Warnung vor Einsamkeit

November 2025: „Psychologists call for consideration for young Australians‘ mental health (…)“

Wer ist das? Die „Australian Psychological Society“ (APS) bezeichnet sich selbst als „führende Organisation“ für Psycholog*innen in Australien.

Was ist die Position? Im Vorfeld des australischen Social-Media-Verbots mahnten dortige Psycholog*innen zur Vorsicht. Zwar könnte die Maßnahme junge Menschen vor Risiken schützen. Aber ohne sinnvolle Alternativen könne der Entzug sozialer Medien eine Lücke in ihr soziales Leben reißen und Gefühle wie „Einsamkeit, Angst und Kummer“ erhöhen.


BAJ: Zugang sicher gestalten

Januar 2026: „Prävention schafft Schutz – pauschale Verbote nicht!“

Wer ist das? Die im Jahr 1951 gegründete Bundesarbeitsgemeinschaft Kinder- und Jugendschutz setzt sich „für ein gutes und gesundes Aufwachsen von Kindern und Jugendlichen“ ein.

Was ist die Position? Die BAJ ist gegen ein pauschales Nutzungsverbot von Social Media vor dem 16. Lebensjahr. Die zentrale Frage sei nicht, ob Minderjährige Zugang zu sozialen Netzwerken haben dürfen, sondern wie dieser Zugang gestaltet wird. Es gehe darum, dass Kinder und Jugendliche geschützt werden und sich entwickeln können. Wichtig sei es, Eltern zu unterstützen und bestehende Regeln durchzusetzen.


EKKJ: „vermeintliche Lösung für komplexes Problem“

November 2025: „Social Media: altersgerechter Zugang und Regeln statt Verbote“

Wer ist das? Die Eidgenössische Kommission für Kinder- und Jugendfragen ist eine staatliche Fachstelle aus der Schweiz, die Wissen für Bundesbehörden aufbereitet.

Was ist die Position? Aus Sicht der EKKJ sind „pauschale Verbote von Social Media für Kinder und Jugendliche nicht zielführend und nur eine vermeintliche Lösung für ein komplexes Problem“. Verbote seien bezüglich der negativen Folgen „weitgehend unwirksam“, so die Kommission weiter. „Gleichzeitig schränken sie positive und notwendige Lernprozesse ein, verhindern den Erwerb sinnvoller Kenntnisse und Kompetenzen und verunmöglichen wichtige Erfahrungen.“


Molly Rose Foundation: „Kinder brauchen Plattformen“

Januar 2025: „Joint statement (…) on a social media ban for under-16s“

Wer ist das? Die britische Molly Rose Foundation engagiert sich dafür, dass junge Menschen keinen Suizid begehen. Ihr Statement zum Social-Media-Verbot haben insgesamt 42 Organisationen unterzeichnet, darunter die 1884 gegründete britische Kinderschutzorganisation NSPCC.

Was ist die Position? „Gemeinsam glauben wir, dass Social-Media-Verbote die falsche Lösung sind“, halten die Unterzeichner*innen fest. Verbote würden dabei scheitern, Kindern Sicherheit zu bringen. Kinder, darunter queere und neurodivergente, bräuchten Plattformen für soziale Kontakte, Unterstützung durch Gleichgesinnte und vertrauenswürdige Hilfsangebote. Wenn Jugendliche die riskanten Plattformen dann mit 16 Jahren nutzen dürften, würden sie vor einer Klippe stehen.


Leopoldina: 13 Jahre als „verbindliches Mindestalter“

August 2025: „Soziale Medien und die psychische Gesundheit von Kindern und Jugendlichen“

Wer ist das? Die Leopoldina ist eine vom Bund und dem Land Sachsen-Anhalt finanzierte Gelehrtengesellschaft, die Politik und Öffentlichkeit beraten will.

Was ist die Position? „Strategien, die vorrangig auf Altersbeschränkungen setzen, greifen zu kurz“, schreiben die Forschenden. Dennoch empfehlen sie 13 Jahre als verbindliches Mindestalter für Social-Media-Accounts, pochen jedoch auf weitere Maßnahmen je nach Alter. Zudem kritisieren die Forschenden das „Prinzip der Aufmerksamkeitsökonomie“, also das Geschäftsmodell vieler populärer Plattformen. Das fördere „technologische Strategien zur Maximierung der Nutzerbindung“ und schaffe „gezielt suchtfördernde Strukturen“.


ÖAW: „Gefahr, dass das Ziel nicht erreicht wird“

Februar 2026: „Alterssperren auf Social-Media: Technische Grenzen und Möglichkeiten“

Wer ist das? Die Österreichische Akademie der Wissenschaften (ÖAW) ist eine 1847 gegründete Gelehrtengesellschaft aus Wien.

Was ist die Position? Das Institut für Technikfolgen-Abschätzung der ÖAW hat untersucht, wie sich ein Social-Media-Verbot durchsetzen ließe. Demnach könne Altersfeststellung im Internet „grundsätzlich Sinn machen“, es brauche aber eine breite gesellschaftliche Debatte. Weiter warnt die Studie vor der Gefahr, „dass trotz weitreichender Einschnitte für alle Internetnutzer:innen das Ziel, nämlich das eines besseren Schutzes von Minderjährigen, nicht erreicht wird“.


EDRi: Hürden werden umgangen

November 2025, „Why age verification misses the mark and puts everyone at risk“

Wer ist das? European Digital Rights (EDRi) ist der Dachverband von Organisationen für digitale Freiheitsrechte.

Was ist die Position? EDRi lehnt Social-Media-Verbote ab. Stattdessen plädiert der Verband dafür, die Ursachen für Gefahren im Netz zu bekämpfen. „Kinder brauchen und verdienen Online-Räume, in denen sie andere treffen können, Trost und Sicherheit finden, Ideen erproben und austauschen, Beziehungen aufbauen, lernen und spielen.“ Es sei sehr wahrscheinlich, dass junge Menschen Hürden umgehen.


Superrr: „Verbot ist Kurzschlussreaktion“

Februar 2025: „Nicht sehen, nicht sprechen, nicht hören“

Wer ist das? Superrr ist eine gemeinnützige Organisation, die sich für feministische Digital- und Technologiepolitik einsetzt.

Was ist die Position? „Ein Verbot ist eine Kurzschlussreaktion, die eine Auseinandersetzung mit den wirklichen Problemen verweigert“, hält Superrr fest. Wenn auf einer Straße viel Verkehr sei, laute die Lösung auch nicht, Kinder zu Hause einzuschließen. „Viel von dem, was als schädlich für Kinder beschrieben wird, schadet uns allen.“ Deshalb stellt Superrr die Frage nach einer digitalen Welt ,“die nicht nur aus uns und unserer Zeit Gewinn schlagen möchte“.


GMK: Verbot „greift langfristig zu kurz“

Dezember 2024: „Zum australischen Social-Media-Verbot aus medienpädagogischer Sicht“

Wer ist das? Die Gesellschaft für Medienpädagogik und Kommunikationskultur engagiert sich seit 1984 sich für Medienpädagogik und Medienkompetenz.

Was ist die Position? Ein Social-Media-Verbot könne kurzfristig attraktiv erscheinen, „greift jedoch langfristig zu kurz“, schreibt die GMK. Es würde weder die Bedürfnisse noch die Rechte von Kindern und Jugendlichen ausreichend berücksichtigen. Stattdessen brauche es unter anderem Hilfestellungen für Familien und Regulierung von Plattformen.


Stiftung Bildung: „Verbot schwächt Rechte junger Menschen“

Januar 2026: „Kinderrechte wahren, Medienkompetenz stärken, Teilhabe ermöglichen“

Wer ist das? Die Stiftung Bildung ist eine gemeinnützige Spendenorganisation, die sich für gute Bildung in Deutschland engagiert.

Was ist die Position? Die Stiftung spricht sich klar gegen ein Social-Media-Verbot nach australischem Vorbild aus. „Ein solches Verbot wird den komplexen Realitäten digitaler Lebenswelten nicht gerecht und schwächt langfristig die Rechte, die Resilienz und das Vertrauen junger Menschen“, schreibt die Organisation. Stattdessen brauche es einen Ansatz, der Schutz, Befähigung und Teilhabe verbinde.


Arbeiterwohlfahrt: „weder zielführend noch angemessen“

Januar 2026: „Gegen ein Social-Media-Verbot bis 16 Jahre“

Wer ist das? Die Arbeiterwohlfahrt (AWO) engagiert sich für eine sozial gerechtere Gesellschaft.

Was ist die Position? Die AWO lehnt ein generelles Social-Media-Verbot bis 16 Jahre ab und zweifelt, ob es rechtlich und technisch durchsetzbar wäre. Mit Blick auf betroffene Jugendliche sei das Verbot „weder zielführend noch angemessen“. Es gehe an der Alltagsrealität der meisten jungen Menschen vorbei und schränke Teilhabe ein. Stattdessen brauche es unter anderem Medienbildung und Sozialarbeit; außerdem müssten Plattformen ihre Angebote jugendgerecht gestalten.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Anlasslose Massenüberwachung: EU-Datenschutzbeauftragter gegen wahlloses Scannen bei freiwilliger Chatkontrolle

19. Februar 2026 um 11:05
Von: Constanze

Der europäische Datenschutzbeauftragte verlangt wirksame Schutzmaßnahmen gegen das wahllose massenhafte Scannen bei der freiwilligen Chatkontrolle. Die Ausnahmeerlaubnis für Konzerne wie Meta, Google oder Microsoft dürfe sonst nicht nochmals verlängert werden.

Yes we scan
Ja, wir scannen, ausnahmsweise. CC-BY-SA 2.0 Theresia Reinhold

Eigentlich war sie nur als Ausnahme vorgesehen: Die Erlaubnis zur freiwilligen Chatkontrolle soll jedoch nochmals verlängert werden. Das hatte die EU-Kommission am 19. Dezember 2025 vorgeschlagen. Anbieter von Kommunikationsdiensten wie Meta, Google oder Microsoft dürften dann weiterhin auf freiwilliger Basis Scanning-Technologien einsetzen, um beispielsweise massenhaft Mitteilungen in Chats nach verbotenen Kindesmissbrauchsdarstellungen zu durchkämmen.

Wojciech Wiewiórowski, der europäische Datenschutzbeauftragte, schlägt nun in einer Stellungnahme rechtliche Einschränkungen an der Ausnahmeregelung vor. Sie sollen eine allgemeine und wahllose Überwachung unterbinden und die Risiken des Massen-Scannings besser berücksichtigen.

Der Jurist betont, dass diese Einschränkungen von den Konzernen auch „strikt eingehalten“ werden müssten. Eine bloße Verlängerung der Ausnahmeregelung ohne Maßnahmen zur Sicherstellung der Wirksamkeit bestehender und neuer Schutzvorkehrungen bliebe „hochproblematisch“.

Kein „wahlloses Scannen“

Der europäische Datenschutzbeauftragte verweist auch auf seine früheren rechtlichen Analysen. Denn Wiewiórowski hatte sich schon mehrfach ablehnend zur Regelung der massenhaften freiwilligen Chatkontrolle geäußert. Auch der europäische Datenschutzausschuss, in dem sich die nationalen Datenschutzbehörden abstimmen, mahnte in einer Stellungnahme einen besseren Schutz der Grundrechte und einschränkende Regeln an.

Denn flächendeckende automatisierte Chatkontrollen und massenhaftes Scannen sind grundrechtswidrig, weswegen es nur temporäre Ausnahmen in einer Übergangsverordnung gibt. Wiewiórowski betont nun erneut, dass im Falle einer nochmaligen Verlängerung der vorläufigen Erlaubnis zur Chatkontrolle die rechtlichen Mängel behoben, Schutzmaßnahmen eingebaut und „wahlloses Scannen“ verhindert werden sollten.

Der europäische Datenschutzbeauftragte besteht weiterhin auf seiner rechtlichen Einschätzung, dass keine vorübergehende Ausnahme angenommen werden sollte, solange diese Mängel nicht abgestellt seien. Bisher sei die wahllose Massenüberwachung nicht ausreichend rechtlich eingehegt.

Die zweite Verlängerung

In einer Pressemitteilung zu seiner Stellungnahme hatte Wiewiórowski die Bedeutung des Schutzes von Kindern vor Missbrauch betont, aber auch gefordert, dass dabei kein „rechtliches Vakuum“ entstehen dürfe. Denn auch „vorübergehende“ Maßnahmen dürften nicht „die Grundrechte außer Kraft setzen“. Diese Grundrechte sind in den Artikeln 7 und 8 der Charta der Grundrechte der Europäischen Union festgeschrieben. Es müsse sichergestellt sein, „dass das Scannen nicht wahllos erfolgt und dass es immer eine klare Rechtsgrundlage für die Verarbeitung personenbezogener Daten gibt“.

Massenüberwachung

Wir berichten unter dem Stichwort Massenüberwachung über Technologien, die dazu eingesetzt werden, massenhaft Daten über Menschen festzuhalten und auszuwerten. Unterstütze unsere Arbeit!

„Vorübergehend“ ist offenbar ein dehnbarer Begriff, denn die Ausnahme besteht bereits seit Juli 2021 und wurde im April 2024 für weitere zwei Jahre verlängert. Eigentlich war die nun wieder zur Verlängerung anstehende Übergangsregelung nur eine Art Vorläufer für eine seit 2022 geplante EU-Verordnung zur verpflichtenden Chatkontrolle.

Sie war von der EU-Kommission vorgeschlagen worden. Doch diese EU-Verordnung zur verpflichtenden Chat-Massenüberwachung wurde bisher nicht geschaffen, sondern mündete aufgrund der massiven Kritik an diesem Überwachungsprojekt in ein langjähriges und noch immer nicht abgeschlossenes politisches Hickhack, an dem gleich mehrere EU-Ratspräsidentschaften scheiterten.

Kein Nachweis, dass Massen-Scans verhältnismäßig sind

Das EU-Parlament wird wohl im März entscheiden, ob es einer einjährigen Verlängerung der Übergangsverordnung zustimmt, die nun das automatisierte Text-Analysieren bei Nachrichten ausschließen könnte und das Scannen nur auf bekannte Hash-Werte beschränken soll.

So schlug es zuletzt Birgit Sippel vor. Die Sozialdemokratin (S&D) ist die Berichterstatterin zur freiwilligen Chatkontrolle im EU-Parlament. Der zuständige LIBE-Ausschuss der EU-Parlaments wird Sippels Vorschlag aber noch inhaltlich beraten.

Es bliebe selbst in dieser abgespeckten Variante dabei, dass den Konzernen massenhaftes Scannen „vorübergehend“ erlaubt wird. Dass dies verhältnismäßig ist, konnte die EU-Kommission aber auch nach mehr als vier Jahren Massen-Scans nicht nachweisen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Digitalisierungsstrategie: Wie „Künstliche Intelligenz“ unser Gesundheitswesen verändern soll – und welche Fragen das aufwirft

16. Februar 2026 um 14:19

Das Bundesgesundheitsministerium hat in der vergangenen Woche ein Update zur Digitalisierungsstrategie des Gesundheitswesens vorgelegt. Die sogenannte Künstliche Intelligenz spielt darin eine zentrale Rolle. Umso wichtiger ist es, dass wir jetzt die richtigen Fragen stellen.

Eine Ärztin weist auf eine Röntgenaufnahme, die einen Schädel zeigt. Ein älterer Mensch hört ihr zu,
Hört ihr bereits eine „KI“ zu? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Vitaly Gariev

Die Versprechungen, die mit „Künstlicher Intelligenz“ („KI“) und mit Digitalisierung einhergehen, sind gewaltig. Das ist auch im „Update der Digitalisierungsstrategie für das Gesundheitswesen und die Pflege“ nicht anders, die Bundesgesundheitsministerin Nina Warken (CDU) am 11. Februar vorstellte. Ein „gesünderes und längeres Leben für alle“ soll die Digitalisierung ermöglichen, sie soll die medizinische Versorgung und Pflege „besser und effizienter“ machen, heißt es darin zum Beispiel.

Die Strategie hatte der damalige Minister Karl Lauterbach ursprünglich im Jahr 2023 vorgelegt. Der Aufbau des Europäischen Gesundheitsdatenraums (EHDS), neue Erwartungen im Bereich der „Künstlichen Intelligenz“ sowie der Plan eines neuen Systems für die Erstversorgung machten das nun vorgelegte Update notwendig.

Die wichtigsten Elemente: Die ePA soll zur zentralen Anwendung für Gesundheitsthemen ausgebaut werden, Digitalisierung der Schlüssel zu einem erfolgreichen Primärärzt*innensystem sein und „KI“ soll „sicher, flächendeckend und wirksam“ eingesetzt werden.

Digitalisierung und „KI“ werden das Gesundheitswesen fraglos verändern. Doch es ist wichtig, jetzt die richtigen Fragen zu stellen.

Wie weit hilft „KI“ dem Gesundheitswesen?

Während Digitalisierung und „KI“ durchaus das Potenzial haben, Prozesse im Gesundheitswesen zu vereinfachen und die Versorgung zu verbessern, kommt es auf eine gewissenhafte Abwägung bei der Umsetzung an.

Dabei dürfen wir vor allem nicht vernachlässigen, wie weitreichend die Auswirkungen auf Menschen in Gesundheitsberufen, auf Patient*innen und auf das Verhältnis zwischen ihnen sein können. Dazu braucht es mehr strategische Auseinandersetzung und Debatten.

Den großen Hoffnungen, mit denen der Einsatz von „KI“ derzeit verbunden ist, müssen wir realistisch begegnen. Weder wird „KI“ alle strukturellen Probleme im Gesundheitswesen wie Personalmangel oder Kostenexplosion lösen können. Noch sind die großen Versprechungen medizinischer Spitzenleistungen und Effizienzgewinne bisher eingetreten – oder auch nur auf absehbare Zeit erwartbar.

Die technische Architektur der KI-Systeme gründet auf massenhaften Daten plus Stochastik, also der mathematischen „Kunst des Vermutens“. Das begrenzt diese Systeme dauerhaft. Es gibt keine Garantie dafür, dass Aussagen der „KI“ wahr und richtig sind.

Anders als bei einem Algorithmus, der nach festen Regeln funktioniert und bei gleichen Bedingungen wiederholbare Ergebnisse liefert, ist diese Wiederholbarkeit bei „KI“ gerade nicht gewährleistet. Auch ist es nicht nachvollziehbar, was genau den jeweiligen Antworten zugrunde liegt.

Welche Zwecke soll und kann Dokumentation erfüllen?

„KI“-gestützte Dokumentation soll in wenigen Jahren bei mehr als 70 Prozent der Einrichtungen der Standard sein, heißt es in der Strategie.

Sicherlich: Dokumentation ist oft lästig, aber sie kann auch dabei helfen, ein gemeinsames Verständnis zwischen Patient*in und Ärzt*in herzustellen, Angaben zu überprüfen oder eine wichtige abschließende Reflexion über einen Fall darstellen.

Was bewirkt Automatisierung mit „KI“?

Doch selbst wenn eine Entlastung durch Automatisierung in diesem Fall naheliegt: Schafft sie am Ende tatsächlich mehr qualitativ hochwertige Zeit für die Behandlung von Patient*innen? Oder wird sie am Ende die Arbeit von Menschen in Gesundheitsberufen noch weiter verdichten?

Das ist gerade angesichts des demografischen Wandels erwartbar. Er wird in den nächsten Jahren dazu führen, dass viele ältere Patient*innen größere Behandlungsbedarfe in die Praxen und Krankenhäuser bringen, während zugleich viele Menschen in Gesundheitsberufen in Rente gehen. Weniger Ärzt*innen müssen also künftig mehr Patient*innen behandeln – wenn nicht gegengesteuert wird.

Dabei entscheidet eine gute Beziehung zwischen Ärzt*innen und Patient*innen über den Heilungsverlauf mit, auch bei körperlichen Erkrankungen. Doch dafür braucht es vor allem eines: Zeit.

So umfassend will Warken die Gesundheitsdaten aller Versicherten verknüpfen

Wie wichtig ist uns digitale Souveränität?

Bei der Automatisierung der Dokumentation strebt die Ministerin ein hohes Tempo an. Mit Blick auf die bisher auf dem Markt dominierenden Anbieter könnte das dazu führen, dass schon bald OpenAI, Google Gemini und Co. regelmäßig ebenfalls im Sprechzimmer anwesend sind. Die Abhängigkeit von den US-amerikanischen Tech-Konzernen wächst bei verstärktem Einsatz dieser Dienste also weiter an.

Große Anbieter von Praxisverwaltungssystemen werben bereits mit „KI“-Tools zur Dokumentation und Automatisierung. Schaut man genauer in deren Datenschutzbestimmungen, bestätigt sich diese Vermutung.

Doctolib setzt Anthropic und Google Gemini als „KI“ ein und hostet bei Amazon Web Services. Konkurrent Jameda begrüßt die neue Strategie als „wichtiges Signal für die Branche“ und verweist auf das eigene Dokumentationstool Noa Notes, das ebenfalls auf Amazon Web Services sowie Microsoft Azure setzt und auch OpenAI in seiner Datenschutzerklärung stehen hat.

VIA Health verspricht als „erster virtueller Assistent speziell für die Psychotherapie“ besten Datenschutz. Gleichzeitig weist das Unternehmen in seiner Datenschutzerklärung darauf hin, zur „Transkribierung der Audiospur sowie […] Erstellung der Sitzungsprotokolle“ verschiedene Drittanbieter von „Large Language Models (LLMs)“ einzusetzen.

Das alles spiegelt die gegenwärtige Realität weiter Teile unserer digitalen Infrastruktur wider. Zugleich passt es nicht zusammen mit politischen Forderungen nach mehr digitaler Souveränität, die auch von der Bundesregierung selbst regelmäßig vorgetragen werden.

Wie verändern Sprachmodelle die Beziehung zwischen Ärzt*innen und Patient*innen?

Auch zu „KI“-gestützten Systemen der medizinischen Ersteinschätzung müssen wir uns Gedanken machen. Künftig sollen Symptome in ein Computersystem eingegeben werden, danach erfolgt eine technische Einschätzung.

Dieses Verfahren soll Teil des Erstversorgungssystems werden und so den Zugang ins Gesundheitswesen (mit)regeln. Noch ist nicht klar, ob regelbasierte Algorithmen oder „KI“ die technische Grundlage dafür bilden werden.

Es kann grundsätzlich sinnvoll sein, vor dem Besuch einer Praxis die Symptome in ein technisches System einzugeben und sich gegebenenfalls aufgrund einer besseren Steuerung Wartezeit zu ersparen.

Eines genaueren Blicks bedürfen allerdings Themen, die sensibler und oft schambesetzt sind. Einfühlsam und ohne Vorurteile über Sexualität zu reden, fällt Menschen oft schwer. Viele Patient*innen sprechen das Symptom einer Geschlechtskrankheit daher erst am Ende einer Sprechstunde an. Oder eine psychische Belastungssituation wird erst im Laufe eines Gesprächs deutlich.

Öffnen wir mit digitalen Angeboten also tatsächlich neue Wege für Patient*innen? Oder verlieren wir etwas, wenn wir auf standardisierte digitale Ersteinschätzungen setzen? Und wie können geschützte Räume entstehen für sensible Themen wie Sexualität, Geschlechtskrankheiten, Substanzkonsum oder psychische Störungen, wenn das vertrauliche Gespräch mit einer behandelnden Person von einem „KI“-Tool mitgeschnitten wird?

Wie gut sind Sprachmodelle als Gesundheitsassistenzen wirklich?

„KI“ soll zur ständigen Begleiterin für Patient*innen werden und perspektivisch „individualisierte Gesundheitsempfehlungen“ geben, heißt es in der Strategie. Das Bundesgesundheitsministerium möchte so die Eigenverantwortung der Versicherten stärken.

Dabei hat gerade erst eine in der wissenschaftlichen Zeitschrift „Nature“ veröffentlichte Studie gezeigt, dass „KI“-Systeme faktisch daran scheitern, richtige Ergebnisse hervorzubringen, sobald man sich von theoretischem Lehrbuchwissen verabschiedet und reale Patient*innen auf sie loslässt.

Hinzu kommt: Bei Sprachmodellen, der Grundlage von KI-Systemen, werden die Eingaben nicht über Standardfragen geleitet. Sondern das Verfahren hängt stark von den Eingaben der User*innen ab – und damit die Ausgaben der Systeme.

Weil aber die Anzahl möglicher Nutzer*inneneingaben unbegrenzt ist, lässt sich damit auch nicht verlässlich für alle Anwendungsfälle überprüfen, wie gut ChatGPT und Co. im Einzelfall reagieren. Die Erwartung an Verlässlichkeit von Software-Programmen, die sich aus Zeiten regelbasierter Programmierung speist, ist bei auf Stochastik gründenden Ansätzen nicht haltbar – denn da sind immer Wahrscheinlichkeiten oder sogar der Zufall im Spiel.

Zwar gibt es mittlerweile Beispiele, in denen Menschen sagen: „KI“ hat mir dabei geholfen, dass es mir gesundheitlich wieder besser geht. Gerade bei seltenen Erkrankungen, denen Ärzt*innen in ihrem Berufsalltag nur überaus selten begegnen, wird den Sprachmodellen ein solches Potenzial zugesprochen.

Gleichzeitig gibt es jedoch groteske Beispiele, in denen ChatGPT bei der Bewertung von Daten eines Gesundheitstrackers die Note „ungenügend“ – also kurz vor Herzinfarkt – „erraten“ hat, während zwei Ärzte keine Anhaltspunkte für eine Erkrankung finden konnten.

Menschen handeln als Menschen und sind damit – auch in der Interaktion mit Maschinen und bei der Interpretation „maschineller“ Antworten – oft unberechenbar.

Das wiederum kann weitreichende Auswirkungen für Interaktionen zwischen Mensch und Mensch im Behandlungszimmer haben. Fragen Ärzt*innen in der Sprechstunde künftig mit ab, ob Patient*innen bereits vorab mit „KI“ recherchiert haben? Wie gehen Versicherte damit um, wenn sich Empfehlungen von „KI“-Systemen von denen realer Mediziner*innen unterscheiden? Oder wenn die von der „KI“ vorgeschlagenen Behandlungen nicht von den Kassen gedeckt werden?

Wie bleibt das Gesundheitswesen menschlich?

Wenn sie gut gemacht sind, bieten Technologien die Chance, Medizin besser zu machen. Dafür müssen wir uns allerdings die richtigen Fragen stellen – jenseits von Heilsversprechen und Technikgläubigkeit sowie im Wissen um den hochkomplexen Faktor Mensch.

Der Mensch ist dabei kein „nerviges Beiwerk“. Am Ende sollen es ja wir alle sein, die von den neuen Technologien profitieren – und nicht nur die Tech-Milliardäre, die sie mit den größten Versprechungen bewerben.

Manuel Hofmann ist Referent für Digitalisierung der Deutschen Aidshilfe. Offenlegung: Der Autor hat im vergangenen Jahr auf Einladung der Gematik am Fachforum Technologien und Anwendungen“ für die Weiterentwicklung der Digitalisierungsstrategie „Gemeinsam Digital“ teilgenommen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Bundesgesundheitsministerium: So umfassend will Warken die Gesundheitsdaten aller Versicherten verknüpfen

16. Februar 2026 um 13:00

Bundesgesundheitsministerin Nina Warken hat ihre Digitalisierungsstrategie vorgelegt. Darin betont die CDU-Ministerin, die Patient:innensouveränität stärken zu wollen. Tatsächlich aber will sie eine der umfassendsten Gesundheitsdateninfrastrukturen weltweit aufbauen. Nutznießer sind Forschung und Pharma-Unternehmen. Die Rechte der Patient:innen bleiben auf der Strecke.

Bundesministerin für Gesundheit Nina Warken schaut konzentriert
Ganz auf die Vernetzung von Gesundheitsdaten fokussiert: Gesundheitsministerin Nina Warken (CDU). – Alle Rechte vorbehalten IMAGO / dts Nachrichtenagentur

Rund 75 Millionen gesetzlich Versicherte, ihre Gesundheitsdaten täglich übermittelt an ein nationales Forschungsdatenzentrum, verknüpfbar mit hunderten Medizinregistern und europaweit vernetzt – das ist die Vision von Bundesgesundheitsministerin Nina Warken (CDU).

Die Ministerin präsentierte in der vergangenen Woche ihre „Digitalisierungsstrategie für das Gesundheitswesen und die Pflege“. Darin verspricht Warken eine bessere medizinische Versorgung und mehr Patientensouveränität. Tatsächlich aber zielt ihre Strategie vor allem darauf ab, eine der umfassendsten Gesundheitsdateninfrastrukturen weltweit aufzubauen.

Das knapp 30-seitige Papier legt zugleich die Grundlage für ein umfangreiches „Digitalgesetz“. Den Entwurf will das Bundesgesundheitsministerium (BMG) noch im laufenden Quartal vorlegen. Die Rechte der Patient:innen drohen darin weitgehend auf der Strecke zu bleiben.

Die geplante Dateninfrastruktur ruht auf drei Säulen: die elektronische Patientenakte, das Forschungsdatenzentrum Gesundheit und das geplante Medizinregistergesetz. Das Zusammenspiel aller drei Vorhaben ebnet auch der EU-weiten Vernetzung der Gesundheitsdaten den Weg.

Die ePA soll zur „Gesundheits(daten)plattform“ werden

Alle Versicherten, die nicht widersprochen haben, besitzen seit Januar 2025 eine elektronische Patientenakte (ePA); seit Oktober 2025 sind Behandelnde dazu verpflichtet, sie zu verwenden. Gesundheitsministerin Warken will die ePA nicht nur zum „zentralen Dreh- und Angelpunkt“ der ärztlichen Versorgung machen, sondern auch zur „Gesundheits(daten)plattform“ ausbauen.

Dafür sollen erstens mehr strukturierte Daten in die ePA fließen, die dann „möglichst in Echtzeit für entsprechende Anwendungsfälle nachnutzbar“ sind. Derzeit sind dort vor allem noch PDF-Dateien hinterlegt, die nicht einmal durchsuchbar sind, was den Umgang mit der ePA aus Sicht von Behandelnden deutlich erschwert.

Zweitens soll die ePA weitere Funktionen wie eine digitale Terminvermittlung und elektronische Überweisungen erhalten. Die Patientenakte soll so „auch interessanter werden für diejenigen, die nicht krank sind“, kündigte Warken an. Derzeit nutzen gerade einmal rund 4 Millionen Menschen ihre ePA aktiv. Bis zum Jahr 2030 soll sich ihre Zahl, so das Ziel des BMG, auf 20 Millionen erhöhen.

„Künstliche Intelligenz“ soll Symptome auswerten

Wer sich krank fühlt, soll künftig auch über die ePA-App eine digitale Ersteinschätzung einholen können. Mit Hilfe eines Fragenkatalogs sollen Versicherte dann erfahren, ob ihre Symptome den Gang zur Hausärztin oder gar zur Notfallambulanz rechtfertigen.

Diese Auswertung soll offenbar auch mit Hilfe sogenannter Künstliche Intelligenz erfolgen. Ohnehin soll KI laut Warken „in Zukunft da eingesetzt werden können, wo sie die Qualität der Behandlung erhöht, beim Dokumentationsaufwand entlastet oder bei der Kommunikation unterstützt“. Bis 2028 sollen beispielsweise mehr als 70 Prozent der Einrichtungen in der Gesundheits- und Pflegeversorgung KI-gestützte Dokumentation nutzen – ungeachtet der hohen Risiken etwa für die Patientensicherheit oder die Autonomie der Leistungserbringer.

Dafür will das BMG „unnötigen bürokratischen Aufwand“ für KI-Anbieter reduzieren. Das Ministerium strebt dafür mit Blick auf den Digitalen Omnibus der EU-Kommission „eine gezielte Anpassung der KI-Verordnung“ an. Das umstrittene Gesetzesvorhaben der Kommission zielt darauf ab, Regeln für risikoreiche KI-Systeme hinauszuzögern und den Datenschutz deutlich einzuschränken. Zivilgesellschaftliche Organisationen warnen eindringlich, dass mit dem Omnibus der „größte Rückschritt für digitale Grundrechte in der Geschichte der EU“ drohe.

Forschungsdatenzentrum soll als „Innovationsmotor“ wirken

Die in der ePA hinterlegten Daten sollen aber nicht nur der ärztlichen Versorgung dienen, sondern vor allem auch der Forschung zugutekommen. Sie sollen künftig – sofern Versicherte dem nicht aktiv widersprechen – täglich automatisch an das Forschungsdatenzentrum Gesundheit (FDZ) gehen. Während Warken die ePA als „Dreh- und Angelpunkt“ der Versorgung sieht, beschreibt sie das FDZ als „Innovationsmotor“ der Gesundheitsforschung.

Das FDZ wurde nach jahrelangen Verzögerungen im vergangenen Herbst erst handlungsfähig. Es ist beim Bundesamt für Arzneimittel und Medizinprodukte (BfArM) in Bonn angesiedelt. Forschende können sich bei dem Zentrum registrieren, um mit den dort hinterlegten Daten zu arbeiten. Auch Pharma-Unternehmen können sich bewerben. Eine Voraussetzung für eine Zusage ist, dass die Forschung einem nicht näher definierten „Gemeinwohl“ dient.

Die pseudonymisierten Gesundheitsdaten sollen das FDZ nicht verlassen. Stattdessen erhalten Forschende Zugriff auf einen Datenzuschnitt, der auf ihre Forschungsfrage abgestimmt ist. Die Analysen erfolgen in einer „sicheren Verarbeitungsumgebung“ auf einem virtuellen Desktop, das Forschende übers Internet aufrufen können.

Ob dabei tatsächlich angemessene Schutzstandards bestehen, muss indes bezweifelt werden. Denn das Forschungszentrum verfügte in den vergangenen Jahren nicht einmal über ein IT-Sicherheitskonzept, weshalb auch ein Gerichtsverfahren der Gesellschaft für Freiheitsrechte ruht.

Gemeinsam mit der netzpolitik.org-Redakteurin Constanze Kurz hatte die GFF gegen die zentrale Sammlung sensibler Gesundheitsdaten beim FDZ geklagt. Aus ihrer Sicht sind die gesetzlich vorgesehenen Schutzstandards unzureichend, um die sensiblen Gesundheitsdaten vor Missbrauch zu schützen. Sie verlangt daher für alle Versicherten ein voraussetzungsloses Widerspruchsrecht gegen die Sekundärnutzung der eigenen Gesundheitsdaten. Nachdem das FDZ seit Oktober den aktiven Betrieb aufgenommen hat, dürfte das ruhende Verfahren in Kürze fortgesetzt werden.

„Real-World-Überwachung“ ermöglichen

Dessen ungeachtet haben sich laut BfArM-Präsident Karl Broich bereits 80 Einrichtungen beim FDZ registriert. Die Antragsteller kommen zu gleichen Teilen aus Wirtschaft, Verwaltung und Forschung. Mehr als zwei Drittel von ihnen hätten bereits konkrete Forschungsanträge gestellt, bis zum Ende des Jahres will Warken diese Zahl über die Schwelle von 300 hieven. Alle positiv beschiedenen Anträge sollen künftig in einem öffentlichen Antragsregister einsehbar sein.

Zum Jahreswechsel wird das FDZ wohl auch über weit mehr Daten verfügen als derzeit. Bislang übermitteln die gesetzlichen Krankenkassen die Abrechnungsdaten all ihrer Versicherten an das Forschungszentrum. Diese geben bereits Auskunft darüber, welche Leistungen und Diagnosen die Versicherungen in Rechnung gestellt bekommen haben.

Ab dem vierten Quartal dieses Jahres sollen dann nach und nach die Behandlungsdaten aus der ePA hinzukommen. Den Anfang machen Daten aus der elektronischen Medikationsliste, anschließend folgen die Laborfunde, dann weitere Inhalte.

Der baldige Datenreichtum gibt dem FDZ aus Sicht von BfArM-Chef Broich gänzlich neue Möglichkeiten. Er geht davon aus, dass seine Behörde in zehn Jahren bundesweit „einer der großen Daten-Hubs“ ist. Mit den vorliegenden Daten könnten Forschende dann umfassende „Lifecycle-Beobachtungen“ durchführen – „eine Real-World-Überwachung also, die klassische klinische Prüfungen so nicht abdecken können“.

Auch im FDZ soll „Künstliche Intelligenz“ mitwirken. Zum einen in der Forschung selbst: „Dafür arbeiten wir an Konzepten, die Datenschutz, Sicherheit und wissenschaftliche Nutzbarkeit von Beginn an zusammendenken“, sagt Broich. Zum anderen soll das FDZ Datensätze etwa für das Training von Sprachmodellen bereitstellen, wie die Digitalisierungsstrategie des BMG ausführt und auch bereits gesetzlich festgeschrieben ist. Sowohl Training als auch Validierung und Testen von KI-Systemen sind eine zulässige Nutzungsmöglichkeiten. Das bedeutet konkret: Die sensiblen Gesundheitsdaten von Millionen Versicherten können zum Training von Sprachmodellen verwendet werden.

Wie „Künstliche Intelligenz“ unser Gesundheitswesen verändern soll – und welche Fragen das aufwirft

Warken will Medizinregister miteinander verknüpfen

Ab 2028 könnten Trainingsdaten dann auch detaillierte Daten zu Krebserkrankungen enthalten. Denn in knapp zwei Jahren sollen die FDZ-Datenbestände mit Krebsregistern sowie dem Projekt genomDE verknüpft werden, das Erbgutinformationen von Patient:innen sammelt.

Die Datenfülle beim FDZ dürfte damit noch einmal ordentlich zunehmen. Allein die Krebsregister der Länder Bayern, Nordrhein-Westfalen und Rheinland-Pfalz halten Daten von insgesamt mehr als drei Millionen Patient:innen vor. Wer nicht möchte, dass etwa die eigenen Krebsdaten mit den Genomdaten verknüpft werden, muss mindestens einem der Register komplett widersprechen.

Im Gegensatz etwa zu den Krebsregistern der Länder, die auf Basis spezieller rechtlicher Grundlagen arbeiten, bewegen sich die meisten anderen Medizinregister dem BMG zufolge derzeit „in einem heterogenen Normengeflecht von EU-, Bundes- und Landesrecht“, was „die Schaffung einer validen Datenbasis“ behindere.

Das Ministerium hat daher bereits im Oktober das „Gesetz zur Stärkung von Medizinregistern und zur Verbesserung der Medizinregisterdatennutzung“ auf den Weg gebracht. Der Referentenentwurf sieht vor, einheitliche rechtliche Vorgaben und Qualitätsstandards für Medizinregister zu schaffen.

Ein Zentrum für Medizinregister (ZMR), das ebenfalls am BfArM angesiedelt wäre, soll demnach bestehende Medizinregister nach festgelegten Vorgaben etwa hinsichtlich Datenschutz und Datenqualität bewerten. Qualifizierte Register werden dann in einem Verzeichnis aufgeführt, dürfen zu einem festgelegten Zweck kooperieren und auch anlassbezogen Daten zusammenführen. Die personenbezogenen Daten, die dort gespeichert sind, können für die Dauer von bis zu 100 Jahren in den Registern gespeichert werden.

Derzeit gibt es bundesweit rund 350 Medizinregister. Zu den größten zählen das „Deutsche Herzschrittmacher Register“, das die Daten von mehr als einer Million Patient:innen enthält, und das „TraumaRegister DGU“ mit Daten von mehr als 100.000 Patient:innen. Das Gesundheitsministerium geht davon aus, dass etwa drei Viertel der bestehenden Medizinregister Interesse daran haben könnten, in das Verzeichnis des ZMR aufgenommen zu werden.

Verbraucher- und Datenschützer:innen mahnen Schutzvorkehrungen an

Gesundheitsdaten, die dem ZMR vorliegen, sollen ebenfalls pseudonymisiert oder anonymisiert der Forschung bereitstehen. Das geplante Medizinregistergesetz sieht außerdem vor, dass die Daten qualifizierter Register ebenfalls miteinander verknüpft werden können.

Zu diesem Zweck sollen Betreiber von Medizinregistern und die meldenden Gesundheitseinrichtungen registerübergreifende Pseudonyme erstellen dürfen. Als Grundlage dafür soll der unveränderbare Teil der Krankenversichertennummer von Versicherten (KVNR) dienen.

Fachleute weisen darauf hin, dass eine Pseudonymisierung insbesondere bei Gesundheitsdaten keinen ausreichenden Schutz vor Re-Identifikation bietet. Das Risiko wächst zudem, wenn ein Datensatz mit weiteren Datensätzen zusammengeführt wird, wenn diese weitere personenbezogene Daten der gleichen Person enthält.

Das Netzwerk Datenschutzexpertise warnt zudem davor, die Krankenversichertennummer in einer Vielzahl von Registern vorzuhalten. Weil im Gesetzentwurf notwendige Schutzvorkehrungen fehlen würden, sei „das Risiko der Reidentifizierung bei derart pseudonymisierten Datensätzen massiv erhöht“.

Der Verbraucherzentrale Bundesverband kritisiert die Menge an personenbezogenen Daten, die laut Gesetzentwurf an qualifizierte Medizinregister übermittelt werden dürfen. Dazu zählen neben sozialdemographischen Informationen auch Angaben zu Lebensumständen und Gewohnheiten sowie „zu einem Migrationshintergrund oder einer ethnischen Zugehörigkeit, der Familienstand oder die Haushaltsgröße“.

Um die Patient:innendaten besser zu schützen, forderte der Verband bereits im November vergangenen Jahres, eindeutig identifizierende Daten vom Kerndatensatz eines Medizinregisters getrennt aufzubewahren.

Gesundheitsministerium schafft Schnittstellen in die EU

Das Gesundheitsministerium lässt sich davon jedoch nicht beirren und strebt weitere Datenverknüpfungen an. Laut seiner Digitalisierungsstrategie will das BMG das Forschungspseudonym auch dazu nutzen, um die Gesundheits- und Pflegedaten „mit Sozialdaten und Todesdaten zu Forschungszwecken“ sowie „mit Abrechnungs- und ePA-Daten“ zu verbinden. Ob Versicherte dieser umfangreichen Datenverknüpfung überhaupt noch effektiv und transparent widersprechen können, ist derzeit zweifelhaft. Sicher aber ist: Der Aufwand dürfte immens sein.

Die Digitalisierungsstrategie macht ebenfalls deutlich, dass das Ministerium die geplanten Maßnahmen auch in Vorbereitung auf den Europäischen Gesundheitsdatenraum (EHDS) ergreift. Der EHDS ist der erste sektorenspezifische Datenraum in der EU und soll als Blaupause für weitere sogenannte Datenräume dienen. Schon in wenigen Jahren sollen hier die Gesundheitsdaten von rund 450 Millionen EU-Bürger:innen zusammenlaufen und grenzüberschreitend ausgetauscht werden.

Konkret bedeutet das: In gut drei Jahren, ab Ende März 2029, können auch Forschende aus der EU beim FDZ Gesundheitsdaten beantragen. Und das Zentrum für Medizinregister soll dem BMG zufolge ebenfalls Teil der europäischen Gesundheitsdateninfrastruktur werden.

Der größte Brückenschlag in der Gesundheitsdateninfrastruktur steht also erst noch bevor. Und auch hier bleibt die Ministerin eine überzeugende Antwort schuldig, was die Versicherten davon haben.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Social-Media-Debatte: Ursachenbekämpfung statt Verbote

14. Februar 2026 um 09:00

In Los Angeles stehen Meta und Google vor Gericht, in der EU muss TikTok nachschärfen. In beiden Fällen geht es um ihr süchtig machendes Design. Das verweist auf einen besseren Weg im Kinder- und Jugendschutz: Ursachenbekämpfung statt Verbote. Ein Kommentar.

Auf einer Wand sind Like-Symbole, ein Herz und ein Smiley, wie sie bei Social Media aussehen, gesprüht.
Es braucht etwas anderes, um Kinder zu schützen. Und Erwachsene auch. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Foto von George Pagan III auf Unsplash

„Ich male mir die Welt, so wie sie mir gefällt.“ – Das gelingt den Plattformbetreibern hinter Instagram, Youtube, Snapchat oder TikTok bisher ganz gut. Das in Los Angeles eröffnete Verfahren könnte an diesem Prinzip jedoch rütteln und zeigen, dass es etwas anderes als ein Verbot für Jugendliche braucht, um die negativen Effekte sozialer Medien zu reduzieren.

Die 20-jährige Hauptklägerin will Meta und Google für ihr süchtig machendes Design zur Verantwortung ziehen. Vor Gericht gibt sie an, seit über zehn Jahren von sozialen Medien abhängig zu sein – einem Effekt, dem sich die Unternehmen laut interner Dokumente bewusst waren. Und wenn man ehrlich ist: Es ist ein Effekt, den die kommerziellen Plattformen wollen, damit sich die Aufenthaltszeit auf Plattformen verlängert, sie mehr Werbung an die Nutzer*innen abspielen und so mehr Gewinne einfahren können.

Wenn in den USA eine Person vor Gericht geht, deren Generation bisher am frühesten in der digitalen Welt aufgewachsen ist, führt das unweigerlich zu der Frage, wie für diese und nachfolgende Generationen eine bessere und andere Version von sozialen Medien aussehen könnte. Denn ob mit dem Verfahren letztlich ein Präzedenzfall geschaffen werden kann oder nicht – der Prozess stärkt eine andere Stoßrichtung als das derzeit heiß diskutierte Social-Media-Verbot.

Ein Verbot ist die falsche Antwort

Von einem Verbot sozialer Medien für junge Menschen werden viele negative Effekte erwartet: Für Minderheiten oder vulnerable Gruppen fällt ein Kanal zur Vernetzung und Gemeinschaftsbildung weg, ebenso ein Kanal zur Information, Menschen ohne Papiere könnten ganz ausgeschlossen sein und auf Kinder und Jugendliche entfallen die Folgen je nach Familiensituation und Wohnort ungleich.

Diese Nebeneffekte müssten weniger ins Gewicht fallen, wenn unterm Strich auf den Plattformen und ohne Verbot das ursprüngliche Ziel erreicht werden würde: Schutz von Kindern und Jugendlichen vor digitalem Missbrauch, vor Mobbing sowie übermäßigem Konsum und Sucht.

Ein Blick nach Australien zeigt, dass Verbote einerseits löchrig bleiben und andererseits große Risiken für Privatsphäre und Datenschutz bergen. Wie die australische Regierung erwartet hatte, finden Jugendliche einfach Schlupflöcher, das Verbot zu umgehen. Sie ändern ihren Standort über VPN-Verbindungen, legen sich neue Accounts an, wechseln auf nicht betroffene Apps oder nutzen Accounts von älteren Personen. Mit KI-generierten Bildern, Ausweisen von Älteren oder durch einfaches Stirnrunzeln bestehen sie Altersabfragen, die jetzt zur Architektur von Plattformen dazugehören.

Sollte die australische Regierung an diesen Stellen nachschärfen, bleiben Alterskontrollen aus datenschutzrechtlicher Perspektive trotzdem bedenklich. Ein vorab durchgeführtes Gutachten verzeichnet massive Bedenken, wie erhobene Daten gesammelt und an Behörden weitergegeben werden könnten. Das ist der eine Fall. Der andere Fall ist auch datenschutzrechtlich problematisch, wenn personenbezogene Daten aus Alterskontrollen an Drittanbieter weitergegeben werden, wie der Fall von Discord deutlicht.

Plattformen in die Pflicht nehmen statt Probleme in die Zukunft verlagern

Der Medienrechtler Stephan Dreyer erwartet, dass ein EU-Verbot den Jugendschutz auf sozialen Plattformen verschlechtern würde, wie er gegenüber netzpolitik.org darlegte.

Dazu kommt: Soziale Medien sind allgegenwärtiger Teil des Lebens auf der ganzen Welt. Haben Jugendliche die magische Grenze von 16 Jahren überschritten, sind sie zusammen mit den Älteren weiterhin endlosen Feeds, manipulativem Design, personalisierten Empfehlungssystemen und Dopamin-Kicks ausgesetzt. Statt „Cybergrooming“ heißt die Gefahr dann „digitale Gewalt“, wie der Grok-Skandal gerade deutlich vor Augen geführt hat.

Und warum eigentlich nur Jugendliche? Sind nicht auch gestandene Mittvierziger dem suchtmachenden Design der Plattformen verfallen und geraten nicht auch Boomerinnen in den Strudel, der sie in den verschwörungsideologischen Kaninchenbau zieht? Werden nicht uns allen polarisierende Inhalte von intransparenten Algorithmen gezeigt, damit wir möglichst lange mit den Plattformen interagieren und sie uns mit personalisierter Werbung zuballern können.

Bessere Plattformen für alle

Ein Verbot für Jugendliche macht die Plattformen nicht besser. Anstatt Plattformen zur Umsetzung von Alterskontrollen zu zwingen und junge Menschen auszuschließen, müssen die Plattformen zu einer anderen Architektur verpflichtet werden. Fairness by Design und by Default nennt sich der Ansatz, der digitale Plattformen dazu verpflichtet, ihre Webseiten und Apps nutzerfreundlich und manipulationsfrei zu gestalten. Die EU ist gegenüber TikTok einen Schritt gegangen, aber die Liste an manipulativen Techniken ist lang.

Ein Verbot ist letztlich eine platte und hilflose Maßnahme. Es erinnert an überforderte Eltern, die den Kindern das Handy wegnehmen, weil sie nicht weiterwissen. Dabei könnten auch die Verbotsbefürworter*innen beim Ansatz Fairness by Design auf ihre Kosten kommen. Er wäre einer von mehreren Ansätzen, die Plattformen nachhaltig zu verändern. Und es gibt Gesetzgebungen wie das Digitale-Dienste-Gesetz oder wie das geplante Gesetz für digitale Fairness, mit denen man Plattformen verändern kann.

Die Politik muss sich nur trauen – und nicht weiter vor der Lobby der Tech-Riesen einknicken.

 


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Migrationskontrolle: Ein KI-Chatbot von Frontex soll zu Selbst-Abschiebung beraten

13. Februar 2026 um 14:56

Die europäische Grenzschutzagentur Frontex entwickelt derzeit eine App mit integriertem Chatbot. Der soll Geflüchtete dabei beraten, wie sie „freiwillig“ in ihr Herkunftsland zurückkehren können. Der Einsatz stelle nach dem AI Act kein hohes Risiko dar, findet die Behörde.

Auf einer Weste ist das Logo von Frontex zu sehen.
Frontex arbeitet an einer neuen künstlichen Intelligenz, die zu Abschiebungen beraten soll. – Alle Rechte vorbehalten IMAGO / ANP

Wenn Geflüchtete „freiwillig“ oder unfreiwillig Europa verlassen, soll sie künftig ein KI-basierter Chatbot dabei beraten. Die Grenzschutzagentur Frontex entwickelt eine App, in der Menschen mehr über finanzielle Anreize einer sogenannten freiwilligen Ausreise erfahren oder wohin sie sich für weitere Beratung wenden können.

Die Anwendung ist Teil des europäischen Reintegration Programme von Frontex, das unter anderem Ausreisen finanziert. Reisen Geflüchtete nicht freiwillig aus, begleitet Frontex etwa auch Abschiebeflüge. Seit einigen Jahren setzt die Behörde verstärkt darauf, Menschen zur „freiwilligen“ Rückkehr zu bewegen. Laut einer Präsentation von Frontex aus dem Januar 2026 habe die Unterstützung von „Rückkehr-Spezialisten“ in 42 Prozent der Fälle, bei denen sie eingesetzt wurden, in einer Entscheidung zur freiwilligen Rückkehr geendet.

Da eine solche freiwillige Rückkehr, wie die EU diese Prozesse nennt, für Menschen mit fehlenden Alternativen nicht freiwillig sein kann, nutzen manche stattdessen Begriffe wie Selbst-Abschiebung.

Abschiebungen im Gewand automatisierter Beratungen

Der KI-Chatbot soll nun ähnliches bewirken. Das Ziel sei, dass sich mehr Menschen für eine Rückkehr in ihr Heimatland entscheiden, so der stellvertretende Exekutivdirektor Lars Gerdes laut AlgorithmWatch.

Wenn Frontex jedoch eine KI-basierte Technologie einsetzen will, ist relevant, ob sie nach dem AI Act als Hochrisiko-Anwendung gilt. Die Verordnung sieht vor, dass viele KI-Systeme im Bereich Migration als Hochrisiko-Systeme einzustufen sind, etwa wenn sie bei der Prüfung von Asyleinträgen genutzt werden. Für Frontex hat das zur Behörde gehörende Fundamental Rights Office (FRO) eine entsprechende Einstufung geprüft.

Die unzureichenden Stellen der KI-Verordnung

Obwohl der Chatbot zur Rechtsberatung eingesetzt werden könnte, kam die Behörde zu dem Schluss, dass kein hohes Risiko bestehe. Somit ergebe sich kein weiterer Bedarf, mögliche Auswirkungen auf Grundrechte zu überprüfen. In einer späteren Einschätzung empfahl FRO allerdings als erste von 27 weiteren Empfehlungen, die These theoretisch zu untermauern, dass mehr Informationen die Quote freiwilliger Rückkehrer*innen erhöhen würden. Im Zuge des 2024 verabschiedeten AI Acts hatten sowohl AlgorithmWatch als auch netzpolitik.org auf Leerstellen verwiesen, die der AI Act bei der Regulierung von eingesetzten Technologien im Bereich Migration hat.

Informationen über die App erhielt die Nichtregierungsorganisation AlgorithmWatch aus internen Dokumenten, die sie mit Informationsfreiheitsanfragen erhielt. Auf welche Daten der Chatbot zugreifen können soll, ist laut AlgorithmWatch noch unklar. Ebenfalls unklar bleibt, ob er wie geplant in Sprachen wie Arabisch, Urdu oder Paschtu genutzt werden könne. Bisher hatte Frontex nur Material in englischer Sprache zum Training verwendet, das Material dafür hat Frontex‘ Return Knowledge Office Daten zum Training zusammengestellt.

Die neue App gilt bei Frontex als „schnell umsetzbares, kostengünstiges Projekt mit nur geringem Ressourcenaufwand“, wie aus internen E-Mails laut AlgorithmWatch hervorgeht. Und Frontex hofft offenbar darauf, weitere, „leistungsfähigere und integrierte IT-Systeme“ entwickeln zu können, sobald gesetzliche Hürden dazu gefallen sind.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Stalking mit digitalen Tools: Versprechen reichen nicht

13. Februar 2026 um 05:32

Mit Spionage-Apps können Menschen tief in das digitale und analoge Leben anderer eindringen. Aber es gibt Möglichkeiten, den Überwachungstools beizukommen. Dafür muss die Bundesregierung endlich handeln. Ein Kommentar.

Person im hellen Rollkragen und blauem Blazer steht am Rednerpult im Bundestag
Bundesjustizministerin Stefanie Hubig: Ihr Haus will bald den Entwurf für ein digitales Gewaltschutzgesetz vorlegen – Alle Rechte vorbehalten IMAGO / dts Nachrichtenagentur

Stell dir vor, du wirst von deinem Ex-Partner verfolgt. Er lauert dir immer wieder auf, fängt dich vor dem Kino ab oder setzt sich im Zug neben dich, um dir Gespräche aufzuzwingen. Über ein Browser-Interface sieht er, wo du bist, und erfährt intimste Details aus deinem Leben.

Für viele Frauen ist das Realität. Jede 100. Frau in Deutschland ist in den vergangenen fünf Jahren mit digitalen Tools gestalkt worden, das zeigt eine aktuelle Studie des Bundeskriminalamtes.

Spionage-Apps, AirTags, GPS-Tracker und andere technische Hilfsmittel gehören heute zum Standardrepertoire von Stalkern. Dabei sind die Spionage-Apps besonders heimtückisch. Mit ihnen braucht man keine Ortungsgeräte und keine Wanzen, um eine Person zu überwachen. Sie machen das Mobiltelefon zu einem multimedialen Kontrollinstrument. Zu einem, das die Betroffenen ganz freiwillig mit sich tragen.

Betroffene, die zur Polizei gehen, bekommen dort oft nur Unverständnis entgegengebracht. Das Wissen darum, dass derartige Spionage-Programme leicht zugänglich sind, ist noch viel zu wenig verbreitet. Expert*innen fordern Schulungen für Ermittler*innen, sowie Protokolle, die sie darauf verpflichten, bei der Erfassung häuslicher Gewalt immer auch eine mögliche digitale Ebene mitzudenken. Eigentlich müsste jede Stelle, die mit gewaltbetroffenen Personen in Kontakt kommt, eine Vorstellung davon haben, was digitale Gewalt bedeutet und was zum Schutz der Betroffenen zu tun ist.

Und wieso sind Programme, die es ermöglichen, andere heimlich über ihr eigenes Telefon auszuspionieren, in Deutschland überhaupt legal erhältlich? Die Nutzung von Spionage-Apps ist mit sechs Monaten bis fünf Jahren Haft hinreichend strafbewehrt. Aber um sie wirklich eindämmen zu können, muss die Bundesregierung auch die Hersteller*innen der Tools ins Visier nehmen. Spielzeug beispielsweise, das heimlich Audio- oder Videoaufnahmen machen kann, ist illegal. Das gleiche sollte für Apps gelten, die ein Smartphone zu einer solchen Abhöranlage machen.

Gesetzeslücken schließen, Unterstützung ausbauen

Die schwarz-rote Regierungskoalition hat in ihrem Koalitionsvertrag versprochen, diese Gesetzeslücke zu schließen. Die Überwachungs-Tools sollen demnach regelmäßig das Einverständnis der Besitzer*innen der betroffenen Telefone abfragen müssen. So könnten Eltern, wenn es denn unbedingt sein muss, ihre Kinder weiter überwachen. Es wäre aber sehr viel schwerer, eine Partnerin oder Ex-Partnerin heimlich und illegal auszuspionieren. Bisher sind es nur Versprechen und Pläne, passiert ist noch nichts.

Mindestens ebenso wichtig wie die Regulierung und Strafverfolgung wäre aber noch eine dritte Ebene im Kampf gegen digitale Gewalt, eine, die noch früher ansetzt: die Unterstützung der Betroffenen. Derzeit gilt: Wer fürchtet, digital ausgespäht und gestalkt zu werden, braucht IT-affine Freunde und Glück. Es gibt nach wie vor zu wenige Beratungsstellen für digitale Gewalt. Solche Anlaufstellen zu schaffen und diese mit genug Geld und kompetentem Personal auszustatten, das sollte jetzt höchste Priorität bekommen.

Das kostet viel Geld. Aber es ist nicht verhandelbar. Deutschland hat die Istanbul-Konvention unterzeichnet und sich damit dazu verpflichtet, alles dafür zu tun, um geschlechtsspezifische Gewalt zu bekämpfen, Betroffenen Schutz und Unterstützung zu bieten und Gewalt zu verhindern. Jetzt muss es diese Verpflichtung auch umsetzen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Digitales Stalking: „Er wusste immer genau, wo ich war“

13. Februar 2026 um 05:32

Aikos Ex-Partner verwanzt ihr Handy. Er kann sehen, was sie liest, was sie tippt, wo sie ist. Er lauert ihr immer wieder auf und verfolgt sie bis nach China. Dieser Fall zeigt, wie invasiv und bedrohlich frei verfügbare Spionage-Apps sind.

Wo sie hingeht, was sie tippt: Über eine Spionage-App auf dem Mobiltelefon bekommt der Stalker alles mit. – Alle Rechte vorbehalten Foto: Timon Studler / Unsplash, Ortsmarker: Imago / Zoonar

Seit ihrer Trennung ist Aiko eine vorsichtige Frau geworden. Bevor sie ihren Wohnblock verlässt, wartet sie still im Eingangsbereich. Dort gibt es mehrere Türen mit Glaseinsätzen. Sie versucht zu erkennen, ob draußen jemand ist. Es könnte ja sein, dass Tom ihr wieder auflauert. Er hat schon oft auf sie gewartet oder sie auf der Straße abgefangen. Er hat sich ihr von hinten genähert und sie festgehalten. Sie sagt, Tom wollte immer wieder reden, reden, reden, über ihre Beziehung, obwohl Aiko diese schon vor Jahren beendet hat.

Um Tom zu entkommen, hat Aiko ihn wiederholt angezeigt, ein Annäherungsverbot erwirkt, eine Auskunftssperre bei den Meldebehörden hinterlegen lassen, sie ist in eine neue Stadt gezogen. Doch Tom taucht immer wieder auf. Auch an diesem Tag im Sommer 2025 steht er vor der Tür. Aiko kann das Haus nicht verlassen, ohne sich mit ihm auseinanderzusetzen. Sie ruft die Polizei – wie schon so oft.

Diese Geschichte ist eine von Gewalt. Es geht um Macht und Kontrolle und um eine Spionage-App, die jede*r mit wenigen Klicks im Netz ordern kann und mit der Menschen illegal ihre (Ex-)Partner*innen ausspähen. Jede 100. Frau wurde in den vergangenen fünf Jahren mit digitalen Mitteln gestalkt, so das Bundeskriminalamt. Aiko ist eine der Betroffenen. Mit ihrer Geschichte wird in Deutschland erstmals ein Fall öffentlich, in dem nachgewiesenermaßen eine Spionage-App als Mittel der Partnerschaftsgewalt eingesetzt wurde. Nach der Trennung installierte Tom diese auf Aikos Telefon.

Über ein Browser-Interface konnte Tom sehen, wo Aiko gerade unterwegs war, und lesen, was sie tippte. Er konnte ihre Passwörter abgreifen, ihre Chatnachrichten und E-Mails, die Anrufliste, die Kontakte, den Kalender, die Bilder und Videos, den Browser-Verlauf. Er drang tief in ihr digitales und analoges Leben ein.

Ein paar Minuten allein mit Aikos Handy

Um sie zu schützen, haben sie und Tom hier andere Namen. netzpolitik.org hat mit Aiko gesprochen und Menschen aus ihrem Umfeld befragt. Zahlreiche Dokumente und geleakte Daten aus dem Kundendienst der Spionage-App mSpy bestätigen ihre Schilderungen. Eine forensische Analyse von Aikos Telefon, die ein IT-Sicherheitsexperte für netzpolitik.org durchgeführt hat, belegt zudem, dass das Gerät mit mSpy infiziert ist.

Um mSpy zu installieren, muss man das Zieltelefon für ein paar Minuten in der Hand halten. Tom hatte, so Aiko, viele Gelegenheiten, bei denen er allein mit ihrem Telefon war.

netzpolitik.org hat Tom mit den in diesem Text geschilderten Geschehnissen und Aikos Vorwürfen konfrontiert. Einen großen Teil davon hat er bereits in Gerichtsverfahren eingeräumt. Gegenüber netzpolitik.org erklärt er nur, dass ihm zu vielen der geschilderten Punkte Belege vorlägen, die eine „deutlich andere Sicht auf die Geschehnisse zulassen“. Im Einzelnen will er sich nicht äußern und verweist auf zwei noch laufende Berufungsverfahren.

„Ich dachte, er ist ein aufrichtig guter Mensch“

Die Geschichte von Tom und Aiko beginnt Anfang 2021. Sie treffen sich auf der Dating-Plattform Bumble. Tom ist Nachwuchsregisseur, in Interviews wirkt er eloquent, zu öffentlichen Anlässen trägt er einen schmal geschnittenen Anzug. Seine Agentur schreibt über ihn, dass er mit seiner Arbeit Menschen sichtbar machen wolle, die sonst nicht gesehen würden. Auch Aiko arbeitet in einem kreativen Beruf. In ihrer Freizeit geht sie gerne ins Kino oder reist mit Freundinnen zu Kunstausstellungen.

Laut Aiko verband sie und Tom das Interesse für Kunst, Filme und Design. „Ich dachte, dass er die gleichen humanistischen Werte hat wie ich, dass er ein Idealist ist, ein aufrichtig guter Mensch“, sagt Aiko heute. Sie spricht leise, sucht nach den richtigen Worten. Immer wieder hebt sie fragend den Blick, als müsse sie die Erlaubnis zum Sprechen erst einholen.

Von August 2021 bis Mai 2022 sind Tom und Aiko ein Paar. Dann habe sie entdeckt, dass Tom mit vielen anderen Frauen Kontakt hat, sagt Aiko. Sie habe Sexvideos auf einem Datenträger gefunden. Eines, das sie mit ihm gemacht habe, sieben weitere von ihm und anderen Frauen. Sie sagt, sie habe Schluss gemacht, Tom auf mehreren Messengern blockiert. Doch er habe immer wieder im Treppenhaus gestanden. Mehrere Male habe sie zugelassen, dass er in ihre Wohnung kommt. „Ich wollte extrem von ihm weg. Aber ich bin nicht weggekommen“, sagt Aiko.

Wegen dem, was dann folgt, zeigt Aiko Tom an. Die Staatsanwaltschaft fasst Aikos Schilderungen so zusammen: „Der Beschuldigte soll seine Lebensgefährtin mehrfach auf ein Bett gedrückt, ihr mit der erhobenen Faust gedroht und mit der Faust ein Loch in eine Tür geschlagen haben.“ Zu einer anderen Gelegenheit habe er Aiko, „die zwischenzeitlich ins Badezimmer gegangen war, um von dort die Polizei zu verständigen, ihr Mobiltelefon abgenommen. Als sie in der Folge anfing zu schreien und aus dem Fenster um Hilfe zu rufen, soll der Beschuldigte ihr die Hand auf den Mund gedrückt und sie vom Fenster weggezogen haben.“

Die Staatsanwaltschaft hat keine Anklage erhoben. Sie sah kein öffentliches Interesse an der Strafverfolgung.

Nachrichten an den mSpy-Kundendienst

Am 10. Januar 2023 schickt jemand von dem E-Mail-Account, den Toms Filmhochschule für ihn damals bereitstellt, eine Nachricht an den Kundendienst der Spionage-App mSpy. Dieser Mensch schreibt, er habe ein Problem: Er sehe zwar wie gewünscht den Standort des Zieltelefons, aber es übermittele nicht mehr, was darauf getippt wird.

Auf der Suche nach einer Lösung bombardiert er den Kundendienst mit dutzenden Nachrichten. Dieser rät dazu, eine Nachricht mit dem Inhalt „1000000“ an das Zieltelefon zu senden, um die App neu zu starten. Der Kunde präsentiert einen Entwurf.

aiko rede bitte mit mir anstatt mich zu blocken zum 1000000 mal. bitte aiko. das zerstört mich so sehr.

Später nennt er das Modell des Telefons, das er überwachen will. Es ist das Modell, das Aiko nutzt. MSpy hat auf Nachfragen zum Fall nicht reagiert.

Die Nachrichten sind öffentlich, nachzulesen in einem Datensatz, mit dem Millionen von Chats im Netz landeten, die Nutzer*innen mit dem Kundendienst der Spionage-App geführt haben. Die Plattform Distributed Denial of Secrets hat den Datensatz im Juni 2024 veröffentlicht. Die Hackerin maia arson crimew gibt an, dass ihr das Paket von einer anonymen Quelle zugespielt wurde.

Von Anfang 2023 bis zum Juni 2024 kontaktiert demnach jemand von Toms E-Mail-Account aus den Support mit einer gut dreistelligen Zahl von Nachrichten. Dieser Mensch hat anscheinend mehrfach physischen Zugriff auf das Zieltelefon und installiert mSpy nach Ausfällen wiederholt neu. Er will mSpy mehrere Male kündigen, weil Funktionen ausfallen, und bucht den Service dann doch wieder.

Jahre später wird Tom wegen Nachstellung mit Hilfe einer Software vor Gericht stehen. Dabei gibt er zu, dass er die App am 28. April 2024 installiert hat und damit bis zum 24. November Zugriff auf Aikos Handydaten hatte. Laut den Nachrichten könnte er Aiko aber wesentlich länger mit der App überwacht haben, bereits ab Anfang 2023.

Für Stalking mit Spionage-Apps gibt es bis zu fünf Jahre Haft

Als mSpy vor mehr als 15 Jahren auf den Markt kam, wurde die App noch offen als Instrument für Partnerschaftsgewalt vermarktet. Später stellte das Unternehmen seine Marketing-Botschaften um.

mSpy ist laut eigenen Angaben inzwischen eine App für Eltern, die damit die Geräte ihrer Kinder überwachen – das kann in Deutschland unter Umständen legal sein, auch ohne Zustimmung. Wer hingegen andere Erwachsene heimlich überwacht, handelt eindeutig strafbar: Ausspähen von Daten, womöglich Nachstellung, Verletzung der Vertraulichkeit des Wortes oder des höchstpersönlichen Lebensbereichs durch Bildaufnahmen. Dafür können mehrere Jahre Haft drohen.

Wer ein Spionage-Tool einsetzt, begeht zudem einen besonders schweren Fall von Nachstellung, strafbewehrt mit mindestens drei Monaten und bis zu fünf Jahre Haft. Verschärfend wirkt ebenfalls, wenn die Nachstellung über einen Zeitraum von mehr als sechs Monaten abläuft oder das Opfer gesundheitlich beeinträchtigt wird. Beides trifft im Fall von Aiko zu.

Der Mensch, der von Toms Account dem mSpy-Kundendienst schreibt, gibt an, mit der App seinen Sohn überwachen zu wollen. Tom hat keine Kinder. Frühere Recherchen zeigten: Andere Anwender*innen von mSpy gaben offen zu, dass sie Partner- oder Ex-Partner*innen ausspionieren wollten. Der Kundendienst half ihnen trotzdem weiter.

Kundenservice gibt Tipps für Straftaten

Keine Kraft mehr, sich zu wehren

Auch 2023, da sind Aiko und Tom bald ein Jahr getrennt, taucht Tom laut Aiko immer wieder vor ihrer Wohnung auf und begegnet ihr auch anderswo. „Wenn ich raus bin, hat er mich abgefangen“, sagt Aiko. Sie fährt zu einer Hochzeit, er sitzt im gleichen Zug. Sie will ins Kino, er steht davor. Das geht aus einer eidesstattlichen Versicherung von Aiko hervor, auf deren Basis ein Gericht später ein Kontaktverbot für Tom verhängt.

Aiko zieht sich in dieser Zeit von Familie und Freund*innen zurück. Sie reagiert monatelang nicht auf Nachrichten und Anrufe, berichten ihre Freund*innen. „Ich hatte Angst vor dem Handy“, sagt Aiko. Eine enge Freundin fährt aus Sorge zu Aikos Wohnung.

Die Freundin ist Ärztin in einer psychiatrischen Fachklinik. In einer Stellungnahme schreibt sie, Aiko habe ihr geöffnet und gesagt, Tom sei da und würde gegen ihren Willen bei ihr wohnen, sie habe keine Kraft mehr, sich zu wehren. Aiko bestätigt die Darstellung gegenüber netzpolitik.org.

Aiko und die Freundin sollen Tom gebeten haben, zu gehen. Dieser soll erwidert haben, Aiko wolle doch gar nicht, dass er gehe, er liebe sie, außerdem müsse er noch Wäsche waschen. Die Freundin soll ihn schließlich dazu gebracht haben, die Waschmaschine auszuräumen und die Wohnung zu verlassen.

Insgesamt elf Mal sucht Aiko eine Opfer- und Traumaambulanz auf, während Tom sie stalkt. Diagnose: posttraumatische Belastungsstörung, depressive Episode, panikartige Angstzustände, emotionale Labilität, Einschlafstörungen und wiederkehrende Albträume, Schamgefühle, reduziertes Selbstwertgefühl, sozialer Rückzug, Auflösungswünsche.

„Ein spontaner Rückgang ihrer hohen Symptombelastung ist unter der gegenwärtigen Hochstresssituation nicht zu erwarten“, so die Hilfseinrichtung. Aiko meldet sich immer wieder auf der Arbeit krank.

Er verfolgt sie bis nach China

Ende 2023: Aiko bucht einen Flug nach Shanghai, in die größte Stadt Chinas. Sie sagt, sie habe möglichst weit weg gewollt. Als sie ins Flugzeug steigen will, steht Tom mit ihr in der Boarding-Schlange.

„Ich dachte, das kann doch nicht sein“, sagt Aiko. Sie zweifelt an ihrer Wahrnehmung, kann sich nicht erklären, wie Tom sie gefunden hat. „Dass es so etwas wie mSpy gibt, wusste ich nicht“, sagt Aiko. Sie fügt sich. „Ich dachte, am besten lasse ich es über mich ergehen. Alles ist besser als wieder Polizei und eskalieren und ich verpasse meinen Flug.“

Aiko fasst die Reise so zusammen: Nach der Landung soll Tom mit ihr ins Hotel-Shuttle gestiegen sein, sich ein Zimmer in ihrer Unterkunft genommen haben. Um ihm zu entkommen, sei sie mit dem Taxi zurück zum Flughafen gefahren. Auch dort sei er aufgetaucht. Sie sei noch zwei Mal in neue Hotels geflüchtet, er habe sie jedes Mal gefunden. Er soll geweint haben und gesagt, er habe alle Hotels nach ihr abgesucht.

Irgendwann platzt Aiko der Kragen. „Ich habe gesagt, dass er sich verpissen soll. Ihn gefragt, ob er nicht checkt, dass ich hier bin, weil ich vor ihm fliehen will.“ Tom habe China nach rund 14 Tagen verlassen, Aiko bleibt eine weitere Woche.

Aiko sagt, dass Tom kurz nach Weihnachten bei ihren Eltern vor der Tür stand. „Ich habe hier auf dich gewartet“, soll er gesagt haben. Als sie zurück zu ihrem Wohnort fährt, soll er wieder im gleichen Zug mit ihr gesessen haben.

Die Überwachungs-Industrie

Fachleute aus Beratungsstellen, Forschung und Politik bezeichnen die Überwachung mit Spionage-Apps als digitale Gewalt, weil sie mit elektronischen Mitteln tief in die Selbstbestimmung eingreift. Programme wie mSpy nennen sie Stalkerware: Software für Stalking.

mSpy ist dabei nur eines der Produkte auf diesem Markt. IT-Sicherheitsforscher*innen sprechen von einer ganzen Industrie. Neben Spionage-Apps zählen auch GPS-Tracker oder Ortungs-Tags zu den Werkzeugen, auf die Täter*innen zugreifen.

Besonders häufig kommen Spionage-Apps in Partnerschaften und Familien zum Einsatz. Denn um sie zu installieren, brauchen die Täter*innen in der Regel einige Minuten ungestörten physischen Zugang zum Zieltelefon und den Entsperrcode des Geräts. Je näher sie einer Person stehen, desto eher haben sie beides.

Hinter mSpy steckt ein schwer zugängliches Firmengeflecht, beworben wird die Spionage-App über ein Netz von Unternehmen, die daran mitverdienen. Der Abo-Preis hängt von Buchungsdauer, Rabatten und gewünschtem Funktionsumfang ab und kann schnell 100 Euro pro Jahr übersteigen.

„Ich dachte, ich komme da nie wieder raus“

Immer wieder ruft Aiko in den Jahren, in denen Tom sie verfolgt, die Polizei zu Hilfe, zeigt Tom an. Anfang 2024 wird ein Verfahren wegen Nachstellung eingestellt. Es sei nicht „mit hinreichender Wahrscheinlichkeit nachzuweisen“, dass Aiko den Kontakt nicht gewollt habe, schreibt die Staatsanwaltschaft. Tom soll der Polizei gesagt haben, sie seien noch zusammen und Bilder gezeigt haben, auf denen er mit Aiko zu sehen war. Aiko sagt: „Ich dachte, ich komme da nie wieder raus.“

Im März 2024 schreibt jemand von Toms E-Mail-Adresse aus mehrfach an den mSpy-Kundendienst, weil bestimmte Funktionen der App ausfallen. Als der Kontakt zu Aikos Telefon für eine Weile scheinbar ganz verloren geht, fragt die Person: „can someone please help“, zig Nachrichten später: „I have to know what’s going on“.

Am 28. April um 11:08 Uhr wird die Spionage-App auf Aikos Telefon neu installiert. Wenige Minuten zuvor fragt jemand von Toms E-Mail-Adresse aus den Kundendienst, wie man mSpy installiert und bekommt eine Anleitung zugesendet. Die Nachrichten an den Kundendienst werden laut Chatprotokoll aus der Stadt verschickt, in der Aiko wohnt.

Am Tag davor klingelt Tom bei Aiko. Sie sagt, er habe geweint und gesagt, er habe keinen Schlafplatz und kein Geld und wolle nur eine Nacht bleiben. Aiko lässt ihn entgegen ihrer Vorsätze wieder in die Wohnung. Heute vermutet sie, dass er ihr Entsperrmuster kannte und mSpy installierte, während sie gerade nicht im Raum war.

Was an diesem Tag mit Aikos Telefon geschah, hinterließ Spuren auf dem Gerät. Aus einer forensischen Analyse, die netzpolitik.org bei einem unabhängigen IT-Sicherheits-Experten in Auftrag gab, geht hervor, wie sich das Geschehen vermutlich zugetragen hat: Tom installiert die App und deaktiviert dafür Sicherheitsfunktionen auf dem Handy, tippt einen Registrierungscode ein und schickt dann mit Aikos Handy eine WhatsApp-Nachricht an seine eigene Nummer:

Test Oh Keykoffer funktioniert bitte funktionieren.

K und L, sowie F und G liegen auf der Tastatur nebeneinander, vermutlich wollte Tom in Eile „Keylogger“ tippen. Ein Keylogger erfasst alle Anschläge auf der Tastatur und damit auch Passwörter, Nachrichten und Suchbegriffe, mSpy bietet diese Funktion.

Ein deutlicher Anstieg der Fälle

Wie viele Menschen andere mit Spionage-Apps ausspionieren, weiß niemand. Das Bundeskriminalamt erfasst entsprechende Anzeigen nicht gesondert. Sie fallen in die Rubrik digitale Gewalt, zusammen mit Videoaufnahmen in Umkleiden und sexualisierten Deepfakes beispielsweise. 2023 wurden laut Bundeskriminalamt 17.193 Fälle von digitaler Gewalt gegen Mädchen und Frauen von der Polizei bearbeitet.

Vor wenigen Tagen veröffentlichte das BKA eine Dunkelfeldstudie, für die Menschen zu ihren Gewalterfahrungen befragt wurden. Etwa jede 45. der befragten Frauen gab an, innerhalb der vergangenen fünf Jahre von einem Partner oder Ex-Partner gestalkt worden zu sein. Eine von hundert sagte, dass dies auch mit digitalen Mitteln geschah. Weniger als jede zehnte Frau zeigte die Taten an.

Von einem deutlichen Anstieg der Fälle von digitalem Stalking berichten Fachberatungsstellen für digitale Gewalt und der Bundesverband Frauenberatungsstellen und Frauennotrufe. Cordelia Moore, die lange in einer Frauenberatungsstelle zu digitaler Gewalt gearbeitet hat und heute Organisationen zum Thema berät, sagt: „In Stalkingfällen ist Cyberstalking inzwischen keine Ausnahme, sondern der Standard.“

Die Bundesregierung will den Anbietern von Spionage-Apps vorschreiben, regelmäßig das Einverständnis der Geräte-Besitzer*innen einzuholen, so steht es im Koalitionsvertrag. Eine heimliche Überwachung wie im Fall von Aikos Telefon wäre damit nicht mehr möglich – zumindest wenn sich die App-Anbieter daran halten.

Das Justizministerium des Bundes schreibt auf Anfrage, die Umsetzung werde gerade geprüft, man stehe dazu mit dem Innen- und dem Digitalministerium in Kontakt. Allerdings sitzen die Anbieter der App nicht in Deutschland, womöglich nicht einmal in der EU. Es ist unklar, welche Auswirkungen ein deutscher Alleingang hätte.

„Viel zu wenige wissen, dass es solche Tools gibt“

„Von Panikattacken gequält“

33 Fälle von verbotener Nachstellung gibt Aiko von Mai bis Dezember 2024 bei der Polizei zu Protokoll. Tom steht immer wieder vor ihrem Haus, fängt sie vor dem Kino und am Bahnhof ab, sitzt im gleichen Zug mit ihr, hält sie fest und will mit ihr sprechen. Er ruft mit unterdrückter Nummer immer wieder an, schickt ihr WhatsApp-Nachrichten.

Wieder bricht Aiko den Kontakt zu Freund*innen ab. Die Freundin, die im vergangenen Jahr Tom aus Aikos Wohnung verjagte, gibt sie nicht auf und fährt wieder zu ihr. In ihrer Stellungnahme heißt es:

Ich fand sie in ihrer Wohnung auf dem Sofa liegend vor, die Wohnung war vollständig abgedunkelt, (Aiko) war in einem verwahrlosten Zustand, von Panikattacken gequält und konnte zunächst kaum berichten, was sich in der letzten Zeit zugetragen hatte. Sie hatte mehrere Tage nichts gegessen, aus Angst, die Wohnung zu verlassen.

Mehr als ein Jahr später wird Tom für diese Taten von der Staatsanwaltschaft wegen Nachstellung angeklagt. Er wird ein umfassendes Geständnis ablegen, eine Richterin wird ihn zu mehr als einem Jahr Gefängnis ohne Bewährung verurteilen. Dieses Urteil ist noch nicht rechtskräftig.

„Stalking ist eine Machtdemonstration“

Michaela Burkard vom Bundesverband Frauenberatungsstellen und Frauennotrufe sagt: „Stalking ist eine Machtdemonstration, die der betroffenen Person signalisiert, dass sie sich nicht entziehen kann.“ Mit Hilfe von digitalen Werkzeugen, die den Standort übermitteln, sei eine derartige Machtdemonstration noch einfacher geworden.

„Kontrolle und Stalking treten vor allem dann auf, wenn der gewaltausübende, meist männliche Part einen Machtverlust verhindern will“, sagt Burkard. Eingebettet sei das Stalking in eine patriarchale Gesellschaft, in der Macht in heterosexuellen Beziehungen oft ungleich verteilt ist.

Typisch an dem Fall von Aiko, sagt Burkard, sei das Ineinandergreifen von analogem und digitalem Stalking. „Digitale geschlechtsspezifische Gewalt ist eine Fortsetzung bereits bestehender Gewaltverhältnisse, sie taucht selten isoliert auf“, sagt sie.

Am 10. Juni 2024 erlässt das Amtsgericht ihres Wohnortes auf Aikos Betreiben eine einstweilige Anordnung gegen Tom. Sechs Monate lang muss er mindestens 50 Meter Abstand von ihrer Wohnung halten, darf auch ihren Arbeitsplatz und die Wohnung der Eltern nicht aufsuchen oder anderweitig, beispielsweise per Anruf, Sprach- oder Textnachricht, Kontakt mit ihr aufnehmen. Bei Zufallstreffen hat er sich sofort zu entfernen. Die Anordnung wird später immer weiter verlängert werden. Die Dokumente dazu liegen netzpolitik.org vor.

Obwohl es Tom nun verboten ist, sich Aiko zu nähern, fängt er sie über den darauf folgenden Sommer vier Mal in Seitenstraßen ihrer Wohnung ab. Er rennt auf sie zu und hält sie fest. Er schreibt unzählige Nachrichten und versucht dutzende Male, sie anzurufen.

Das Amtsgericht ihres Wohnortes verurteilt Tom Ende September zu 800 Euro Ordnungsgeld. Er hört dennoch nicht auf. Im Oktober fordert das Gericht weitere 400 Euro. Wieder lässt er sich nicht davon beeindrucken. Tom wird vorläufig festgenommen. Als er wieder frei ist, schreibt er Aiko: „gib mir nur ein Zeichen, sonst muss ich wiederkommen“.

Alles netzpolitisch Relevante

Drei Mal pro Woche als Newsletter in deiner Inbox.

Jetzt abonnieren

Die Spionage-App wird enttarnt

Dass die Spionage-App auf Aikos Smartphone entdeckt wird, ist nicht den Ermittlungen der Polizei zu verdanken. Von den Beamt*innen, mit denen Aiko sprach, sei keine*r auf die Idee gekommen, dass Tom Aikos Smartphone verwanzt haben könnte, dass Toms ständige Präsenz dort ihren Ursprung hat, sagt Aiko.

Am Ende ist es nicht die Polizei, sondern ein Freund, der ihr Klarheit bringt. „Als Aiko mir von dem Stalking erzählte, hatte ich schon eine Ahnung, wie das kommen könnte, dass Tom immer weiß, wo sie ist“, sagt Benjamin. Er ist Dozent für Informatik und weiß, dass es frei erhältliche Spionage-Software gibt.

Im November 2024 besucht er Aiko und untersucht ihr Telefon. Da ist mSpy noch aktiv. Nach wenigen Minuten findet er in der App-Übersicht ein Programm mit weitreichenden Berechtigungen. Es taucht auf dem Home-Bildschirm nicht auf und verbirgt sich hinter dem unscheinbaren Namen „Update service“. Aiko sagt, ihr sei diese App nicht bekannt gewesen. Die forensische Analyse, die der unabhängige IT-Sicherheitsexperte für netzpolitik.org durchführte, bestätigt, dass es sich dabei um mSpy handelt.

Vom Partner verwanzt

So hat die App sie ausspioniert

Im Download-Ordner von Aikos Handy liegt eine Installationsdatei für die Spionage-App. Sie wurde eine Minute vor der Installation der App „Update service“ heruntergeladen. Außerdem findet sich auf dem Telefon eine Datenbank, in die mSpy Informationen kopierte: Standortdaten, Browserverlauf, Kalender, Anruflisten, Fotos und Videos, SMS und E-Mails, Chats auf verschiedenen Plattformen sowie Mitschnitte der Tastatureingaben. Auch die Testnachricht, die während der Installation an Toms Nummer verschickt wurde, findet sich in den Daten. mSpy sendet derartige Informationen in eine Cloud, wo Kund*innen sie einsehen können – übersichtlich aufbereitet über ein Browser-Tool.

Die App habe fast alle Berechtigungen gehabt, sagt Benjamin, also nicht nur auf alle Telefoninhalte zugreifen können, sondern auch Dateien und Apps aus der Ferne löschen und installieren dürfen. Er kann dies mit Screenshots belegen. Sie zeigen auch, dass die App in den 24 Stunden vor dem Novemberabend, an dem Benjamin die App entdeckt, auf verschiedene Daten zugegriffen hatte, etwa auf den Standort, Anrufliste, Fotos und Videos, Kalender, Kontakte oder SMS.

Um den Datenabfluss zu unterbrechen, habe er die Berechtigungen noch in derselben Nacht aufgehoben, sagt Benjamin. Über viele Monate hatte Tom Zugang zu den Informationen, die mSpy über dieses Gerät erfasste, konnte sehen, wo Aiko sich befand. Jetzt ist es vorbei. Einen Monat später kauft Aiko sich ein neues Telefon.

Der Moment der Erkenntnis

Zu erfahren, dass Tom sie ausgespäht hatte, war „super erschütternd“, sagt Aiko. „Er wusste meine intimsten Gedanken, er wusste immer genau, wo ich war. Und er hat die ganze Zeit meine Realität manipuliert. Ich habe ja geglaubt, dass er überall auf mich wartet.“

Noch aus einem anderen Grund war die Erkenntnis für sie ein Schock. Kurz zuvor hatte Aiko beschlossen, die Stadt zu verlassen und nach Berlin zu ziehen, um Tom zu entkommen. Sie sagt, sie wollte ohne Angst auf die Straße gehen, normal leben. „Als ich verstanden habe, dass er all meine Kommunikation abgegriffen hat, ist mir auch klar geworden, dass er vermutlich weiß, wo ich hinziehe“, sagt sie.

In den Daten, die mSpy mitschnitt, findet sich eine E-Mail mit der Einladung zur Wohnungsbesichtigung. Dort liegen auch die Koordinaten ihrer neuen Wohnung, abgegriffen, als Aiko die Wohnung besichtigte.

Nachdem Benjamin die App gefunden hat, gehen er und Aiko noch in der gleichen Nacht zur Polizei. Die beiden sagen, auf der Wache habe Benjamin versucht, den Beamten die Spionage-App zu erklären, zunächst ohne Erfolg. Erst als Aiko ein Foto herumgezeigt habe, das ihr Vermieter von Tom gemacht hatte, habe ein Polizist gesagt: „Das sieht nach nem Hacker aus.“ Auf dem Foto steht Tom mit aufgeklapptem Laptop unter Aikos Fenster.

Michaela Burkard vom Bundesverband Frauenberatungsstellen und Frauennotrufe sagt: „Wichtig ist, dass alle Instanzen, die mit einer gewaltbetroffenen Person zu tun haben, Fachwissen und die nötige Sensibilität für digitale Gewalt haben.“ So sollte etwa die Polizei im Rahmen einer Risikoeinschätzung bei Partnerschaftsgewalt immer auch digitale Gewalt abfragen.

Das fehlt beim Schutz vor digitaler Gewalt

Die Polizei findet ihn in einem Gebüsch

Februar 2025. Vier Jahre ist es her, dass sich Aiko und Tom auf Bumble getroffen haben. Das Amtsgericht verhängt weitere 3.000 Euro Ordnungsgeld gegen Tom. Die vorhergehenden 1.200 Euro hat er noch nicht gezahlt. Vor Gericht gibt er später an, weitgehend mittellos zu sein.

Ende Februar zieht Aiko nach Berlin. Ungefähr zur gleichen Zeit zieht auch Tom dorthin. Er hat nun keinen Fernzugriff mehr auf ihr Telefon, trotzdem lauert er ihr immer wieder vor ihrem Wohnblock auf, in dessen Umgebung, an der S-Bahn. Einmal finden Polizist*innen, die zu ihrer Sicherheit vor Aikos Haus patrouillieren, Tom in einem Gebüsch. Die Szene beschreibt das Amtsgericht Tiergarten in einem Urteil, das später gegen Tom fällt.

Das Amtsgericht in Berlin-Tiergarten erwirkt einen Haftbefehl gegen Tom. Von Mai bis Juni sitzt er 27 Nächte in Untersuchungshaft. Er wird nur unter der Auflage entlassen, Berlin zu verlassen und sich Aiko nicht mehr zu nähern. Und doch steht er kurz darauf wieder vor ihrer Haustür. Es ist die eingangs geschilderte Szene. Aiko ruft die Polizei und Tom landet noch einmal für fast zwei Monate in Untersuchungshaft.

Am 24. September 2025 verurteilt das Amtsgericht Tiergarten Tom wegen Nachstellung zu sechs Monaten Haft auf Bewährung. Er gesteht die Vorwürfe, will das Urteil aber nicht akzeptieren und geht in Berufung. Das Verfahren läuft.

Das Ende?

Ende Januar 2026 steht Tom noch einmal vor Gericht, diesmal in der Stadt, in der er und Aiko zuvor gewohnt haben. Es geht um die Geschehnisse, die vor ihrem Umzug stattfanden. Und anders als in Berlin geht es diesmal auch um mSpy: In ihrer Anklageschrift wegen Nachstellung erwähnt die Staatsanwaltschaft auch eine Software, die Tom auf Aikos Handy installiert habe, um ihren Standort zu verfolgen und „gezielte Zusammenkünfte herbeizuführen“.

Während ihrer Aussage kommen Aiko immer wieder die Tränen. Sie spricht dennoch weiter.

Tom gesteht alle Vorwürfe. Er bekommt ein Jahr und vier Monate Haft, keine Bewährung. In ihrem Urteil spricht die Richterin von einer „sehr hohen kriminellen Energie“. Sie erwähnt die Spionage-Software, die Nachrichten an den Kundendienst. „Die Skrupellosigkeit, die Sie da an den Tag gelegt haben, das ist besonders und zeigt eine besondere Rücksichtslosigkeit.“

Das Urteil ist noch nicht rechtskräftig. Tom sagte bei einem Telefonat mit netzpolitik.org, dass er Berufung einlegen will. Aiko sagt, für sie sei es wichtig gewesen, dass ihre Realität anerkannt wurde. Befreit fühle sie sich aber nicht, sondern vor allem: erschöpft.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Datenaustausch über psychisch erkrankte Menschen: Die Rückkehr zur Registrierung

07. Februar 2026 um 09:41

Schon vor mehr als 50 Jahren gab es Streit darüber, ob Behörden Daten über Menschen sammeln sollen, die als psychisch krank gelten. Doch während sich damals ein Konsens für mehr Teilhabe und gegen Stigmatisierung bildete, hat sich heute etwas verändert.

Menschenmenge von hinten fotografiert, drei Personen sind mit einem roten Kreis markiert.
Stigmatisierung führt zu Ausgrenzung und Diskriminierung – Gemeinfrei-ähnlich freigegeben durch unsplash.com davide ragusa, Bearbeitung: netzpolitik.org

In einem Scheidungsverfahren streiten sich zwei Ehepartner um das Sorgerecht für die gemeinsamen Kinder. Die Frau sagt, ihr Mann sei psychisch krank und meldet das ans Gesundheitsamt. Das spricht mit dem Mann und attestiert ihm „psychotisches Verhalten mit paranoider Symptomatik“. Als später gemeinsame Bekannte des bisherigen Ehepaars anonyme Briefe erhalten, verdächtigen sie den Mann und zeigen ihn bei der Polizei an. Im Hintergrund erkundigt sich die Staatsanwaltschaft beim Gesundheitsamt über ihn und kommt zum Ergebnis, dass der Angezeigte wohl schuldunfähig sei. Die Staatsanwaltschaft stellt das Verfahren ein. Das meldet sie an das Bundeszentralregister – eine Datei, die vor allem Informationen über strafrechtliche Verurteilungen, aber auch zu Verfahrenseinstellungen wegen Schuldunfähigkeit enthält. Von all dem bekommt der Mann nichts mit.

Als er, der ausländischer Staatsbürger ist, später in Deutschland eine berufliche Zulassung als Arzt beantragt, wird diese abgelehnt. Weil er psychisch krank sei.

Das ist kein theoretisches Szenario, sondern die Geschichte eines Menschen, der im Jahr 1987 Probleme bekam, weil Daten zu einer angeblichen psychischen Erkrankung in einer staatlichen Datensammlung gespeichert waren. Der Fall zeigt eindrücklich, welche Probleme derartige Eintragungen in Register schon vor fast 40 Jahren verursacht haben. Und er lehrt uns, dass es bereits seit vielen Jahren politische und gesellschaftliche Auseinandersetzungen über die behördliche Erfassung von Menschen gibt, die als psychisch erkrankt gelten. Die Diskussion reicht weit zurück bis in die 1970er-Jahre. Doch der Blick in die Vergangenheit zeigt uns, was damals anders war, und wirft die Frage auf, warum wir heute die Lehren aus dieser Geschichte vergessen zu haben scheinen.

An Fahrt gewann die gegenwärtige Diskussion mit der Forderung von CDU-Generalsekretär Carsten Linnemann vor etwa einem Jahr, im Dezember 2024. „Ich meine, wir haben große Raster angelegt für Rechtsextremisten, für Islamisten, aber offenkundig nicht für psychisch kranke Gewalttäter“, sagte Linnemann im Interview mit dem Deutschlandfunk. „Es reicht nicht aus, Register anzulegen für Rechtsextremisten und Islamisten, sondern in Zukunft sollte das auch für psychisch Kranke gelten.“

Auf der Suche nach einer Erklärung

Linnemanns Forderung nach einer staatlichen Datensammlung vorausgegangen war ein Anschlag auf den Magdeburger Weihnachtsmarkt, bei dem sechs Menschen starben und mehr als 300 weitere verletzt wurden. Der Täter in Magdeburg war nicht die einzige Person, die in jüngster Vergangenheit Gewalttaten verübt hat und bei der schnell über eine psychische Erkrankung spekuliert und berichtet wurde. Die Taten sind uns unter den Namen der Orte bekannt, an denen sie passierten: Magdeburg, Mannheim, Aschaffenburg, Hamburg sind vier davon.

Im Anschluss suchten viele nach Erklärungen und nach Wegen, solche schrecklichen Ereignisse zu verhindern. Linnemann und andere aber richteten erheblichen Schaden an, indem sie psychische Erkrankungen und Gewalt in einen bis zur Unkenntlichkeit entstellten Zusammenhang setzten. Denn klar ist: Erfasst hätte den Täter Taleb A. ein Register für Gewalttäter mit psychischen Erkrankungen nicht. Denn obwohl sich schnell nach der Tat wegen seiner Äußerungen auf Social-Media-Plattformen und zahlreichen Kontaktversuchen zu verschiedenen Behörden Mutmaßungen zu seiner psychischen Verfassung verbreiteten: Eine psychiatrische Diagnose lag bei A., der selbst als Psychiater gearbeitet hatte, offenbar nicht vor. Bei verschiedenen Behörden war er dennoch aufgefallen, es hatte Gefährderansprachen gegeben, A. war wegen der Androhung von Straftaten verurteilt worden. Im „Raster“, wie Linnemann es nannte, war A. also offenbar längst gewesen. Verhindern konnte das seine Tat damals nicht.

Die ursprünglich von Linnemann verbreitete Registeridee schien nach einem Aufschrei von Psychiatrieerfahrenen und medizinischen Fachleuten aber zunächst vom Tisch. Fast wie bei der vorangegangenen Registerdiskussion aus dem Jahr 2018 in Bayern, als die CSU-Landesregierung das dortige Psychisch-Kranken-Hilfe-Gesetz reformierte. Ursprünglich sollte in diesem Zug eine sogenannte Unterbringungsdatei eingeführt werden.

Porträtfoto von Brigitte Richter
Brigitte Richter engagiert sich seit vielen Jahren für Menschen mit psychischen Belastungen. - Alle Rechte vorbehalten privat

„Wir sind da komplett an die Decke gegangen“, erzählt Brigitte Richter heute im Rückblick. „Die wollten ein Register einführen, in dem Zwangseinweisungen eingetragen sind, auf die Behörden wie die Polizei dann fünf Jahre lang hätten zugreifen können.“ Als Ziel dieser Zwangseinweisungen schrieb die Landesregierung ins Gesetz: „Ziel der Unterbringung ist die Gefahrenabwehr.“ Erst danach, als „weiteres Ziel“, stand die Besserung des Zustandes der Eingewiesenen.

„Die Grundidee ist noch nicht überwunden“

Richter, die heute 76 Jahre alt ist, hat selbst seit mehr als einem halben Jahrhundert Psychiatrieerfahrungen gemacht. Seit vielen Jahren engagiert sie sich unter anderem im Verein Pandora für die Selbsthilfe von Menschen mit psychischen Problemen und seelischen Belastungen. Sie stellt sich hartnäckig Missständen entgegen. „Druck erzeugt Gegendruck“, nennt Richter das. Bei der Reform des bayerischen Psychisch-Kranken-Hilfe-Gesetzes vor acht Jahren hat das nach vielfältigen Protesten offenbar geklappt. Die Paragrafen zur „Unterbringungsdatei“ wurden aus dem Entwurf gestrichen. „Man muss deutlich sein und protestieren, aber konstruktiv bleiben“, rät Richter und fügt lachend hinzu: „Das nennt man dann, glaube ich, Diplomatie.“

Auch heute scheint die Forderung nach einem Register wieder vom Tisch – zumindest das Wort taucht in der öffentlichen Debatte nur noch selten auf. Doch etwas ist anders als damals in Bayern. „Es ist gut, dass niemand mehr von Registern spricht“, sagt Dr. Kirsten Kappert-Gonther. Die Fachärztin für Psychiatrie und Psychotherapie ist seit 2017 Bundestagsabgeordnete für die Grünen und deren Obfrau im Gesundheitsausschuss. Man habe eine Sensibilität dafür entwickelt, dass Register etwas Schädliches wären. „Aber die Grundidee hinter den Registern“, schränkt Kappert-Gonther den Optimismus ein, „die ist leider noch nicht überwunden“.

Während Politiker:innen also mittlerweile den Register-Begriff meiden, suchen sie nach anderen Wegen, um Daten über psychisch erkrankte Menschen für Behörden zugänglich zu machen. Die Konferenz der Gesundheitsminister:innen hat im vergangenen Sommer beschlossen, dass rechtliche Rahmenbedingungen sowie erforderliche Anpassungen und Verantwortlichkeiten geprüft werden sollen, etwa um Gesundheitsdaten und Erkenntnisse der Gefahrenabwehrbehörden auszutauschen. Auch die Innenministerkonferenz berät zu dem Thema, das Schlagwort dafür heißt „integriertes Risikomanagement“. Dabei gehe es darum, „dass den Sicherheitsbehörden die für sie relevanten Informationen der Gesundheitsbehörden“ zugänglich gemacht werden, heißt es in einem Beschluss aus dem Juni 2025. Es müsse bei relevanten Hinweisen eine „gemeinsame Risikobewertung“ erfolgen.

Länder, die Tatsachen schaffen

Während eine Bund-Länder-Arbeitsgruppe „Früherkennung und Bedrohungsmanagement“ weiter an dem Thema arbeitet, schaffen einige Länder beim Datenaustausch bereits Tatsachen. Es lassen sich dabei zwei Grundrichtungen beobachten.

Hessen beispielsweise verabschiedete im vergangenen Dezember ein neues Psychisch-Kranken-Hilfe-Gesetz. Das verpflichtet Ärzt:innen, entlassene Patient:innen an die Polizei zu melden, wenn diese zuvor wegen befürchteter Fremdgefährdung zwangseingewiesen worden waren und sie „in absehbarer Zeit ohne ärztliche Weiterbehandlung“ wieder zu einer Gefahr werden könnten. Niedersachsen schlägt einen ähnlichen Weg ein, das entsprechende Gesetz wird bald im Landtag debattiert.

Hamburg hingegen setzt statt verpflichtender Meldung und Datenaustausch vor allem auf anlassbezogenes Handeln. Grundgedanke im Modell der Hansestadt ist, dass die Innen-, Sozial- und Justizbehörden jeweils eine Fallkonferenz einleiten können, um über mögliche Hilfen und Konsequenzen für eine Person zu beraten. Und zwar immer dann, wenn sie einen Handlungsbedarf sehen, der ihre eigenen Kompetenzen und Kapazitäten überschreitet. Eine Mitarbeitende der Hamburgischen Sozialbehörde berichtete auf einem Kongress für Psychiatrie und Psychotherapie im November 2025 davon, dass so seit Start des Systems im August 2025 über insgesamt drei Personen gesprochen worden sei.

All diese Regelungen gelten jedoch allein im einzelnen Bundesland. Daher hat Niedersachsen eine Initiative in den Bundesrat eingebracht, der die Länderkammer am 30. Januar zustimmte. „Menschen mit psychischen Erkrankungen schützen, Gefahrenpotenziale erkennen durch bundesweiten Austausch“ lautet der Titel der Entschließung. Der Bundesrat fordert darin von der Bundesregierung, „insbesondere den Austausch von Gesundheitsdaten und den Erkenntnissen der Gefahrenabwehrbehörden unter datenschutzrechtlichen Vorgaben zu prüfen“ und Gesetze anzupassen. „Erkenntnisse zwischen Sicherheits-, Gesundheits-, Waffen- und gegebenenfalls anderen relevanten Behörden“ sollen bundesweit besser vernetzt werden, „um Risikopotenziale bei Personen mit psychischen Auffälligkeiten möglichst frühzeitig zu erkennen“.

Die Entschließung ähnelt dem Tenor der Innenministerkonferenz, auch wenn für den niedersächsischen Vorstoß insbesondere das Gesundheits- und Sozialministerium des Landes zuständig war.

Neben dem Datenaustausch fordert der Bundesrat eine bessere „medizinische und rehabilitative Versorgung von Menschen mit schweren psychischen Erkrankungen“. Auch der niedersächsische Gesetzentwurf spart das Thema Hilfe nicht aus und will erreichen, dass etwa sozialpsychiatrische Dienste rund um die Uhr erreichbar sein sollen. Selbst den Namen des Gesetzes passte die Landesregierung nach einer Verbändeanhörung an: „Die Terminologie wurde – in Einklang mit vergleichbaren Gesetzen der anderen Bundesländer – zu NPsychKHG geändert. H steht für Hilfen“, heißt es in einer Pressemitteilung.

Ein Gesundheitsthema wird zum Sicherheitsproblem gemacht

Doch das kann nicht verbergen, dass es im Mittelpunkt der Entwürfe um etwas anderes geht: um „Gefahrenabwehr“. Und so wird die Frage nach psychischer Verfassung sowohl in Gesetzen als auch in der öffentlichen Wahrnehmung immer mehr von einem Gesundheits- zu einem Sicherheitsthema gemacht.

Porträt von Georg Schomerus
Georg Schomerus forscht zu Stigmata. - Alle Rechte vorbehalten Stefan Straube, Universitätsklinikum Leipzig

„Das ist mittlerweile eine ganz andere Diskussion als damals 2018 zu dem Gesetz in Bayern“, sagt Prof. Dr. Georg Schomerus zu den Register- und Datenspeicherungsdiskussionen der letzten Monate. Der Direktor der Klinik und Poliklinik für Psychiatrie und Psychotherapie am Universitätsklinikum Leipzig erforscht seit vielen Jahren die Einstellung in der Bevölkerung zu psychischen Erkrankungen. Eine der Ursachen für die Diskussionsverschiebung sieht er darin, dass sich „die politische Landschaft“ verändert habe. Der rechte Rand erstarke, autoritäre Werte seien wieder in Mode, Gesetzgebung und Gesellschaft formten sich gegenseitig. „Die gesellschaftliche Stimmung treibt die Gesetzgebung“, so Schomerus. „Gleichzeitig schafft die Gesetzgebung Realitäten, die dann Normalität werden und die Stimmung beeinflussen.“

Diese Entwicklung betrachtet auch die Bundestagsabgeordnete Kirsten Kappert-Gonther von den Grünen mit Sorge. Als Ärztin sei sie in Zeiten der Psychiatriereform-Bewegung sozialisiert worden, erzählt die Parlamentarierin, die sich auch als Vorsitzende des Vereins „Aktion Psychische Kranke“ engagiert. „Viele Jahre lang hat sich der Diskurs um psychische Erkrankungen langsam, aber stetig geöffnet und vermenschlicht“, sagt sie. Es sei gesellschaftlicher Konsens gewesen, so Kappert-Gonther, dass man Menschen mit schweren psychischen Erkrankungen nicht wegsperren sollte.

50 Jahre nach einem Meilenstein der Psychiatriereform

Dass sich diese Überzeugung durchsetzte, daran hatte die Psychiatrie-Enquete aus den 1970er-Jahren einen wichtigen Anteil. Sie gilt bis heute als Meilenstein der Psychiatrie-Entwicklung in der Nachkriegsgeschichte. Während die Nationalsozialisten an der Macht waren, haben sie systematisch Menschen vernichtet, die als psychisch krank galten. Sie ermordeten sie, viele kamen durch Medikamente und Hunger zu Tode. Hunderttausende wurden zwangssterilisiert. Doch nach den Verbrechen der Nazi-Zeit brauchte es noch lange, bis die Psychiatrie sich grundlegend reformierte.

„In den Chefetagen saßen dieselben Männer wie zuvor – Männer, die Teil eines menschenverachtenden Systems gewesen waren“, sagte Kappert-Gonther in einer Rede, 80 Jahre nach dem Ende des Zweiten Weltkriegs und 50 Jahre nach dem Abschlussbericht der Psychiatrie-Enquete. „Der Geist des Sozialdarwinismus lebte fort.“ Psychiater, die im Nationalsozialismus Täter waren, wurden noch im Nachkriegsdeutschland der 60er als Sachverständige in den Bundestagsausschuss für Wiedergutmachung berufen und rechtfertigen dort ihre Taten, sodass etwa Zwangssterilisierte keine Entschädigungszahlungen bekamen.

1971 setzte die Bundesregierung dann im Auftrag des Bundestages eine Sachverständigen-Kommission ein, die Psychiatrie-Enquete. Sie sollte Vorschläge für eine Reform der psychiatrischen Versorgung in Deutschland erarbeiten. Die Zustände in den Kliniken waren bis dahin vielerorts menschenunwürdig. Im Mittelpunkt standen nicht Therapieangebote, sondern Verwahrung. Patient:innen verbrachten oftmals viele Jahre von jeglicher sozialer Teilhabe ausgeschlossen in überfüllten Groß-Anstalten, einer Bettenburg gleich. Fast die Hälfte aller Patient:innen in psychiatrischen Kliniken war dort 1973 mehr als fünf Jahre in Behandlung, fast ein Drittel länger als zehn. Es fehlte an Pflege, Sozialarbeiter:innen und psychologischen Fachkräften. So sollte es nicht weitergehen.

Die Enquete-Kommission legte 1975 ihren Abschlussbericht vor. Im Mittelpunkt stand ein Wandel – von der ewigen Hospitalisierung und Aufbewahrung fernab der Mehrheitsgesellschaft hin zu einer ambulanten und gemeindenahen Versorgung. Von den geschlossenen Unterbringungen in Großanstalten zu kleinen und offenen Stationen. Körperlich und psychisch Kranke sollten gleichgestellt sein.

Datenschutz für die Psyche

Weniger bekannt, aber ebenso deutlich waren die Äußerungen derselben Enquete-Kommission zum Umgang mit Daten über psychisch erkrankte Personen. In ihrem Abschlussbericht fordern die Sachverständigen „ausreichende Sicherungen gegen eine unbefugte Verwertung personenbezogener Daten“ und schreiben: „Das Datenschutzbedürfnis des psychisch Kranken und Behinderten ist gegenüber dem somatisch Kranken differenzierter und weiterreichend.“ Das begründen sie etwa mit dem großen Personenkreis, der in die oft „langfristige Behandlung und Rehabilitation“ involviert ist. Dadurch würden viele zu „Geheimnisträgern“, aber: „Die Möglichkeit des unbegrenzten Zugriffs aller dieser ‚Geheimnisträger‘ zu allen Daten des Kranken dürfte wohl kaum zu verantworten sein.“

Die Kritik der Psychiatrie-Enquete richtet sich auch gegen Vorschriften zum Bundeszentralregister. Also gegen jene Datensammlung, die für den Mann vom Anfang dieses Textes in den 80er-Jahren zum Problem wurde.

Ursprünglich standen in diesem Bundeszentralregister noch mehr Daten als heute, die einen Hinweis auf die psychische Verfassung einer Person geben. Laut der ersten Fassung, die 1971 Gesetz wurde, waren auch Zwangsunterbringungen Teil des Registers. Ebenso sollte dort vermerkt werden, wenn „jemand auf Grund landesrechtlicher Vorschriften wegen Geisteskrankheit, Geistesschwäche, Rauschgift- oder Alkoholsucht in eine geschlossene Anstalt endgültig eingewiesen wird“. Das Bundeszentralregister wurde damals neu errichtet. Es sollte die vielen einzelnen Strafregister der Bundesrepublik zusammenführen, die zuvor über verschiedene Staatsanwaltschaften verstreut waren. Im Kapitel „Registrierung psychisch Kranker“ des Enquete-Abschlussberichts schreiben die Sachverständigen:

Um so überraschender ist es, daß das BZRG [Bundeszentralregistergesetz], bei aller Liberalität im übrigen, jedenfalls in einem wesentlichen Punkt ein zentrales Problem des Gesamtkomplexes, nämlich die Gleichstellung von psychisch Kranken mit anderen Kranken, die heute weitgehend anerkannt und in zahlreichen Gesetzen oder Gesetzentwürfen ausdrücklich verankert ist, gründlich verkannte oder doch mißachtete.

Kein Grund für einen Registereintrag

Eine solche Registrierpflicht für psychisch Kranke, die nach Landesrecht zwangsuntergebracht sind, könne nicht hingenommen werden. Sie nehmen an, dass „ein gesetzgeberischer Irrtum hinsichtlich der tatsächlichen Voraussetzungen vorliegt, die das Bedürfnis für die Registrierung begründen sollen“. Eine pauschale Registrierung brauche es nicht, denn, so schreibt die Enquete:

Die meisten Zwangseingewiesenen sind keineswegs gefährlicher als die 80 oder 90 Prozent anderer Krankenhauspatienten oder als zahllose Bürger, die in Freiheit leben.

Schon Anfang der 70er-Jahre schrieb der Psychiater und Psychiatriehistoriker Klaus Dörner, der als einer der Wegbereiter der Psychiatriebewegung gilt, zu den Protesten gegen das Bundeszentralregistergesetz von 1971, dass man „feststellen wird, daß solange keine fortschrittlich veränderten Gesetze zustandegebracht werden, so lange die zugrundeliegenden gesellschaftlichen Verhältnisse nicht fortschrittlich verändert sind.“ Und er schließt mit einem Satz, der heute, rund fünfzig Jahre später, an Gültigkeit nicht verloren hat: „Und was Fortschritt ist, ist wenigstens in diesem Fall klar.“

Wir sehen hier, dass es bereits damals eine Auseinandersetzung mit der vermeintlichen Gefährlichkeit von Personen gab, die als psychisch krank eingestuft wurden. Dass man schon damals davon ausging, dass ein einfacher Zusammenhang weder existiert noch hilfreich ist.

Mit dem Abschlussbericht der Sachverständigen der Psychiatrie-Enquete bekam diese Haltung noch mehr Gewicht. Und 1976, ein Jahr nach der Kritik im Abschlussbericht der Psychiatrie-Enquete, strich die Bundesregierung dann den Paragrafen, der Einweisungen nach Landesrecht in die Datensammlung holte – ersatzlos. Dem Arzt vom Anfang indes half das ein Jahrzehnt später nicht, denn die Schuldunfähigkeitsvermerke blieben und sind weiter ein Teil des Bundeszentralregisters.

Wie der Fall des Arztes letztlich ausgegangen ist und ob er am Ende doch noch eine Approbation bekam, lässt sich heute nicht mehr ohne weiteres rekonstruieren. Was sich aber nachvollziehen lässt, ist die Entrüstung, die auf die Veröffentlichung der Vorfälle folgte. Zahlreiche Medien, von der taz bis zur Offenbach-Post, berichteten kritisch über die Datenspeicherung, die ohne das Wissen des Betroffenen erfolgt war. Die Reaktionen zeigen, dass es zwölf Jahre nach dem Enquete-Abschlussbericht eine hohe Sensibilität gegenüber der Erfassung vermeintlich psychisch Erkrankter gab.

Nur wenige dieser Zeitzeugnisse sind digital verfügbar. Doch sie sind im Rahmen einer Präsenzbibliothek im „Berliner Archiv für Sozialpsychiatrie“ zugänglich, wo engagierte Menschen ehrenamtlich Literatur, Dokumente und Medien über die Entwicklung der Sozial- und Gemeindepsychiatrie in Deutschland sammeln und archivieren.

Der Justizminister hört zu

In dem Archiv lässt sich nachvollziehen, wie die Deutsche Gesellschaft für Soziale Psychiatrie (DGSP) sich des Themas annahm. Seit den 1970er-Jahren bis heute setzt sich die DGSP für eine personen- und bedürfniszentrierte soziale psychiatrische Versorgung ein. Sie versuchte damals herauszufinden, wie viele Personen von einer ähnlichen Speicherung betroffen sind, und wandte sich dafür an den Generalbundesanwalt, der für das Bundeszentralregister zuständig war.

Der Generalbundesanwalt teilte mit, dass im Bundeszentralregister 72.110 Personen eingetragen seien, bei denen die Staatsanwaltschaft ein Ermittlungsverfahren wegen Schuldunfähigkeit eingestellt hatte. Bei 1.901 Personen sei ein Eintrag nach einer Einstellung vor Gericht erfolgt.

Die DGSP kritisierte das und vermutete, dass für viele der Eintragungen lediglich die Einschätzung eines Gesundheitsamtes maßgeblich gewesen sei, ohne dass ein entsprechendes psychiatrisches Gutachten vorliege.

„Es ist einfach unerträglich, dass im Bundeszentralregister ein Leben lang das Etikett ’schuldunfähig‘ gespeichert wird – und der Betroffene weiß nicht einmal etwas davon“, sagte damals DGSP-Sprecher Josef Schädle. Das sei ein „unverantwortlicher Schlag“ gegen Rehabilitationsbemühungen für psychisch erkrankte Menschen.

Auch an den damaligen Justizminister Hans Engelhard von der FDP wandte sich die DGSP. Der verteidigte zwar die Speicherung und verwies in einem Antwortschreiben an die DGSP darauf, dass der Bundesdatenschutzbeauftragte laufend Kontrollen zum Register durchführe. Dabei habe er „ein erfreulich hohes Niveau des Datenschutzes“ beim Generalbundesanwalt festgestellt. Gleichzeitig verspricht der Justizminister aber, das Problem der Benachrichtigungen in eine angestrebte Novellierung des Bundeszentralregistergesetzes aufzunehmen.

Heute sind diese Benachrichtigungen im Bundeszentralregistergesetz fest vorgeschrieben. Auch die Hürden für einen Eintrag zur Schuldunfähigkeit sind gestiegen und setzen mittlerweile ein medizinisches Sachverständigengutachten voraus.

Entmündigung im Melderegister

Rund zehn Jahre vor der Diskussion über Schuldunfähigkeitseinträge wurde bereits über ein anderes Register diskutiert, in dem ursprünglich jede Menge sensible Daten landen sollten. In einem Gesetzentwurf aus dem Jahr 1977 war geplant, bestimmte Zwangsunterbringungen in psychiatrischen Krankenhäusern im Melderegister zu speichern, genau wie Informationen über „Pflegschaft“, „vorläufige Vormundschaft“ und „Entmündigung“. Das führte zu Protesten, die Schwäbische Zeitung titelte: „Das neue Bundesmeldegesetz diskriminiert psychisch Kranke auf unerträgliche Weise“.

Neben Daten über Einweisungen und Vormundschaften sollten laut dem damaligen Entwurf des FDP-Innenministers Werner Maihofer Dutzende weitere private Informationen im Melderegister gespeichert werden, darunter Scheidungsgründe und Lohnsteuerinformationen. „Gläserner Mensch“ titelte der Spiegel dazu im Februar 1978 und vergleicht es mit den „Orwellschen Schreckensvisionen von 1984“, die Angst vor einem Personenkennzeichen ging um.

Das Maihofersche Meldegesetz war eine Reaktion auf die Versuche, mit Anschlägen und Entführungen durch die Rote Armee Fraktion umzugehen. Die Eintragungen über Unterbringungen und Entmündigungen dienten jedoch einem anderen Zweck: Die betroffenen Personen waren vom Wahlrecht ausgeschlossen und sollten dementsprechend etwa beim Versand von Wahlbenachrichtigungen erkannt werden. Der Ausschluss von Wahlen ist diskriminierend, weil er von politischer Teilhabe ausschließt, und endete für betreute und wegen Schuldunfähigkeit untergebrachte Menschen erst nach einer Entscheidung des Bundesverfassungsgerichts im Jahr 2019.

Die geplante Aufnahme von Unterbringungen und anderem in das Melderegister alarmierte in den 70ern die Saarländische Gesellschaft für Soziale Psychiatrie. „Durch die Nähe der stationären Behandlung zu amtlichen Bereich, zur staatlichen Kontrolle, entstehen Angst und wieder mehr Vorurteile gegen die psychiatrische Behandlung“, schreibt sie April 1978 in einer öffentlichen Stellungnahme. Das habe zur Folge, dass „die Patienten sich von Nicht-Fachleuten behandeln lassen oder zu spät in Behandlung kommen“.

Die Kritik von vor 50 Jahren bleibt aktuell

Der saarländische Verband weist auch darauf hin, dass dies die Gleichstellung psychisch Kranker mit körperlich Kranken, die noch von der Enquete als zentrale Forderung formuliert worden war, „gesetzlich verhindert“: „Vorurteile gegenüber dieser Gruppe, die sowohl krankmachend als auch krankheitserhaltend wirken, werden deshalb leichter aufgebaut und verstärkt.“ Die DGSP veröffentlichte ebenfalls eine Stellungnahme und warnte davor, dass durch die Registrierung das Vertrauensverhältnis zwischen Patient:innen und Ärzt:innen „erschüttert“ werde: „Die Chancen der Rehabilitation verschlechtern sich, denn außerhalb des Krankenhauses bleibt die Tatsache behördlich feststellbarer psychischer Auffälligkeit.“

Die Bundesregierung zog Maihofers Vorschlag zurück, kurz darauf legte der sein Amt als Innenminister nieder – jedoch vor allem wegen des polizeilichen Fahndungsversagens bei der Entführung von Hanns Martin Schleyer durch die RAF, der letztlich ermordet wurde. Maihofers Parteikollege und Nachfolger, der Bürgerrechtler Gerhart Baum, ging einen anderen Weg, nachdem er seine Meinung aus seiner Zeit als parlamentarischer Staatssekretär geändert hatte. In Baums Amtszeit trat 1980 erstmals ein Melderechtsrahmengesetz in Kraft, ohne jegliche Speicherung von Betreuungen oder Einweisungen.

Die Kritik der Fachleute von damals ähnelt derjenigen an den heutigen Plänen zu Registern, Datenspeicherung und -austausch. Doch damals, so wirkt es rückwirkend betrachtet, haben die verantwortlichen Politiker:innen auf Mahnungen von Fachleuten gehört. Neue Gesetze, um Daten über Menschen mit einer psychiatrischen Diagnose in Behörden zu sammeln und zusammenzuführen, waren in den darauffolgenden Jahrzehnten keine ernstgenommene Forderung mehr.

Ein gesellschaftlicher Konsens bröckelt

Die Gleichstellung von körperlich und psychisch Erkrankten und der Abbau von Stigmatisierung waren nach der Enquete in den 70ern ein gemeinsames Ziel, wenngleich es bis heute nicht vollständig erreicht worden ist. Menschenrechtliche Kritik an der Psychiatrie bleibt zahlreich: zu viel Zwang, zu wenig Autonomie sind häufige Vorwürfe.

Porträt von Kirsten Kappert-Gonther
Kirsten Kappert-Gonther ist Bundestagsabgeordnete und Ärztin für Psychiatrie und Psychotherapie. - CC-BY-SA 4.0 Rafael P. D. Suppmann

Dennoch: „Es hat viele Jahrzehnte diesen gesellschaftlichen Konsens gegeben, dass man mehr Teilhabe und weniger Stigmatisierung wollte“, sagt Kappert-Gonther, die selbst an Reformen in Kliniken mitgearbeitet hatte.

Doch heute, so Kappert-Gonther, erlebe man einen Backlash. Das gesellschaftliche Klima bewege sich in Richtung „Us and them, wir und die“, Menschen distanzieren sich von denen, die sie als „anders“ wahrnehmen. Es fällt ihr nicht schwer, jede Menge Ereignisse aufzuzählen, die das befeuern: „Es kam die Corona-Pandemie, dazu die Klimakrise, Kriege und eine zunehmende Faschisierung“, deren vorläufigen Höhepunkt sie im Agieren von Donald Trump sieht. All das bringe auch eine zunehmende Aggressivität mit sich, die sich etwa in einer steigenden Anzahl registrierter Gewalttaten widerzuspiegeln scheint.

„Psychische Erkrankungen werden heute schneller mit Kriminalität in Verbindung gebracht“, sagt die Abgeordnete. Das sei aber nicht alles: „Gewalt und Kriminalität werden psychopathologisiert.“ Damit meint Kappert-Gonther, dass gesellschaftliche Problemlagen wie zunehmende Aggressivität vorrangig mit psychischen Problemen begründet und andere Ursachen dabei ausgeblendet würden. „Dabei gibt es keine Erkrankung, die direkt zur Kriminalität führt.“

Gegen Aggressivität hilft keine Psychiatrie allein

Tatsächlich geht von psychisch Erkrankten in der Regel kein höheres Gewaltrisiko aus als von Menschen ohne eine entsprechende Diagnose. Und wenn eine psychisch erkrankte Person eine Gewalttat begeht, besteht längst nicht in jedem Fall ein Zusammenhang. Menschen mit psychischen Erkrankungen begehen Straftaten in den meisten Fällen nicht ursächlich, weil sie erkrankt sind.

Untersuchungen zeigen allerdings auch: Bestimmte Faktoren können zu einer höheren Gewaltneigung führen, etwa wenn eine Person unter dem Einfluss von Alkohol oder anderen Substanzen steht. Oder wenn Menschen Psychosen erleben, insbesondere wenn sie keinen Zugang zu angemessener Behandlung haben. Zu diesen Faktoren kommen jedoch viele weitere Risikoindikatoren hinzu, die zunächst nichts mit einer psychiatrischen Diagnose zu tun haben, etwa soziale Isolation, männliches Geschlecht oder Wohnungslosigkeit. Für Kappert-Gonther bedeutet das: „Wir können das Gewaltproblem in der Gesellschaft nicht innerhalb des psychiatrischen Versorgungssystems lösen.“ Sie fordert eine „seelenfreundliche Politik“, die das angeht, was Menschen belastet – von der Klimakrise bis zur Wohnungsnot.

Der Psychiater Schomerus kritisiert ebenfalls, wie sich die Diskussion um psychische Erkrankungen verschiebt. Er sagt aber gleichzeitig: „Es sollte kein Tabu geben, über Gewalt im Zusammenhang mit psychischer Krankheit zu sprechen. Man muss das sogar tun, es dann aber auch einordnen.“ Dies schließe ein, auch auf alle andere Umstände hinzuweisen, die Gewalt begünstigen können, und keine schnelle monokausale Zuweisung vorzunehmen.

„Wenn man wohnungslos ist, hat man weniger Zugang zu medizinischer Unterstützung und hält sich fast rund um die Uhr im öffentlichen Raum auf“, führt Schomerus ein Beispiel an. „Wenn man dann zusätzlich eine schwere psychische Krankheit hat, steigt natürlich die Gefahr für Zwischenfälle, wie dass man mit jemandem aneinandergerät oder dass es zu Konflikten kommt. In einem anderen Kontext wäre das aber gar nicht passiert.“

Das Stigma wächst wieder

Um eine zielführende Diskussion über Gewalt und ihre Ursachen zu führen, müsse man also herausfinden, wo die Probleme lagen, die zu einer Eskalation geführt haben, sei es bei einer Behandlung oder sozialen Rahmenbedingungen. „Es ist nicht hilfreich, sich nur auf einen dieser Faktoren wie psychische Erkrankungen zu fokussieren und so zu tun, als würde der allein ein Gewaltrisiko erklären“, sagt Schomerus. „Es ist aber genauso wenig sinnvoll, bestimmte Faktoren auszublenden.“

Neben seiner Tätigkeit als Direktor der Klinik und Poliklinik für Psychiatrie und Psychotherapie hat sich Schomerus der Stigmaforschung gewidmet. In Langzeitstudien untersucht er gemeinsam mit Kolleg:innen die Haltung der Bevölkerung zu psychischen Erkrankungen seit den 1990er-Jahren. „Wir sehen, dass es Krankheitsbilder gibt, die uns näherrücken und über die auch gesprochen werden kann“, sagt der Forscher. Beispiele dafür seien Depressivität, Ängstlichkeit oder Aufmerksamkeitsstörungen. „Diese Dinge haben in unserer Zeit mittlerweile einen Platz, man kann darüber besser reden als noch vor zwanzig Jahren. Das Stigma ist zwar nicht verschwunden, aber es hat nachgelassen.“

Größer wird die Ausgrenzung jedoch insbesondere bei Menschen mit schweren psychischen Erkrankungen wie einer Schizophrenie. „Das beobachten wir besonders bei Krankheiten, die das Umfeld herausfordern, weil sie unerklärlich sind oder bedrohlich erscheinen“, sagt Schomerus. „Wir können feststellen, dass das Bedürfnis nach Distanz zu Menschen mit diesen Krankheiten zunimmt.“ Das heißt: Menschen lehnen es in den vergangenen dreißig Jahren stärker ab, etwa mit einer an Schizophrenie erkrankten Person zusammenzuarbeiten oder sie Freund:innen vorzustellen.

„Die Angst wird man nicht abschaffen können“

Diese Distanzierung zeige sich auch darin, wie und wie häufig über entsprechende Krankheiten geschrieben wird. Über Schizophrenie werde generell deutlich weniger berichtet als über etwa Depressionen. Gleichzeitig habe aber die Berichterstattung über negative Stereotype zugenommen. So werde immer häufiger über Zusammenhänge von Schizophrenie und Gewalttätigkeit geschrieben statt über die Teilhabe von Menschen mit dieser Diagnose. Um der zunehmenden Ausgrenzung entgegenzutreten, helfe es, betroffene Personen sichtbar zu machen, glaubt Schomerus. „Wir dürfen nicht über die Leute sprechen, sondern müssen mit ihnen reden.“ Ihm ist es wichtig, dass psychische Krankheiten nicht nur in akuten Extremsituationen dargestellt werden, sondern auch in Zusammenhang mit Teilhabe oder überwundenen Krisen.

„Die Angst der Menschen wird man nicht abschaffen können“, sagt Brigitte Richter. „Menschen mit Psychosen machen eben Dinge, die andere nicht begreifen. Sie verhalten sich für Außenstehende ziemlich komisch.“ Dass das Menschen teilweise erschreckt, verwundert sie nicht. „Es ist nun mal schwer zu erklären, dass da jemand in einer vollen Bahn die Notbremse zieht, weil er wähnt, dass der Waggon voller Vampire ist.“ Dass ein solches Verhalten Menschen irritieren kann, erlebt sie ebenso bei sich, wenn sie mit Personen in akuten Phasen zu tun hat. Auch wenn sie, wie sie erzählt, selbst „mindestens acht Mal psychotisch“ war.

Krisen seien aber in der Regel nicht der Dauerzustand, betont Richter. Und man merkt ihr an, dass sie von der immer wiederkehrenden Diskussion über Gewalt und vermeintliche Gefährlichkeit in der langen Zeit ihres Engagements eigentlich genug hat. „Wenn wir immer nur über psychische Erkrankungen und Gewalt reden, bleibt das hängen“, sagt sie. „Selbst wenn wir sagen, dass psychische Erkrankungen und Gewalt erst mal nichts miteinander zu tun haben. Was dann im Kopf bleibt, ist der Zusammenhang: Gewalt, psychisch krank, Gewalt, psychisch krank.“ Da bleibe immer was hängen, egal wie sehr man sich um Differenzierung bemüht.

Nicht einfach, aber engagiert bleiben

„Wir sind auch Menschen mit Selbstverantwortung, sogar öfter als dass wir akute Krankheitsphasen haben“, sagt sie. Und trotzdem würden Berichte über Menschen mit Diagnosen oft auf genau diese Zeiten verkürzt. Richter wünscht sich, dass man auch „diese positive Seite betonen würde, dann wäre uns als Betroffenen mehr geholfen“. Sie meint damit, dass Menschen mit psychischen Belastungen ernst genommen und nicht auf ihre Krisen reduziert werden. „Ich wünsche mir, dass wir als Menschen gesehen werden, die eben auch ihre Macken haben. Und gegen manche dieser Macken kann man ja sogar was tun“, sagt Richter.

In einer Klinik war Richter zum ersten Mal im Jahr 1975. Sie bezeichnet sich deshalb auch als „Zeitzeugin“ der Psychiatrie-Enquete. Über viele Jahre hat sie die Entwicklung der psychiatrischen Versorgung selbst miterlebt und letztlich selbst daran teilgehabt. Sie machte eine Ausbildung zur Ergotherapeutin und arbeitete jahrelang selbst auf psychiatrischen Stationen. Schon lange ging sie im beruflichen Kontext offen mit ihrer eigenen Psychiatrieerfahrung um, obwohl sie das zu Beginn fast den Ausbildungsplatz gekostet hätte. „Ich stehe dazu. Basta. Da bin ich radikal“, sagt Richter heute. „Ich nehme das Stigma an und habe damit auch gute Erfahrungen gemacht.“

Für ihr Engagement bekam Richter im Jahr 2023 sogar das Bundesverdienstkreuz. Ein solches Engagement für Menschen, die in unserer Gesellschaft eine psychische Belastung erleben, wird es weiterhin brauchen – ob als medizinische Fachperson, Psychiatrieerfahrene oder Nachbarin. Gerade weil der Kampf für eine menschenrechtsorientierte Versorgung in den zurückliegenden Jahrzehnten vorangekommen ist, liegt es an allen zu verhindern, dass diese Entwicklung wieder rückwärts läuft.

Bald soll Richter einen Ehrenbrief des Bezirks bekommen, in dem sie lebt. „Sie sind zwar nicht einfach, aber engagiert“, habe der Bezirkstagspräsident zu ihr gesagt, als er ihr die Botschaft überbrachte. Schon in ihren Arbeitszeugnissen habe gestanden, dass sie beharrlich sei, erinnert sich Richter. Für sie ist das ein großes Kompliment und sie verspricht in einem Text für das Infoblatt Psychiatrie: „Ich werde auf jeden Fall nicht einfach, aber engagiert bleiben – so lange ich das noch kann.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Firefox 148 erhält Kill-Switch für KI

31. Januar 2026 um 07:04
Von: Ferdinand
Firefox erhält mit Version 148 am 24. Februar einen Kill-Switch für KI. Mit diesem Schalter lassen sich derzeit angebotene und künftige KI-Funktionen komplett abschalten.
❌