🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
✇netzpolitik.org

Outsourcing und Ausbeutung: „Es gibt keine KI ohne Datenarbeit“

Von: Ingo Dachwitz

Hinter dem Erfolg von Künstlicher Intelligenz und Sozialen Medien stecken ausgebeutete Arbeiter:innen. Bei einem Fachgespräch im Deutschen Bundestag wurde heute diskutiert, wie ihre Lage verbessert werden kann. Die Botschaft der Sachverständigen war klar: Deutschland muss mehr Verantwortung übernehmen.

Verschwommene Landschaftsszene in Abendsonne, einige Objekte sind gelb umrandet und nicht verschwommen: Ein Wasserturm, ein Funkmast, etwas unerkennbares. Daneben in kleiner Schrift passende Labels zu den Objekten mit einer in Prozent angegeben Genauigkeitswahrscheinlichkeit
Die Welt durch die Brille der Daten-Annotation CC-BY 4.0 Elise Racine / betterimagesofai.org

Im Bundestag wurde heute erstmals über die Arbeitsbedingungen von Datenarbeiter:innen hinter Künstlicher Intelligenz und Sozialen Medien diskutiert. Die Ausschüsse für Digitales und Arbeit hatten zu einem Fachgespräch zum Thema Data Labeling geladen. Die klare Botschaft der drei Sachverständigen: Wenn Deutschland auf KI setzt, dann muss es mehr Verantwortung für die Menschen im Maschinenraum der Technologie übernehmen.

Als Data Labeling oder auch Daten-Annotation bezeichnet man eine Tätigkeit, bei der Menschen zum Beispiel Bildmaterial mit Metadaten versehen, also mit Labels, die den Inhalt beschreiben. Das ist unter anderem für Machine-Learning-Systeme erforderlich, die hinter fast allem stehen, auf dem heute das Label „KI“ klebt. Die Arbeiter:innen sind selten bei den Tech-Konzernen selbst beschäftigt, sondern werden häufig unter ausbeuterischen Bedingungen bei Outsourcing-Firmen oder -Plattformen angestellt.

Seit Jahren bringen Whistleblower:innen, Aktivist:inen, Forscher:innen und Journalist:innen die unsichtbar gemachten Arbeitskräfte in die Öffentlichkeit. Auch wir auf netzpolitik.org berichten kontinuierlich darüber. Die Arbeitsbedingungen in der Branche haben sich aber kaum verbessert, weshalb Erwartungen an die Politik groß sind. Das heutige Fachgespräch, an dem sich Abgeordnete von Union, SPD, Grünen und Linkspartei beteiligten, könnte ein Anfang sein. An konkreten Ideen, wie sich die Lage der Arbeiter:innen verbessern lässt, mangelt es jedenfalls nicht.

„Sie sehen die KI, aber uns sehen Sie nicht“

Die ehemalige Datenarbeiterin Joan Kinyua war virtuell aus der kenianischen Hauptstadt Nairobi zugeschaltet. Sie habe mehr als acht Jahre in der Branche gearbeitet hat, die „Künstlicher Intelligenz dabei hilft, die Welt zu verstehen“. Für unterschiedliche Anbieter habe sie unter anderem Bilder von Straßen mit Metadaten versehen, damit selbstfahrende Autos keine Unfälle bauen. Auch mit Straßenszenen aus Berlin habe sie arbeiten müssen (lest dazu mehr in unserem kürzlich veröffentlichten Interview mit Joan).

Später habe sie auch Bilder mit Gewaltdarstellungen klassifizieren müssen, sogar solche, die Gewalt an Kindern zeigten. Gleichzeitig habe sie selbst Daten für das KI-Training erzeugen sollen, indem sie Bilder ihrer Tochter zur Verfügung stellt.

Ausgeübt habe sie die Tätigkeit meist vom eigenen Computer zuhause, über sogenannte Microwork-Plattformen – „ohne Arbeitsvertrag, Sozialversicherung oder Gesundheitsversorgung“. Oft habe sie stundenlang auf neue Aufträge warten müssen, teilweise bis zu 20 Stunden am Tag auf Stand-By. Immer wieder hätten Auftraggeber:innen ihre Ergebnisse abgelehnt. Den Input hätten sie trotzdem behalten, sie selbst sei leer ausgegangen. So habe es Tage gegeben, an denen sie in fünf Stunden nur zwei Cent verdient habe. Im Schnitt würden Datenarbeiter:innen in Kenia 250 US-Dollar im Monat verdienen, was kaum zum Überleben reiche.

Von ihrer Arbeit habe sie außerdem Panik-Attacken und Angstzustände erhalten. Wie ihr gehe es vielen in der Branche, schildert Kinyua. Als Präsidentin der kenianischen Data Labelers Association vertrete sie inzwischen die Interessen von mehr als tausend Datenarbeiter:innen. Viele von ihnen litten unter posttraumatischen Belastungsstörungen.

„Sie sehen die KI, aber uns sehen Sie nicht“, so beschrieb Joan Kinyua den Abgeordneten ihre Lage. Es sei auch in der Verantwortung des Deutschen Bundestages, das zu ändern und für bessere Bedingungen zu sorgen. Unter anderem schlug die Kenianerin Mindeststandards für Datenarbeiter:innen in Deutschland und weltweit vor. Dazu zählt auch eine Obergrenze für die Arbeit an belastenden Inhalten. Zudem brauche es unabhängige Audits der Anbieter, sowie Register für KI-Arbeiter:innen und ganz grundsätzlich mehr Transparenz über Outsourcing und Lieferketten von Tech-Konzernen.

Milliarden-Profite dank Prekarisierung

Dr. Milagros Miceli von der TU Berlin berichtete von ihren Erkenntnissen aus fast einem Jahrzehnt Forschung zu Datenarbeit. Die von Joan Kinyua geschilderten Arbeitsbedingungen seien „kein Einzelfall, sondern ein konstantes Muster“. Oder genauer gesagt: das Geschäftsmodell einer milliardenschweren Branche.

Der von ihr geprägte Begriff der Datenarbeit umfasse mehr als das Labeling von Daten im engeren Sinne: Auch das Generieren und Sammeln von Daten zähle dazu, in zunehmendem Maße außerdem die Validierung des algorithmischen Outputs und das Korrigieren von Fehlern. Zudem müssten Arbeiter:innen immer wieder so tun, als seien sie eine KI.

Miceli ist eine der Initiator:innen des „Data Workers Inquiry“, in dem Datenarbeiter:innen von ihrer Wirklichkeit berichten. Kürzlich hat das Projekt die Geschichte einer Person veröffentlicht, die sich als AI Girlfriend ausgeben musste, also als Chatbot, der eine Liebesbeziehung mit seinen Nutzer:innen simuliert.

Die unterschiedlichen Formen der Datenarbeit seien essenzieller Bestandteil von KI-Produkten, einer Studie zufolge würde sie 80 Prozent der Entwicklungsarbeit von Künstlicher Intelligenz ausmachen. Miceli ist in ihrer Botschaft deshalb klar: „Ohne Datenarbeit und ohne Menschen wie Joan Kinyua gibt es keine KI“. Tech-Konzerne würden Milliarden damit verdienen „dass sie Arbeiter:innen durch Outsourcing und Plattformisierung prekarisieren und austauschbar machen“. Wenn Deutschland KI fördern wolle, müsse deshalb unbedingt für bessere Arbeitsbedingungen sorgen.

Viele der Arbeiter:inen seien hochqualifiziert, hätten Bachelor-Abschlüsse oder sogar promoviert, berichtet die Forscherin. Dabei sei wichtig, dass die Tätigkeit nicht auf Länder wie Kenia beschränkt ist, sondern auch in Deutschland und Europa viele Menschen in der Branche tätig seien. Wie viele genau, das könne man aufgrund der Intransparenz der Unternehmen nicht sagen.

Probleme bei Gesundheits- und Datenschutz

Bekannt ist, dass mehrere Tech-Konzerne und Outsourcing-Unternehmen in Deutschland große Zentren für die Moderation von Inhalten auf Social-Media-Plattformen unterhalten. Eine Tätigkeit, die die Sachverständigen ebenfalls zum Feld der Datenarbeit zählt und die bereits vor drei Jahren bei einem Fachgespräch im Bundestag Thema war. Julia Kloiber vom Superrr Lab war damals bereits dabei und wies heute erneut darauf hin, dass dabei oft Menschen in vulnerablen Lebenssituationen ausgenutzt würden.

Kloiber empfahl unter anderem besseren Schutz für Menschen, die mit schädlichen Inhalten arbeiten müssen. Bei der Polizei etwa, wo ebenfalls Menschen mit Darstellungen von Kindesmissbrauch arbeiten müssten, gebe es klare Expositionsbegrenzungen. Auch für Datenarbeiter:innen brauche es eine Obergrenze, die die Arbeit mit belastendem Material festlegt. Außerdem brauche es Trauma-Prävention und Zugang zu professioneller psychologischer Unterstützung.

Der fehlende Schutz habe nicht nur schwerwiegende Folgen für die Betroffenen, sondern auch für das Gesundheitssystem, schließlich könnten Menschen ein ganz Leben lang unter posttraumatischen Belastungsstörungen leiden. Manchmal könnten sie deshalb nicht mehr arbeiten. Die dadurch entstehenden Kosten würden von den Tech-Konzernen externalisiert und von der Allgemeinheit aufgefangen.

Kloiber wies zudem auf Datenschutzprobleme beim Outsourcing hin: Nicht nur würden die Datenarbeiter:innen selbst stark überwacht, bei ihnen landeten auch große Mengen personenbezogener Daten und sensibler Inhalte. Erst kürzlich hatten Datenarbeiter:innen als Whistleblower:innen darüber berichtet, dass sie Aufnahmen aus Meta-Brillen bearbeiten müssten und dabei auch Nacktaufnahmen und andere intime Szenen von Nutzer:innen zu Gesicht bekämen.

„Unsere digitale Zukunft darf nicht auf Ausbeutung fußen“

Deutlich wurde bei dem Fachgespräch, dass auch deutsche Firmen davon profitieren, dass sie prekäre Arbeit an Menschen wie Joan Kinyua auslagern. Auch die Auto-Industrie, die Pharma-Branche oder Tech-Unternehmen wie Siemens gehörten zu den Kunden von Outsourcing-Unternehmen im Datenbereich, berichtete etwa Milagros Miceli.

Für Julia Kloiber ist klar, dass Deutschland deshalb auch Verantwortung übernehmen müsse. Eine Untersuchung des Fairwork-Projekt der Universität Oxford und Wissenschaftszentrums Berlin habe die Löhne von vier Outsourcing-Unternehmen untersucht. Nur zwei von ihnen hätten Mindestlohn gezahlt, keines den sogenannten Existenzlohn („Living Wage“), der nicht nur das bloße physische Überleben, sondern auch soziale und kulturelle Teilhabe ermöglicht.

Einen wichtigen Ansatzpunkt sieht die Geschäftsführerin des Superrr Lab deshalb in der Regulierung von Lieferketten. Hier drohe der hohe Standard des erst kürzlich eingeführten und dann schon wieder halb gecancelten deutschen Lieferkettengesetzes abgesenkt zu werden. Die Schwarz-Rote Koalition hatte sich darauf geeinigt, nicht über die – ebenfalls gerade ausgehöhlte – EU-Lieferkettenrichtlinie hinauszugehen.

Bei der Umsetzung der Richtlinie müsse Deutschland sicherzustellen, dass der Geltungsbereich nicht eingeschränkt werde. Die EU-Regeln sollen nur Unternehmen ab 5000 Beschäftigten und einem Umsatz von 1,5 Milliarden Euro gelten. In Deutschland würden dann 95 Prozent der Unternehmen von den Sorgfaltspflichten für ihre Lieferketten entbunden, so Kloiber.

Die Expertin brachte zudem ein Direktanstellungsgebot ins Spiel, wie es erst kürzlich gefeuerte und streikende TikTok-Angestellte in Deutschland gefordert hatten. Ganz grundsätzlich fordert Kloiber eine realistischere Kosten-Nutzen-Rechnung, wenn in Deutschland KI ausgebaut und etwa in der Verwaltung eingesetzt wird. Soziale und auch ökologische Kosten dürften nicht länger ausgeblendet werden: „Unsere digitale Zukunft darf nicht auf Ausbeutung fußen.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

EU-Forschungsabteilung: Ein Internet ohne schädliche Anreize ist möglich

Von: Tomas Rudl

Soziale Netzwerke und ihre auf Überwachung und Personalisierung basierenden Geschäftsmodelle schaffen Anreize, die letztlich die Demokratie gefährden. Für die EU ist es höchste Zeit, dem etwas entgegenzusetzen, fordert eine umfassende Studie der Forschungsabteilung der EU-Kommission.

Ein Mann mit Smartphone fotografiert eine blühende Kirschblüte
Blühende Orte, ob online oder offline, lassen sich schaffen, wenn politischer Wille vorhanden ist. (Symbolbild) – Alle Rechte vorbehalten IMAGO / imagebroker

Es ist schon eine Ansage: Die EU sollte in ihrem Streben nach digitaler Souveränität neue Geschäftsmodelle im digitalen Raum entwickeln, die besser mit der Demokratie vereinbar sind. Zu diesem Schluss kommt eine neue Studie der Gemeinsamen Forschungsstelle der EU-Kommission.

Der Titel der englischsprachigen Studie ist so alarmierend wie programmatisch: „Fractured reality – How democracy can win the global struggle over the information space“ (auf Deutsch: „Zersplitterte Realität – Wie die Demokratie den globalen Kampf um den Informationsraum gewinnen kann“). Verfasst haben sie ein Dutzend renommierter Forscher:innen zu dem Thema, darunter die Hauptautoren, der Kognitionspsychologe Stephan Lewandowsky und der Verhaltensforscher Mario Scharfbillig.

Aufmerksamkeitsökonomie unter der Lupe

In der heutigen „Aufmerksamkeitsökonomie“ ist die Zeit und Aufnahmefähigkeit von Menschen begrenzt, schreiben die Autor:innen. Viele Online-Dienste, insbesondere soziale Medien, kämpfen geschickt um das kostbare Gut: Sie haben ihre personalisierten Produkte so gestaltet, dass Nutzer:innen möglichst lange auf ihrem Dienst bleiben. Dann können sie ihnen möglichst viele und passgenaue Werbeanzeigen einblenden.

Dies begünstige „strukturell – wenn auch unbeabsichtigt – Inhalte, die die Demokratie bedrohen, da die menschliche Aufmerksamkeit Informationen bevorzugt, die negativ, emotional und konfliktgeladen sind“, heißt es in der Studie. Zudem würden die Dienste den Weg zu Echokammern ebnen. In diesen würden sich Menschen gegenseitig unwidersprochen ihre Ansichten bestätigen.

Grundsätzlich neu sei dieses Phänomen zwar nicht, jedoch ermögliche Technologie eine zuvor ungekannte Vielfalt und Fragmentierung von Wahrnehmungen der Realität. Dies sei ein Problem: „Demokratische Institutionen und die Demokratie selbst können ohne ein gewisses Maß an gemeinsamer Realität nicht überleben.“

Wenn sich soziale Medien nun zunehmend zu einer wichtigen Informationsquelle entwickeln und sich strukturell bedingt Informationen minderwertiger Qualität schneller verbreiten, öffnet das die Tür für Falschnachrichten, ob unbeabsichtigt (Misinformation) oder bewusst gestreut (Desinformation). Inzwischen habe sich das Phänomen jedoch gewandelt: Es gehe nicht mehr darum, konkrete Behauptungen aufzustellen oder anzufechten, sondern darum, den Informationsraum zu überfluten („flooding the zone“).

Dominanter Fantasie-Industrie-Komplex

Während Informationsmanipulation früher auf „systematischen Lügen“ basierte, setze sich die heutige Situation aus einer Mischung aus Desinformation, Täuschung, irreführenden Informationen und wahren Kernen zusammen. Die Autor:innen beschreiben dies als „Fantasie-Industrie-Komplex“, der sich selbst organisiere und lose koordiniert sei.

Ziel der Informationsmanipulation sei es heute oft nicht, Menschen von bestimmten falschen Behauptungen zu überzeugen, sondern „abzulenken, Misstrauen zu schüren und antidemokratische Normen, autoritäre Instinkte und Verhaltensweisen zu aktivieren“. Dies sei ein systemisches Problem, betonen die Autor:innen. „Einzelpersonen für Fehlinformationen verantwortlich zu machen, verkennt die eigentliche Ursache.“

Mit diesem „Fantasie-Industrie-Komplex“ ist eine der Ko-Autor:innen allzu gut vertraut. Als Studentin hatte die heute an der Georgetown University lehrende Desinformationsforscherin Renée DiResta ein Praktikum beim US-Geheimdienst CIA absolviert. Daraus drehten ihr rechte und rechtsextreme US-Influencer:innen einen Strick: Unter anderem Elon Musk nutzte seinen Einfluss sowie die Tatsache, den Kurznachrichtendienst X zu besitzen, um mit vermeintlichen Enthüllungen über einen „Zensur-Industrie-Komplex“ politisch Stimmung zu machen.

Im Zentrum der Auseinandersetzung fand sich DiResta wieder. In einschlägigen Ecken des Internets als „CIA Renee“ verunglimpft, ging es ihren Widersacher:innen vor allem darum, ihre Glaubwürdigkeit und in weiterer Folge die des Stanford Internet Observatory (SIO) zu beschädigen. Zu dieser Zeit forschte DiResta dort zu Desinformation und landete im Visier von US-Republikanern. Denen gefiel nicht, dass das SIO ihre oft auf Lügen basierende Wahlkampftaktik offenlegte.

Republikaner hacken Forschung kurz und klein

Der konzertierte Angriff auf das SIO und eine Reihe anderer vergleichbarer Institute, der auch aus Anhörungen im republikanischen Repräsentantenhaus bestand, hatte schließlich Erfolg. Verträge wurden nicht verlängert, das Budget gekürzt, im Jahr 2024 machte die Stanford University das SIO ganz dicht – gerade noch rechtzeitig vor den US-Präsidentschaftswahlen im Herbst.

Auf den Druck von rechts reagierten neben US-Universitäten auch einige prominente soziale Netzwerke: Meta kündigte etwa öffentlichkeitswirksam an, zeitgleich zum Amtsantritt Donald Trumps seine Moderationsregeln auf Facebook und Instagram zurückzuschrauben. Im Sommer darauf zog auch YouTube still und heimlich nach. Solange Falschinformationen rund um Themen wie Impfungen, Minderheiten oder Wahlbetrug im „öffentlichen Interesse“ stehen, bleiben sie auf dem größten Video-Streamingportal der Welt unmoderiert stehen.

Vor dieser von der Realität weitgehend losgelösten Entwicklung warnen die Autor:innen der EU-Studie. „Demokratie braucht einen gesunden Informationsraum, der ausreichend genaue und überprüfbare Informationen enthält, eine politische Vielfalt an Meinungen und Stimmen zulässt, breit gefächerte Besitzverhältnisse im Medienbereich umfasst sowie ein geringes Maß an schädlichen Inhalten und Fehlinformationen aufweist, wenn wir ein gewisses Realitätsgefühl erhalten wollen“.

Abkehr von der Aufmerksamkeitsökonomie

Um dem etwas entgegenzusetzen, bringen die Autor:innen konkrete Empfehlungen mit. Zuvorderst müssten wir alternative öffentliche Räume schaffen, sowohl online als auch offline, die nicht von der Aufmerksamkeitsökonomie abhängen. Wir sollten uns auch vom Erfolg crowd-basierter und dezentraler Ansätze wie jenem der Online-Enzyklopädie Wikipedia inspirieren lassen.

Nutzer:innen sollten zugleich mehr Autonomie erhalten, etwa mit einer Verbesserung des Plattformdesigns durch Erkenntnisse aus der Verhaltensforschung. Beispielsweise durch Abkühlphasen – etwas, was der anstehende Digital Fairness Act der EU durchaus auf dem Schirm hat.

Verbesserungsmöglichkeiten macht die Studie auch bei Faktenchecks aus. Selbst wenn diese stattfinden, erreichen sie oft ihr Zielpublikum nicht. Das ließe sich durch angepasste Ausspiel-Mechanismen verändern. Zudem sollten ausgewiesene Verbreiter:innen von Falschinformationen demonetarisiert werden: „Solange Desinformation profitabel ist, wird sie nicht verschwinden“.

Indes weisen die Autor:innen darauf hin, dass keine dieser Maßnahmen ausreiche, wenn keine Alternativen zu den derzeitigen Geschäftsmodellen entstehen, die auf „Engagement“ basierten. Als Alternativen stellen sie unter anderem Abo-Modelle in den Raum, eine Besteuerung digitaler Werbeanzeigen, oder auch Gebühren für Online-Dienste, die besonders viel Falschinformationen verbreiten. Helfen könnten auch Auflagen zu Interoperabilität, mit der Nutzer:innen ihre Daten möglichst einfach von einem Anbieter zu einem anderen mitnehmen und umziehen könnten.

Papiertiger ohne europäische Alternativen

Bleibt aber immer noch das Problem, dass die meisten großen Online-Dienste derzeit nicht aus Europa stammen. Forschungsergebnisse deuten der EU-Studie zufolge darauf hin, dass Algorithmen von Plattformbetreibern zu deren Gunsten instrumentalisiert werden – was sich wohl am deutlichsten an dem zur rechten Propagandaplattform umgebauten X ablesen lässt.

„Die Informationsdiät der Europäer liegt somit in den Händen ausländischer Akteure, die möglicherweise nicht die europäischen demokratischen Werte teilen“, warnen die Autor:innen. Trotz der vorangegangenen Empfehlungen lassen sich diese Werte ohne digitale Souveränität und Autonomie der EU nicht vollständig schützen, schreiben sie.

Dabei dürfe die EU jedoch nicht in offenkundige Fallen tappen, warnt die Studie: „Es besteht derzeit die Gefahr, dass ein verstärktes Streben nach digitaler Souveränität auf Technologieebene die Chance auf einen besseren demokratischen Rahmen verspielt und ähnliche Probleme in Europa wiederholt, insbesondere wenn Geschäftsmodelle nicht mit demokratischen Prinzipien vereinbar sind.“

Mit demokratischen Modellen experimentieren

Um die Stellung der EU im digitalen Raum zu stärken, sollte Europa in dezentrale System wie Atmosphere, Fediverse, Mastodon oder Eurosky investieren und zugleich eine europäische Cloud-Infrastruktur samt ausreichender Rechenkapazität schaffen. Damit ließe sich die Macht ausländischer Unternehmen schwächen, während die alternativen Dienste „demokratische Modelle in Echtzeit“ erforschen könnten. Neben finanzieller Förderung solcher Ansätze könnten etwa Verpflichtungen für öffentliche Einrichtungen und Behörden, die entstehenden Online-Dienste zu nutzen, anstatt auf X und Co. zu verharren, deren Attraktivität steigern.

Darüber hinaus sollte die EU bei der Forschung keine Kompromisse machen. „Das rasante Tempo des Wandels stellt die Forschung vor die Herausforderung, Schritt zu halten und Auswirkungen zu untersuchen, zumal Plattformdaten größtenteils privat bleiben“, heißt es in der Studie. Den im Digital Services Act (DSA) enthaltenen Zugang für die Wissenschaft, der bis heute noch nicht so recht vollständig umgesetzt ist, geht den Autor:innen augenscheinlich nicht weit genug.

Angesichts des Bedarfs an schnellerer Forschung und Evaluierung digitaler Strategien sei ein europäisches „CERN für Daten und Demokratie“ erforderlich, um die in Europa fragmentierten Kapazitäten für die kontinuierliche Plattformforschung im industriellen Maßstab zu bündeln. Trotz ihrer globalen Vorreiterrolle bei der Digitalregulierung sollte sich die EU lieber beeilen: „Ein globaler Innovationswettlauf ohne Berücksichtigung seiner gesellschaftlichen Folgen könnte die Fähigkeit der Gesellschaften überfordern, diese Veränderungen friedlich zu bewältigen.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇Linux News

Die Deutschland-App – hoffentlich nur ein griffiger Titel

Von: Matthias
Das Bundesministerium für Digitales und Staatsmodernisierung will ein Online-Bürgerbüro umsetzen und arbeitet an einer App mit integrierten KI-Agenten.
✇netzpolitik.org

Studie der Medienanstalten: Debattenkultur im Netz erodiert

Von: Denis Glismann

Die Bereitschaft, sich an Debatten in Sozialen Medien und in Online-Kommentarbereichen zu beteiligen, sinkt. Ein zentraler Grund dafür ist die Diskursqualität, die zunehmend als negativ wahrgenommen wird, so das Ergebnis einer Studie der Medienanstalten.

Zwei brennende Streichhölzer brüllen sich gegenseitig an.
In Online-Debatten fliegen oft die Funken. – Alle Rechte vorbehalten IMAGO / Dreamstime

Plattformen-Nutzer:innen und Social-Media-Redakteur:innen sind sich offenbar gleichermaßen einig: Die Debattenkultur im digitalen Raum verschlechtert sich zunehmend. Zu diesem Ergebnis kommt die „Transparenz-Check“-Studie der Medienanstalten. Konstruktive Debatten seien online demnach „kaum noch möglich“ und würden zum Teil gar als unwillkommen wahrgenommen. Dennoch wünsche sich eine deutliche Mehrheit der Befragten einen konstruktiven Austausch.

Mit der als negativ wahrgenommenen Diskursqualität sinkt offenbar auch die Bereitschaft, in den Kommentarspalten mitzudiskutieren. Der häufigste Grund dafür sei die aggressive Stimmung. Dementsprechend werde der respektvolle Umgang miteinander als zentral dafür angesehen, sich mehr zu beteiligen.

Zur Meinungsfreiheit im digitalen Raum liegen bei den Befragten zwei gegensätzliche Wahrnehmungen vor. Eine Gruppe versteht darunter, ohne Sorge vor Hass und Abwertung sprechen zu können. Die andere Gruppe will dagegen grundsätzlich alles ungehindert sagen dürfen. Besonders Menschen, die der AfD zuneigten, hätten das Gefühl, in ihrer Meinungsäußerung eingeschränkt zu sein. Wähler:innen der Linken oder der Grünen gaben dagegen häufiger an, frei artikulieren zu können.

Vertrauen in Soziale Medien ist sehr gering

Der Studie nach gibt es zwischen den Plattformen große Unterschiede. Im Vergleich zu Instagram würden Facebook und Twitter/X als wesentlich problematischer wahrgenommen – insbesondere von ehemaligen Nutzenden der Plattformen. Die schlechte Diskursqualität dort sei demnach einer der Gründe, warum Nutzende den Plattformen den Rücken kehren.

Facebook sei die Plattform, die am zweithäufigsten genutzt werde. Gleichzeitig ist sie die meistgenutzte Plattform, auf der Nutzende journalistische Beiträge lesen und kommentieren. Trotz Klarnamen werde die Atmosphäre dort aber als „toxisch“ wahrgenommen.

Das Vertrauen in die Sozialen Medien fällt insgesamt sehr gering aus. Dennoch gibt etwa ein Drittel der Befragten an, in den Kommentaren unter journalistischen Beiträgen bei Facebook, Instagram und YouTube mitzulesen.

„Vertrauen und Laune sinken nach dem Lesen von Kommentaren“

Ein Viertel derer, die aktiv kommentieren, wollen zumeist nur ihre Meinung äußern; knapp ein Viertel von ihnen will andere überzeugen und etwa jede achte Person möchte lediglich ihren Ärger kundtun. „Insgesamt überwiegen die negativen Auswirkungen von Diskursen in den Sozialen Medien“, so ein Fazit der Studie. „Extreme Meinungen überwiegen, Vertrauen und Laune sinken nach dem Lesen von Kommentaren.“

Allerdings zeigten die durchgeführten Experimente, dass eine erkennbare Moderation entscheidend dafür sein kann, dass die Diskursqualität positiver wahrgenommen wird. Je strenger moderiert wird und je konstruktiver der Austausch ist, desto respektvoller und ausgewogener wird der Diskurs wahrgenommen. Allerdings sind die Ressourcen für ein konstruktives Community-Management oftmals knapp.

Bei den Befragten bleibt unterm Strich eine Grundskepsis: Sie bezweifeln, dass Online-Diskurse überhaupt funktionieren und Kommentare zu neue Perspektiven führen können. Eine Mehrheit hat laut Studie das Gefühl, dass Online-Diskussionen spalten.

Desinformation und Bots

Die Anforderungen an das Community-Management sind in den vergangenen Jahren gewachsen. Verantwortlich dafür sind die steigende Zahl an Kommentaren und der zunehmend raue Tonfall. Zudem nehme der Anteil an Desinformation und Fake News zu.

Auch die Bedeutung von Bots hat die Studie unter die Lupe genommen. Insgesamt wurden vier Prozent der Kommentare als „wahrscheinliche Bot-Kommentare“ klassifiziert. Bei kontroversen Themen seien deutlich höhere Werte zu verzeichnen.

Eine Mehrheit der Befragten ist der Ansicht, aufgrund der Bot-Aktivität könnten sie sich im Netz inzwischen kaum noch mit echten Menschen austauschen.

Eine noch größere Rolle als die Bots spielen Trolle, Fake-Accounts und koordinierte Kommentar-Ströme. Diese würden laut den befragten Moderator:innen dazu genutzt, um den Verlauf von Diskussionen in Kommentarspalten gezielt zu beeinflussen.

Vorgehen der Studie

Der „Transparenz-Check“ der Medienanstalten ist dreistufig aufgebaut: Inhaltsanalyse, qualitative Tiefeninterviews und quantitative repräsentative Befragung.

Die Inhaltsanalyse zur Ermittlung der Rolle von Bots beruht auf Tausenden von Kommentaren unter insgesamt 39 Beiträgen von Bild, Der Spiegel, Süddeutsche Zeitung, Die Zeit sowie auf den Plattformen Facebook, Instagram und YouTube.

Elf Tiefeninterviews haben die Forschenden mit Personen aus Social-Media-Redaktionen, aus dem Community-Management sowie mit weiteren Expert:innen durchgeführt. Die quantitative repräsentative Befragung fand mit mehr als 3000 Internetnutzenden statt.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Widerstand gegen Big Tech: „KI wollen wir in unserer befreiten Welt nicht haben“

Von: Timur Vorkul

KI sei verfänglich für faschistische Ideologien und gehe mit autoritären Machtzentren einher. Große Plattformen wie ImmobilienScout24 und Doctolib machen Profit mit Grundbedürfnissen der Menschen. Zwei Aktivist*innen schlagen im Interview konkrete Schritte hin zu einer demokratischen digitalen Teilhabe vor.

Deutsche Politiker*innen stechen mit Spaten symbolisch in einen Sandhaufen.
Milliardär und Gründer von Lidl und Kaufland Dieter Schwarz lässt in Heilbronn einen „Innovationspark für Künstliche Intelligenz“ bauen. (Archivbild) – Alle Rechte vorbehalten IMAGO / Arnulf Hettrich

Künstliche Intelligenz ist in aller Munde. Ihr wird nachgesagt, nicht nur Arbeitsprozesse zu vereinfachen und zu beschleunigen. Sie soll auch der Wirtschaft zu neuem Aufschwung verhelfen. Doch immer mehr kritische Stimmen greifen in die Debatte ein und beziehen eine klare Haltung gegen diese Technologie. Zwei von ihnen sind die Digitalexpert*innen Aline Blankertz und Malte Engeler.

Anlässlich der Konferenz „Cables of Resistance. Bewegungskonferenz gegen Big Tech“, die am Wochenende in Berlin stattfindet und mögliche Widerstandsstrategien gegen KI und große Plattformen ausloten möchte, haben wir mit ihnen gesprochen. Aline Blankertz ist angewandte Ökonomin und setzt sich für die demokratische Ausgestaltung von Wirtschaft ein, unter anderem im digitalpolitischen Kollektiv „Structural Integrity“. Sie ist an der Organisation der Konferenz beteiligt. Malte Engeler ist Jurist und Mitbegründer des digitalpolitischen Kollektivs.

Im Interview erklären sie, warum sogenannte KI besonders gut verfänglich für autoritäre Politiken ist, wie ihre Sabotage aussehen kann und wie die Gesellschaft wieder mehr demokratische Kontrolle über große Plattformen erreichen kann. Sie plädieren für eine politische Organisierung und die Vergesellschaftung von Plattformen, die solch essenzielle Bereiche der Daseinsvorsorge wie Wohnungssuche oder Arztterminbuchungen strukturieren.

„Künstliche Gebärmutter“ und KI haben den gleichen ideologischen Ursprung

netzpolitik.org: Was ist eigentlich eine „künstliche Gebärmutter“? Im Manifest der Konferenz ist die Rede davon.

Aline Blankertz: Die künstliche Gebärmutter ist eine Figur, die immer mal wieder rund um Elon Musk auftaucht. Dieser Idee des selektiven Pronatalismus liegt zugrunde, dass man stärker steuern möchte, wer Kinder bekommen darf. Die künstliche Gebärmutter ist das Mittel, um sich letztlich vom „weiblichen Körper“ lösen zu können. Es geht darum, aus einer weißen cis-männlichen Perspektive technisch steuern zu können, wohin es mit der Menschheit geht. Mein Verständnis ist, dass es diese künstliche Gebärmütter noch nicht technisch ausgereift gibt. Aber es laufen Forschungsprojekte, die das aktiv vorantreiben. Daneben existieren viele andere transhumanistische Projekte, wie zum Beispiel „Neuralink“, um menschliche Gehirne und Maschinen stärker miteinander zu verbinden.

In Europa ist es subtiler, aber viele dieser Entwicklungen hin zu solchen transhumanistischen Ideen ‒ also wie können Menschen mit technischen Upgrades besser gemacht werden ‒ sehen wir auch hier. Die künstliche Gebärmutter und die Brain-Computer-Interfaces unterscheiden sich zwar von KI, weil sie unmittelbarer auf die Ebene von Hardware und menschlichen Körpern setzen. Doch auch der KI-Diskurs hat den gleichen ideologischen Ursprung und wird technisch von denselben Menschen vorangetrieben.

„Diese Infrastrukturen kann niemand bei sich im Keller haben“

netzpolitik.org: Ist das der Grund warum ihr KI fundamental ablehnt? Und was versteht ihr unter KI genau?

Malte Engeler: Wenn wir von KI reden, dann meinen wir die in der Gesellschaft aktuell sehr präsente Form von KI: große Datenmodelle, die aus vorhandenen Datenquellen zukünftige oder neue Ergebnisse berechnen. Wir meinen maschinelles Lernen, das Menschen dazu nutzen, um neue Texte, Bilder, Videos oder Ton zu erstellen. Die Modelle werden auch in sozialen Situationen eingesetzt, um neue Entscheidungspunkte zu generieren. Zum Beispiel in militärischen Aktionen, in Verwaltungsentscheidungen oder zur Benotung im Bildungswesen. Es geht also um eine Technologie, die auf Basis einer immensen Datenmenge Muster erlernt und neue Ergebnisse mit diesen Mustern produziert. Wir reden hier von ganz großen Modellen.

Dieser Technologie ist inhärent, dass sie besonders für autoritäre und faschistische Kräfte anknüpfbar ist. Das ist also kein technischer Fehler, sondern die Technologie ist schlicht und einfach so gebaut. Dazu gehört, dass diese gigantischen Modelle eine große Zentralisierung mit sich bringen. Die Infrastrukturen, die zum Training und Erhalt der Modelle nötig sind, kann niemand bei sich im Keller haben. Diese riesigen Rechenzentren können eigentlich nur zentralisiert betrieben werden. Politisch anknüpfbar für faschistische Politiken sind diese Infrastrukturen deshalb, weil sie autoritäre Machtzentren stark bevorzugen.

Zum anderen ist da diese Mustererkennung, die immer auf Daten aus der Vergangenheit trainiert wird. Sie überträgt deshalb notwendigerweise diese Vergangenheit in die Zukunft und vereinheitlicht diese Zukunft statistisch auf einen weiß-patriarchal geprägten Mittelwert. Laut diversen Theorien steckt im Kern des Faschismus die Idee, dass es eine Wahrheit, eine tiefes völkisches, echtes Leben in der Gesellschaft gibt, das zum Erblühen gebracht werden soll. Und diese Idee von einer Wiedergeburt der nationalen Stärke findet sich im technischen Prinzip wieder, massenhaft Daten zu sammeln und das vermeintlich Wahre aus diesen Daten wieder extrapolieren zu können.

„Wünschenswert, wenn Menschen KI nicht auch noch freiwillig nutzen“

netzpolitik.org: Ist es aus antifaschistischer Sicht ein Problem, wenn Menschen ihre Suchanfragen nicht mehr in eine klassische Suchmaschine eingeben, sondern zum Beispiel in ChatGPT?

Aline Blankertz: Wir beschäftigen uns vor allem mit der kollektiven Dimension. Es ist nicht die einzelne Suchanfrage bei ChatGPT, die uns dem Faschismus näher bringt. Es sind eben die Zwänge, die an vielen Stellen bestehen. Beispielsweise, dass viele Menschen nun Dinge schneller machen müssen und es deswegen mit KI tun. Dass sie im Wettbewerb mit anderen stehen, um bessere Betriebsergebnisse hervorzubringen.

Es ist wünschenswert, wenn Menschen KI nicht auch noch freiwillig nutzen. Wenn sie es nur unterhaltsam finden, könnten sie sich eine andere Beschäftigung suchen, die weniger klimaschädlich ist und den KI-Hype nicht weiter am Leben hält. Aber das ist nicht das, womit wir antifaschistisch wirken können, indem wir einfach keine KI mehr verwenden.

„KI-Unternehmer*innen werden hierzulande glorifiziert“

netzpolitik.org: Welchen konkreten Schaden seht ihr in Europa und in Deutschland durch KI bereits?

Aline Blankertz: Aktuell läuft die Debatte, dass man in der Verwaltung großflächig KI einsetzen möchte, etwa nach dem Vorbild von DOGE aus den USA. Das wird zwangsläufig dazu führen, dass mehr Menschen diskriminiert werden und dafür wiederum weniger Verantwortung übernommen wird. Das kennen wir beispielsweise aus Amsterdam, wo ein Algorithmus zur Folge hatte, dass vor allem sozial schwachen Familien Betrugsvorwürfe gemacht wurden. Oder aus England, wo Abiturergebnisse während der Corona-Pandemie insbesondere von Schüler*innen aus ärmeren Gegenden abgewertet wurden.

Ein anderer Aspekt ist, dass auch hierzulande KI-Unternehmer*innen als Heilsbringende glorifiziert werden. Ein starkes Beispiel hierfür ist Dieter Schwarz, dem die Schwarz-Gruppe mit Lidl und Kaufland gehört. Neben vielen Rechenzentren baut er so etwas wie eine Privatstadt in Baden-Württemberg auf und wird dafür gefeiert. Die CEOs von SAP und Telekom werden ebenfalls häufig gefragt, was für eine Gesellschaft sie sich wünschen. Ganz so, als ob sie gesellschaftliche Interessen im Blick hätten.

Außerdem beschleunigt KI die gesellschaftliche Spaltung nicht nur im Mediendiskurs, indem plausibel klingende Outputs ohne Anspruch auf Wahrheit eine demokratische Diskussionsbasis untergraben. Sie entwertet schon jetzt Arbeit. Menschen haben Angst, von sogenannter KI ersetzt zu werden, die Gewerkschaften fahren ihre Forderungen zurück. Gleichzeitig erwirtschaften diejenigen, die in Aktien investiert haben, umso mehr Gewinne. Die ökonomische Ungleichheit wächst also noch stärker durch KI.

„In den USA zünden Menschen autonom fahrende Autos an“

netzpolitik.org: Was kann man dagegen tun?

Aline Blankertz: Wir können uns gegen KI wenden. Wir können uns verweigern. Wir können Trainingsdaten vergiften. Man kann auch so etwas wie Sabotage nach dem CIA-Sabotage-Manual betreiben. Es enthält einige inspirierende Ideen aus der Zeit des Zweiten Weltkriegs, wie Menschen den Faschismus verlangsamen können. Man kann Abläufe verringern, verlangsamen und weniger effizient machen. Man kann sich gegen Rechenzentren engagieren.

In den USA gibt es noch weitergehende Aktivitäten. Da zünden Menschen autonom fahrende Autos von Waymo an. Dort gibt es Roboter, die die Gehwege von Obdachlosen freihalten sollen. Menschen attackieren auch diese Roboter.

Um wirklich politisch wirksam sein zu können, müssen wir uns aber organisieren. Da führt kein Weg dran vorbei. Die Dienste im Individuellen zu wechseln reicht nicht. Zu sagen, „ich finde KI doof, reicht auch nicht“. Wir müssen uns politisch zusammenfinden und die Auswirkungen solcher digitalen Technologien stärker als Problem verstehen.

„Vergesellschaftung ist die Antwort“

netzpolitik.org: Auf der Konferenz gebt ihr einen Talk darüber, dass Regulierung und Open-Source-Alternativen nicht ausreichen, um gegen die Macht der Tech-Giganten anzukommen. Stattdessen schlagt ihr vor, große Tech-Plattformen zu vergesellschaften.

Malte Engeler: Aktuell erleben wir eine autoritäre Wende. In Zeiten von Kipppunkten wie diesen ist Abwehrkampf ein ganz wesentlicher Teil. Gegen etwas zu kämpfen ist nicht so motivierend wie für etwas. Ich kann das für mich persönlich ganz klar sagen: Mich motiviert nicht der Hass auf Big Tech. Mich motiviert der Wunsch nach einer besseren Welt. Wir brauchen konkrete Vorstellungen einer Realität, in der diese Technologien, die wir gerade bekämpfen, anders funktionieren. Und wie kommen wir dahin? Wie kann man eine Plattform, die uns jetzt ausbeutet und aus unseren Bedürfnissen Profit schlägt, in etwas Besseres verwandeln?

Die Antwort auf diese Fragen ist Vergesellschaftung: also die Überführung einer privatwirtschaftlich betriebenen kommerziellen Plattform in einen Zustand, in dem sie im Sinne des Gemeinwohls und der Bedürfnisbefriedung der Menschen demokratisch verwaltet wird.

„Mit kleineren Plattformen anfangen“

netzpolitik.org: Welche Plattformen würdet ihr gern vergesellschaften?

Malte Engeler: Sich allein diese Frage zu stellen, ist sehr spannend. Das führt dazu, dass auch linke und progressive Kräfte auf einmal anfangen, darüber nachzudenken: Was ist unsere Vision? Was ist unsere Idee von einer digitalen Wohnungsvermittlung oder von einem Portal, auf dem man sich Arzttermine klicken kann? Was würden wir mit diesen Infrastrukturen machen, wenn sie nicht nach kapitalistischen Prinzipien betrieben werden würden?

Auf der „Cables of Resistance“ gibt es auch einen Talk von der Redscout24-Gruppe, in der Aline und ich beteiligt sind. Das ist ein ganz konkreter Versuch zu zeigen, wie ImmobilienScout24 anders aussehen könnte. Aber das ist nur ein Beispiel von vielen. Doctolib wäre ein anderes.

Die Frage der Vergesellschaftung zwingt uns aber auch dazu, uns zu positionieren, welche Plattformen wir vielleicht gar nicht wollen. Man kann vergesellschaften, um dann nur abzuschalten. KI ist ein Beispiel für eine Technologie, die wir in unserer befreiten Welt nicht haben wollen.

Aline Blankertz: Konkret plädieren wir dafür, mit den kleineren Plattformen wie ImmoScout24 und Doctolib anzufangen. Denn über sie läuft aktuell der Zugang zu für alle Menschen wichtigen Bereichen der Daseinsvorsorge wie Wohnungen und Gesundheitsversorgung. So können wir erst einmal lernen, wie die Umstellung auf Bedürfnisorientierung funktioniert. Mittelfristig können wir dann unseren Blick stärker auf digitale Infrastrukturen wie Rechenzentren und globale Plattformen richten.

Was wir durch Vergesellschaftung gewinnen, ist, dass wir überhaupt wieder gesellschaftlich gestalten können. Im Moment läuft es danach, wie am meisten Geld für die Anteilseignenden herausspringt. Wenn wir an Demokratie glauben, müssen wir auch daran glauben, dass wir gesellschaftliche Infrastrukturen danach gestalten können.

Da kann man sich gut bei „Deutsche Wohnen & Co enteignen“ umsehen, die für ihre Anstalt öffentlichen Rechts ‒ so unsexy das auch klingen mag ‒ sehr detailliert ausbuchstabieren, welche Gruppen wie an Entscheidungsprozessen beteiligt werden sollen. Gleichermaßen wäre das auch bei einer digitalen Wohnungsvermittlungsplattform, die auf die Bedürfnisse von Menschen zugeschnitten ist.

„ImmoScout24 vom Markt verdrängen“

netzpolitik.org: Wie kann eine Bewegung oder ein Zusammenschluss von Bewegungen praktisch an ein Unternehmen wie ImmoScout24 herankommen?

Malte Engeler: Wir sollten nicht vergessen, dass es schon viele Strukturen gibt, die so organisiert sind. Man vergisst, dass wir das Rad nicht neu erfinden müssen. Bibliotheken zum Beispiel sind eine gut funktionierende öffentliche Infrastruktur. Sie haben einen gemeinsamen Datenbestand. Beispielsweise kann ich heute in der Staatsbibliothek Berlin ein Buch aus Heidelberg bestellen und es übermorgen abholen. Das sind auch keine privatwirtschaftlich betriebenen Informationszugangssysteme.

Es gibt verschiedene Wege zum Ziel. In einigen Gemeinden existieren noch kommunale Online-Plattformen zur Wohnungsverwaltung, auf denen sie den eigenen Wohnungsbestand anbieten. Sie stellen ihn nicht auf ImmoScout24 ein. Man könnte also festlegen: Wer Wohnraum hat und vermieten will, muss dafür die Plattform der Gemeinde nutzen. Bei einigen Infrastrukturen der Daseinsvorsorge wie Müllabfuhr oder Wasseranschluss gibt es schon ein ähnliches Prinzip, den sogenannten Anschluss- und Benutzungszwang.

Mit Aktivist*innen aus dem Fediverse, die viel Erfahrung mit dezentralen Strukturen haben, und Menschen, die solche Bibliotheken-Systeme bauen, könnte man ausloten, wie ein deutschlandweiter Katalog aussähe, mit dem man in jeder Kommune auf alle Wohnungen in Deutschland zugreifen kann.

Im Grunde verdrängt man ImmoScout24 auf diese Weise vom Markt und vergesellschaftet es gar nicht. Die Plattform wird so immer unwichtiger. Sie kann dann noch Eigentumswohnungen auf dem Land vermitteln, aber ist aus dem Mietraum raus. Das wäre bereits eine Errungenschaft.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Gesetzentwurf: So will Gesundheitsministerin Warken ihre Digitalstrategie umsetzen

Von: Daniel Leisegang

Das Bundesgesundheitsministerium will die Digitalisierung im Gesundheitswesen rasch voranbringen. Ein Gesetzentwurf definiert dafür die Rolle der elektronischen Patientenakte um, weitet die Nutzung von Gesundheitsdaten erheblich aus und gibt der Gematik neue weitreichende Befugnisse. Wir veröffentlichen den Gesetzentwurf.

Ministerin Nina Warken mit Merkel-Raute vor einer blauen Wand.
Nina Warken hat unser aller Gesundheitsdaten fest im Blick. – Alle Rechte vorbehalten IMAGO / dts Nachrichtenagentur

Bundesgesundheitsministerin Nina Warken (CDU) hat einen ersten Entwurf für das „Gesetz für Daten und digitale Innovation im Gesundheitswesen“ (GeDIG) vorgelegt. Das rund 200-seitige Dokument soll die Weichen für eine digital gestützte Gesundheitsversorgung stellen und wird derzeit zwischen den Bundesministerien abgestimmt. Wir veröffentlichen den Entwurf (PDF).

Das Fundament für das Gesetz hatte Warken bereits Mitte Februar mit ihrer Digitalisierungsstrategie gebaut. Darin formuliert die Ministerin das Ziel, die elektronische Patientenakte (ePA) nicht nur zum „zentralen Dreh- und Angelpunkt“ der ärztlichen Versorgung zu machen, sondern auch zur „Gesundheits(daten)plattform“ auszubauen.

Dementsprechend soll das GeDIG unter anderem die Grundlagen für ein „digitales Primärversorgungssystem“ schaffen, indem es die Rolle der ePA erheblich erweitert. Außerdem will das Ministerium mehr Gesundheitsdaten für die Forschung bereitstellen und die Befugnisse der Gematik umfassend ausbauen.

Die elektronische Patientenakte als erste Anlaufstelle

Die ePA-App soll den Versicherten künftig einen „digitalen Versorgungseinstieg“ ermöglichen. Sie wäre dann nicht mehr nur ein digitaler Dokumentenspeicher, sondern die erste digitale Anlaufstelle für die gesundheitliche Grundversorgung.

Mit Hilfe der App sollen Versicherte künftig zunächst eine Ersteinschätzung einholen. Diese Einschätzung soll spätestens ab dem 1. Februar 2028 nach einheitlichen Standards durch die Terminservicestellen der Kassenärztlichen Vereinigungen erfolgen. Versicherte sollen dann über die ePA-App direkt an deren standardisierte Ersteinschätzungsverfahren weitergeleitet werden. Wird dabei ein Behandlungsbedarf festgestellt, können die Versicherten über die App digital einen Termin für eine ärztliche Behandlung buchen. Damit der Prozess möglichst reibungsfrei abläuft, müssen Arztpraxen ab dem 1. September 2029 die elektronische Überweisung anbieten.

Bei der Terminvergabe sollen ebenfalls einheitliche Standards gelten. Buchungsplattformen wie Doctolib müssen sich laut Gesetzentwurf auf strengere Vorgaben einstellen, die die Kassenärztliche Bundesvereinigung (KBV) und der GKV-Spitzenverband festlegen. Sie sollen unter anderem sicherstellen, dass Dritte den Terminbuchungsprozess nicht kommerziell nutzen.

Krankenkassen sollen Gesundheitsdaten auswerten dürfen

Das GeDIG zielt außerdem darauf ab, dass im Gesundheitswesen mehr Daten für „Versorgung, Forschung und Innovation“ bereitstehen.

Dafür sollen die Krankenkassen deutlich mehr Befugnisse erhalten, um bei ihren Versicherten individuelle Gesundheitsrisiken auszumachen. Mit Zustimmung der Versicherten sollen sie auf Daten zugreifen dürfen, die in der ePA hinterlegt sind. Zudem sollen sie selbst Gesundheitsdaten erheben können, die unter anderem „Ernährungsgewohnheiten“, den „Raucherstatus“ oder das Körpergewicht der Versicherten erfassen. Mit den gewonnenen Informationen dürfen die Versicherungen dann auf „gesunde Lebensverhältnisse“ laut Gesetzentwurf bei ihren Versicherten hinwirken.

Darüber hinaus sollen die Kassen personenbezogene Sozialdaten, die ihnen vorliegen, anonymisieren und auswerten dürfen. Nach der Anonymisierung weisen die Daten keinen Personenbezug mehr auf. Aus Datenschutzsicht dürfen sie damit „zur Erfüllung gesetzlicher Aufgaben“ weiterverarbeitet und an Dritte übermittelt werden.

Auch mit nicht-anonymisierten Daten sollen die Kassen hantieren dürfen. Eine neue Experimentierklausel soll es ihnen ermöglichen, sogenannte Reallabore einzurichten. Hier können die Versicherungen zeitlich befristet die „innovative Nutzung von personenbezogenen Daten“ erproben, etwa um eine „bessere Einschätzung von Erkrankungsrisiken (z. B. Demenz, Herzerkrankungen)“ zu erhalten.

Damit kommt der Gesetzentwurf den Erwartungen der Krankenkassen weitgehend entgegen. Ende vergangenen Jahres hatte der GKV-Spitzenverband gefordert, die Präventionsangebote der Kassen „durch den Ausbau der datengestützten Früherkennung von Krankheiten“ ausbauen zu dürfen. Die Ärzteschaft hatte vor einem solchen Schritt gewarnt, weil sie die Aushöhlung des Patientengeheimnisses und der ärztlichen Schweigepflicht befürchtet. Offenkundig setzt sich das BMG über derlei Bedenken nun tendenziell hinweg.

So umfassend will Warken die Gesundheitsdaten aller Versicherten verknüpfen

Eine Forschungskennziffer gegen Datensilos und für Widerspruchsrechte

Damit auch die Forschung von den Gesundheitsdaten profitiert, sieht der Gesetzentwurf die Einführung einer „eindeutigen Forschungskennziffer“ vor. Diese pseudonyme Kennziffer wird aus dem unveränderlichen Teil der Krankenversichertennummer (KVNR) abgeleitet und soll „die Verknüpfung von Daten verschiedener Datensilos“ ermöglichen.

Damit will das BMG zugleich die Umsetzung der EU-Verordnung über den Europäischen Gesundheitsdatenraum) (EHDS) vorbereiten. Die Verordnung trat im März 2025 in Kraft und findet in den kommenden Jahren sukzessive Anwendung. Der EHDS wird der erste sektorenspezifische Datenraum in der EU sein und soll als Blaupause für weitere sogenannte Datenräume dienen. Künftig sollen hier die Gesundheitsdaten von rund 450 Millionen EU-Bürger:innen zusammenlaufen und grenzüberschreitend ausgetauscht werden.

Auch Forschende und Behörden sollen diese Daten unter bestimmten Voraussetzungen nutzen dürfen. Möchten Versicherte das nicht, können sie von ihrem Widerspruchsrecht (Opt-out) Gebrauch machen. Die Forschungskennziffer soll laut BMG als technischer Schlüssel dienen, um die entsprechenden Datensätze gezielt herauszufiltern.

„Trotz der Funktion als ‚unique identifier‘ ist es gerade nicht das Ziel der Forschungskennziffer, einer Identifizierung von Einzelpersonen zu ermöglichen“, betont das BMG in dem Gesetzentwurf. „Im Gegenteil dient die Forschungskennziffer gerade dazu, bei der Zurverfügungstellung von Daten solche Merkmale zu ersetzen, über die Betroffene leichter re-identifiziert werden können.“

Fachleute weisen jedoch darauf hin, dass eine derartige Pseudonymisierung insbesondere bei Gesundheitsdaten keinen ausreichenden Schutz vor Re-Identifikation biete. Das Risiko steige zudem an, wenn ein Datensatz mit weiteren Datensätzen zusammengeführt wird, die weitere personenbezogene Daten der gleichen Person enthalten.

Gematik erhält deutlich mehr Befugnisse

Um das „hohe Tempo bei der Digitalisierung im Gesundheitswesen und der Pflege […] aufrecht zu erhalten“ ist laut BMG auch „die Fortentwicklung der Gesellschaft für Telematik (gematik) erforderlich“. Die Gematik ist in Deutschland für die technischen Vorgaben bei der Digitalisierung des Gesundheitswesens verantwortlich. Betrieben wird die Firma gemeinschaftlich von Ministerien wie dem BMG sowie privaten Organisationen aus dem Gesundheitsbereich, darunter Krankenkassen-Verbände oder die Bundesärztekammer. Der Gesetzentwurf sieht vor, dass die Gematik neue Befugnisse erhält.

Das Ministerium verfolgt damit insbesondere das Ziel, die Betriebsstabilität der Telematikinfrastruktur (TI) zu verbessern. Die TI ist das digitale Netzwerk des deutschen Gesundheitswesens, über das Arztpraxen, Kliniken, Apotheken und Krankenkassen Informationen austauschen. Sie erwies sich in den vergangenen Jahren allerdings als überaus instabil. Unter anderem KBV-Vorstandsmitglied Sibylle Steiner hatte zu Jahresbeginn gefordert, dass die Technik „geräuschlos und reibungslos im Hintergrund laufen“ müsse. „Das muss 2026 das Ziel sein“, so Steiner.

Um das zu erreichen, will das BMG die Gematik von einer Zulassungsbehörde zu einer aktiv steuernden Digitalagentur mit Durchsetzungsbefugnissen ausbauen. Das wäre ein erheblicher Machtzuwachs für die vielfach kritisierte Gematik, ohne dass das Gesetz eine entsprechende unabhängige Kontrolle vorsieht – zumal das BMG nicht nur Auftraggeber, sondern auch Gesellschafter der gematik ist.

Laut Gesetzentwurf soll die Gematik kritische Kernkomponenten der Telematikinfrastruktur künftig selbst beschaffen und bereitstellen. Bislang verkaufen Anbieter ihre Komponenten eigenständig an Arztpraxen und Kliniken, nachdem die Digitalagentur diese zugelassen hat. Nach Einschätzung des Ministeriums hat das jedoch zu hoher Komplexität, schlechter Betriebsstabilität und mangelnder Servicequalität geführt. Um Störungen und Sicherheitsprobleme zu beseitigen, soll die Digitalagentur außerdem zusätzliche Durchgriffsrechte erhalten.

Auf diesem Wege will das Gesundheitsministerium auch mehr Interoperabilität im Gesundheitswesen erreichen. Verschiedene IT-Systeme, Programme und Plattformen sollen nahtlos zusammenarbeiten und untereinander Daten austauschen können, auch wenn sie von unterschiedlichen Herstellern stammen.

Als konkreter Anwendungsfall soll hier die digitale Impfdokumentation als Vorstufe des digitalisierten Impfprozesses eingeführt werden. Der sogenannte digitale Impfpass soll als eine „nutzenstiftende Mehrwert-Anwendung“ auch dazu beitragen, dass mehr Versicherte die ePA aktiv nutzen. Bislang tut das nämlich nur ein sehr kleiner Teil der Versicherten.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Gesellschaft für Freiheitsrechte: Klage gegen zentrale Speicherung von Gesundheitsdaten geht weiter

Von: Daniel Leisegang

Beim Forschungsdatenzentrum Gesundheit sollen die Gesundheitsdaten aller gesetzlich Versicherten zusammenlaufen. Ein Gerichtsverfahren dagegen wird nun fortgesetzt. Dessen Ausgang könnte Pläne von Gesundheitsministerin Nina Warken durchkreuzen.

Zwei Menschen vor blauem Hintergrund
Karl Broich und Nina Warken auf der Pressekonferenz zur Eröffnung des Forschungsdatenzentrums Gesundheit im Oktober 2025. – Alle Rechte vorbehalten IMAGO / dts Nachrichtenagentur

Drei Jahre lang herrschte Stillstand. Nun geht ein Gerichtsverfahren weiter, das sich gegen die zentrale Speicherung von Gesundheitsdaten aller gesetzlich Versicherten im Forschungsdatenzentrum Gesundheit (FDZ) richtet.

Die Klage hatte die Gesellschaft für Freiheitsrechte (GFF) gemeinsam mit Constanze Kurz, netzpolitik.org-Redakteurin und Sprecherin des Chaos Computer Club (CCC), sowie einem weiteren anonymen Kläger im Mai 2022 eingereicht. Weil das FDZ aber jahrelang nicht arbeitsfähig war und kein IT-Sicherheitskonzept vorlegen konnte, ruhte das Verfahren seit Februar 2023. Im vergangenem Herbst wurde das FDZ offiziell eröffnet, weshalb die GFF das Verfahren nun nach eigenen Angaben fortsetzt und weitere Schriftsätze eingereicht hat.

Der Ausgang der Klage könnte weitreichende Folgen haben. Denn es geht um die Forschung mit Gesundheitsdaten, eine zentrale Säule der erst vor wenigen Wochen vorgestellten Digitalisierungsstrategie von Bundesgesundheitsministerin Nina Warken (CDU). Sollte das Gericht zugunsten der Klagenden entscheiden, könnten wichtige Vorhaben ihres Ministeriums ins Wanken geraten.

Kläger:innen fordern effektiven Widerspruch und besseren Schutz

Die Klagenden werden von dem Rechtswissenschaftler Matthias Bäcker vor dem Sozialgericht Berlin und dem Sozialgericht Frankfurt vertreten. Aus ihrer Sicht verstößt die zentrale Sammlung hochsensibler Gesundheitsinformationen beim FDZ zum einen gegen das Grundrecht der Versicherten, selbst über die eigenen Daten zu bestimmen, sowie gegen das Datenschutzrecht der Europäischen Union.

Zum anderen seien die gespeicherten Daten nicht ausreichend geschützt. Für deren Übermittlung werden nur Namen, Geburtstag und -monat der Versicherten entfernt. Ein von der GFF in Auftrag gegebenes Gutachten des Kryptographie-Professors Dominique Schröder kommt zu dem Schluss, dass eine solche Pseudonymisierung die Versicherten nicht ausreichend schützt. Durch den Abgleich mit anderen Datensätzen ließen sich Betroffene ohne großen Aufwand re-identifizieren.

Die GFF fordert daher für alle Versicherten ein „voraussetzungsloses Widerspruchsrecht“, dass ihre eigenen Gesundheitsdaten für Forschung und andere Zwecke weitergenutzt werden. „Gesundheitsdaten gehören zu den sensibelsten Informationen überhaupt und sind ein lukratives Ziel für Kriminelle“, sagt Jürgen Bering, Jurist bei der GFF. „Forschung darf daher nur unter ausreichenden Schutzmaßnahmen stattfinden.“

Auf dem Weg zu „einem der größten Daten-Hubs“

Gesundheitsministerin Warken sieht das Forschungsdatenzentrum als „Innovationsmotor“ der Gesundheitsforschung. Die Einrichtung ist beim Bundesamt für Arzneimittel und Medizinprodukte (BfArM) in Bonn angesiedelt. Seit 2022 werden dort Gesundheitsdaten zu allen gesetzlich Versicherten in einer zentralen Datenbank zusammengeführt und für die Dauer von bis zu 100 Jahren gespeichert. Forschende müssen sich bei diesem Zentrum registrieren, um mit den Daten arbeiten zu können.

Bislang übermitteln die gesetzlichen Krankenkassen nur die Abrechnungsdaten all ihrer Versicherten an das FDZ. Diese Daten geben Auskunft darüber, welche Leistungen die Versicherungen in Rechnung gestellt bekommen haben und mit welchen Diagnosen diese versehen sind.

Ab dem vierten Quartal dieses Jahres sollen dann nach und nach die Behandlungsdaten aus der elektronischen Patientenakte hinzukommen. BfArM-Chef Karl Broich geht davon aus, dass seine Behörde in zehn Jahren bundesweit „einer der großen Daten-Hubs“ ist.

„Gesundheitsdaten brauchen zwingend angemessene Sicherheitsmaßnahmen“

Sollte die GFF mit ihrer Klage Erfolg haben, könnte dieses Ziel verfehlt werden. Denn bislang ist vorgesehen, dass die ePA-Daten automatisch an das FDZ gehen – sofern Versicherte dem nicht aktiv widersprechen. Dieser Automatismus müsste dann möglicherweise einer aktiven Einwilligung der Versicherten weichen.

Aus Sicht der Klagenden wäre dies zu begrüßen. „Es wird höchste Zeit, dass das Verfahren fortgeführt wird“, sagt Constanze Kurz. „Denn es braucht Klarheit zur Sicherheit und zum Widerspruchsrecht, schon weil inzwischen der Kreis der nutzungsberechtigten Stellen ganz erheblich erweitert wurde.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

NGOs fordern: Ex-Meta-Lobbyistin soll nicht EU-Digitalgesetze aufweichen

Von: Tomas Rudl

Mit der finnischen EU-Abgeordneten Aura Salla soll eine ehemalige Meta-Lobbyistin maßgeblich am geplanten digitalen Regulierungsabbau in der EU mitwirken. Nun fordern mehrere Nichtregierungsorganisationen ihre Abberufung als Chef-Verhandlerin des EU-Parlaments.

Aura Salla (MEP)
Vor ihrer Wahl ins EU-Parlament im Sommer 2024 war die finnische EU-Abgeordnete Aura Salla Chef-Lobbyistin von Meta in Brüssel – nun soll sie über die Deregulierung im Digitalbereich mitbestimmen. – Alle Rechte vorbehalten IMAGO / Martin Bertrand

Die finnische EU-Abgeordnete Aura Salla ist in Brüssel bestens vernetzt. Vor ihrer Zeit im EU-Parlament war die konservative Politikerin dort Chef-Lobbyistin von Meta. Davor hatte Salla diverse Positionen in der EU-Kommission bekleidet, unter anderem war sie im Kabinett des damaligen Vize-Präsidenten Jyrki Katainen tätig.

Von der Politik in die Privatwirtschaft und wieder zurück: Das als „Revolving Door“ bekannte Phänomen sorgt immer wieder für Probleme, da es schnell zu Interessenskonflikten führt. Zumindest auf dem Papier ist die EU dagegen gewappnet: Ein detailliertes Regelwerk soll verhindern, dass Beamt:innen nahtlos von einer Rolle in die nächste schlüpfen und dabei etwa Kontakte und Wissen mitnehmen, das sie im neuen Job eigentlich nicht haben sollten.

Für Aura Salla könnte es deshalb nun eng werden. Eine Reihe zivilgesellschaftlicher Organisationen, darunter Corporate Europe Observatory (CEO), LobbyControl und Transparency International EU fordern in einem heute veröffentlichten offenen Brief an den Industrieausschuss (ITRE) im EU-Parlament, Salla von ihrer Rolle als Berichterstatterin für den sogenannten Digitalen Omnibus abzuberufen.

Unter diesem Begriff verhandelt die EU derzeit ein Gesetzespaket, mit dem die Digitalregulierung überarbeitet und entschlackt werden soll. Ziel sind vereinfachte Regeln, um die Wettbewerbsfähigkeit Europas zu verbessern. Kritiker:innen weisen darauf hin, dass mit dem Regulierungsabbau unter anderem das Datenschutzniveau empfindlich abgesenkt würde. Als eine der Berichterstatterinnen – und damit Verhandlungsführerinnen – des EU-Parlaments hätte Aura Salla dabei viel Einfluss auf das fertige Gesetz.

Ehemalige Meta-Lobbyistin mischt kräftig mit

„Die Ernennung einer ehemaligen Big-Tech-Lobbyistin, um Digitalgesetze zu überarbeiten und zu schwächen, wirft schwerwiegende Fragen hinsichtlich unzulässiger Einflussnahme auf den Gesetzgebungsprozess auf“, so die NGOs in ihrem Schreiben. Gerade Meta, zu dem Facebook, Instagram und WhatsApp gehören, steht bekanntlich mit Vorgaben wie jenen zum Datenschutz auf Kriegsfuß. Rund 2,5 Milliarden Euro an Geldbußen wurden dem Datenkonzern wegen wiederholter Vergehen in der EU auferlegt.

„Das Unternehmen hat ein starkes Interesse daran, die Datenschutz-Grundverordnung (DSGVO) durch den Digitalen Omnibus zu schwächen, und kann seine engen Verbindungen zu Frau Salla nutzen, um dies zu erreichen“, warnen die NGOs. Tatsächlich habe sich Salla als Abgeordnete bereits mehrfach mit ihrem ehemaligen Arbeitgeber getroffen, unter anderem bei einem Lobbytreffen im September 2024 und einem weiteren im Januar 2025.

Bereits jetzt lässt sich am Omnibus-Entwurf der Kommission der Einfluss der Wirtschaft ablesen, wie eine gemeinsame Analyse von CEO und LobbyControl im Januar ergeben hatte. Mit Industrieforderungen praktisch deckungsgleiche Vorschläge durchziehen den gesamten Entwurf, der in der Leseart der NGOs einen „beispiellosen Angriff auf digitale Rechte“ darstellt. Zudem lese sich der Vorschlag wie eine Wunschliste ausgerechnet US-amerikanischer Tech-Konzerne, anstatt europäische Unternehmen zu stärken.

Voll auf Deregulierungslinie

Ähnliche Positionen wie die Tech-Konzerne vertritt auch Aura Salla. Die zur konservativen EVP-Fraktion gehörende Politikerin warnte etwa vor einem „Regulierungs-Tsunami“, fürchtet Überregulierung durch Gesetze wie den Digital Services Act und möchte Tech-Konzernen erlauben, Verkehrs- und Metadaten ihrer Nutzer:innen möglichst ungehindert zum Trainieren ihrer KI-Systeme verwenden zu können.

Nach ihrer Bestellung zur Berichterstatterin zeigte Salla auf, in welche Richtung sie den Digitalen Omnibus lenken will: „Jahrelang konzentrierte sich die EU auf die Regulierung ihrer eigenen Unternehmen, während China und die USA in Wachstum und technologische Entwicklung investierten. Das endlose Klicken durch Cookie-Einstellungen und die sich überschneidenden und unklaren Regeln für Unternehmen haben das Internet nicht sicherer gemacht, sondern das Wachstum europäischer Unternehmen gebremst. Europäische Unternehmen müssen endlich Priorität haben“, schrieb sie in einer Pressemitteilung.

Zugleich sieht Salla die EU nicht notwendigerweise in der Verantwortung: „Big Tech sollte in ihren Heimatkontinenten reguliert werden“, sagte sie Ende 2024 dem Magazin Wired. In vielen Fällen wären das die USA, so Salla – ein Land, das traditionell reichlich wenig von Regulierung hält, erst recht unter Präsident Donald Trump und seinen Tech-Oligarchen wie Mark Zuckerberg im Schlepptau. Indes schlägt Salla „Maßnahmen wie Zölle, Datenpreismechanismen oder eine Digitalsteuer für Unternehmen außerhalb der EU“ vor. Diese Ansätze dürften jedoch kaum im Digitalen Omnibus verhandelt werden.

Halb verdeckte Interessenkonflikte

Ein ungünstiges Licht auf Salla werfe zudem ihre Tendenz, „wiederholt potenzielle Interessenkonflikte zu verschleiern“, kritisieren die NGOs. So hatte sie etwa nicht offengelegt, Anteile an Rüstungsbetrieben zu halten, obwohl diese Transparenz EU-Abgeordneten ausdrücklich vorgeschrieben ist. Erst Berichterstattung des Online-Mediums Follow the Money hat sie letztlich gezwungen, ihre Aktien zu verkaufen.

Auch als Omnibus-Berichterstatterin sieht Salla keine Interessenskonflikte. In ihrer offiziellen Erklärung hierzu – eine Pflicht für Berichterstatter:innen – hat sie im Februar die einschlägige Frage verneint. Aus Sicht der NGOs verstößt sie damit gegen die Transparenzregeln, die für Abgeordnete gelten.

Auf Anfrage weist Salla die Vorwürfe zurück. Ab ihrem Eintritt in den Mutterschutz im Februar 2023 habe sie nicht mehr für Meta gearbeitet und seit ihrem endgültigen Abschied im Mai 2023 auch kein Geld bekommen, sagt Salla zu netzpolitik.org:„Selbstverständlich habe ich seit meinem Ausscheiden keine Zahlungen mehr von dem Unternehmen erhalten“. Im Zusammenhang mit der Berichterstatterrolle „habe ich keine laufende berufliche Tätigkeit, keine finanziellen Interessen und keine persönlichen Interessen, die einen Interessenkonflikt darstellen könnten“, sagt Salla.

Als Berichterstatterin wolle sie dem europäischen öffentlichen Interesse dienen und die Wettbewerbsfähigkeit Europas stärken, so die Abgeordnete. „Ich habe meine Ansichten zur Notwendigkeit der technologischen Souveränität der EU, zur Beseitigung der Abhängigkeit von amerikanischen Technologiekonzernen und zur Förderung europäischer Alternativen stets deutlich zum Ausdruck gebracht“, sagt die Finnin.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Datenschutz-Reform: Mitgliedstaaten gehen auf Abstand zu Plänen der EU-Kommission

Von: Ingo Dachwitz

Es ist das erste Signal des Rates im Ringen um den sogenannten Datenomnibus: In einem ersten Positionierungsentwurf stellen sich die Mitgliedstaaten gegen mehrere Vorschläge der EU-Kommission, die von Datenschutz-Expert:innen kritisiert worden waren. Wir veröffentlichen den Zwischenstand.

Eine Straße im Sonnenlicht, im Vordergrund Verkehrsschilder auf den "Stop" in rot und "Go" in grün stehen
Stop and Go für unterschiedliche Vorschläge im „Digital Omnibus“ – Gemeinfrei-ähnlich freigegeben durch unsplash.com Tanya Barrow

Die Europäische Union verhandelt derzeit über den „Digitalen Omnibus“. So wird ein Gesetzespaket genannt, mit dem die EU-Kommission Teile der europäischen Digitalregulierung überarbeiten will – und das möglichst schnell. Während die Kommission selbst lediglich von „technischen Änderungen“ und „Vereinfachung“ spricht, sehen viele andere auch einen Rückbau von Regulierung.

Industrieverbänden geht dieser nicht weit genug, zivilgesellschaftlichen Organisationen und Datenschützer:innen zu weit.

Während sich bei angestrebten Anpassungen der KI-Verordnung mögliche Kompromisse andeuten, sind vor allem weitreichende Änderungen im Bereich des Datenschutzes umstritten. Nun gibt es einen ersten Positionierungsentwurf des Rates zu diesem sogenannten Datenomnibus, der zentrale Vorschläge der EU-Kommission ablehnt oder abschwächt. Wir veröffentlichen das Dokument, über das erste Medien am Freitag berichteten.

Keine Neudefinition personenbezogener Daten

Eine von der EU-Kommission geplante Änderung der Definition personenbezogener Daten soll laut dem Ratspapier gestrichen werden. Der ursprüngliche Kommissionsvorschlag hätte zur Konsequenz, dass pseudonymisierte Daten unter Umständen nicht mehr von der Datenschutzgrundverordnung (DSGVO) erfasst wären. Das kritisierten unter anderem der Europäische Datenschutzausschuss und der EU-Datenschutzbeauftragte scharf. Sie sehen darin eine Schwächung des Schutzniveaus der DSGVO sehen und fürchten Rechtsunsicherheiten.

Die Mitgliedstaaten kommen anscheinend zu einer ähnlichen Einschätzung. Laut dem Verhandlungsstand des Rates sollen statt einer geänderten Definition lieber Richtlinien des Europäischen Datenschutzausschusses klären, wann pseudonymisierte Daten möglicherweise nicht der DSGVO unterliegen. Wegfallen soll auch eine neue Regel, die der EU-Kommission ermöglicht hätte, per Durchführungsakt Standards zu setzen und so die Deutungshoheit über datenschutzrechtliche Auslegungsfragen zu erlangen.

Auch einen Kommissionsvorschlag, voll-automatisierte Entscheidungen unter bestimmten Umständen zu erlauben, will der Rat streichen. Diese sind nach der DSGVO bislang verboten und sollen es dem Papier zufolge bleiben. Das Papier der Mitgliedstaaten übernimmt jedoch weniger strittige Vorschläge der Kommission, etwa um Meldewege bei IT-Sicherheitsvorfällen zu vereinfachen.

Konkretisieren will der Rat eine sehr breit gefasste Regel, die es Datenverarbeitern ermöglichen würde, Auskunfts- oder Löschanfragen von Betroffenen sehr leicht abzulehnen. Dies soll dem Papier zufolge nur noch dann möglich sein, wenn Betroffene eine große Anzahl identischer oder weitgehend ähnlicher Anfragen einreichen und dies mit der alleinigen Absicht tun, dem Verantwortlichen Schaden zuzufügen.

Wo steht Deutschland?

Das Dokument ist ein erster Vorschlag der zypriotischen Ratspräsidentschaft und beruht auf Beratungen der Mitgliedstaaten in der Arbeitsgruppe Vereinfachung. Bevor der Rat seine Position beschließt, wird der Arbeitsstand in der Gruppe weiter diskutiert und in weiteren Gremien beraten werden, so etwa im ranghöheren Ausschuss der Ständigen Vertreter. Es handelt sich also nur um ein erstes Signal, aber dieses fällt deutlich aus.

Sollte der Digitale Omnibus, der ja eigentlich nur Vereinfachungen vornehmen soll, am Ende ohne größere Reform der DSGVO verabschiedet werden, bedeutet es nicht, dass diese vom Tisch sind. Tatsächlich hatte die Kommission bereits angedeutet, dass ein für später im Jahr geplanter Fitness-Check der Digitalregulierung der Rahmen für eine größere Datenschutzreform sein könnte.

Der Datenomnibus wird nun zunächst weiter im EU-Parlament und im Rat diskutiert. Die nächsten Beratungen der Ratsarbeitsgruppe Vereinfachung finden an diesem Freitag statt. Dort wird das Feedback der Mitgliedstaaten auf den Positionsentwurf besprochen.

Deutschland gehört zu den Ländern, die sich hier gegen den Vorschlag der Ratspräsidentschaft und hinter die Deregulierungspläne der Kommission stellen könnten. Das deutsche Digitalministerium hatte die EU-Kommission im letzten Jahr zu ihren weitreichenden Vorschlägen ermutigt, unter anderem mit einem Positionspapier, das wir veröffentlicht haben. Darin regte Deutschland unter anderem weitreichende Einschränkungen von Betroffenenrechte an.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Ein „Kuss“ für Verschlüsselung: Kampagne kämpft für sichere Kommunikation

Von: Markus Reuter

Die EU-Kommission wird demnächst neue Überwachungsansätze vorstellen und plant unter dem Deckmantel „rechtmäßiger Zugang“ einen weiteren Angriff auf die verschlüsselte Kommunikation. Europäische Digitalorganisationen machen dagegen jetzt mobil.

Vorhängeschloss an einer Türe
Polizeien und Geheimdienste wollen Zugang zu verschlüsselter Kommunikation. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Kaffeebart

Der Dachverband europäischer Digitalorganisationen EDRi hat eine neue Kampagne zum Schutz von Verschlüsselung und privater Kommunikation gestartet. Hintergrund der Kampagne „Keep It Safe and Secure“ (KISS) ist, dass die verschlüsselte Kommunikation in der EU nicht nur durch die Chatkontrolle-Gesetzgebung unter Druck steht, sondern auch durch weitere Projekte.

Staatliche Akteure wie Polizeien und Geheimdienste begehren unter dem Deckmantel des Going-Dark-Narrativs Zugriff auf die Inhalte der Kommunikation. Außerdem beklagt EDRi, dass eine staatlich alimentierte Hacking-Industrie Menschen aus Aktivismus, Politik, Wirtschaft und Journalismus ins Visier nehme und die IT-Sicherheit aller Menschen gefährde.

Die EU hatte im letzten Jahr unter dem Schlagwort ProtectEU einen Fahrplan zum Ausbau der Überwachung vorgestellt. Die Angriffe auf die Verschlüsselung verstecken sich hinter der Formulierung „Rechtmäßiger Zugang zu Daten für Strafverfolgung“. Die Pläne sehen neben einem Angriff auf Verschlüsselung auch den Ausbau der Vorratsdatenspeicherung vor. Die EU-Kommission will noch im ersten Quartal eine Folgenabschätzung dazu veröffentlichen.

Schwachstellen und Hintertüren

Europol und andere Strafverfolgungsbehörden, so heißt es in der Kampagne, drängten unter anderem darauf, Hacking-Methoden zu legalisieren, welche die Verschlüsselung schwächen. Diese Methoden sind immer damit verbunden, Schwachstellen und Hintertüren in Hard- und Software einzubauen oder auszunutzen.

Zu den Methoden gehören wie bei der Chatkontrolle ursprünglich geplant das Client-Side-Scanning, bei dem Inhalte wie Texte, Bilder oder Videos auf einem Gerät oder in einem Kommunikationskanal schon vor der Verschlüsselung gescannt werden. Weitere Ansätze sind unsichere Verschlüsselungsmethoden, bei denen nicht nur die Kommunizierenden Schlüssel haben, sondern Behörden „Nachschlüssel“ zum Entschlüsseln der Kommunikation besitzen. Ein weiterer Ansatz sind Systeme, bei denen Behörden als unsichtbarer „Geist“ an verschlüsselter Kommunikation teilnehmen und die Kommunikation so mitlesen können.

Schutz von Verschlüsselung gefordert

In einer Petition fordern EDRi und die Bündnispartner der Kampagne von den EU-Abgeordneten Schutz von Verschlüsselung und ein Verbot von Staatstrojanern. Die massive Mobilisierung im Rahmen Chatkontrolle sei ein klares Zeichen dafür gewesen, dass den Menschen Verschlüsselung wichtig ist. „Wenn wir die Verschlüsselung verlieren, verlieren wir auch das Vertrauen in alles, was wir online tun, und gefährden damit die Sicherheit unserer demokratischen Gesellschaft, unserer Wirtschaft und unserer Menschenrechte“, heißt es weiter.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Autoritäres Instrument: Eine Klarnamenpflicht schadet der Demokratie

Von: Markus Reuter

Merz will eine Klarnamenpflicht im Netz. Doch die verschlechtert das Leben vieler Menschen und bedroht gleich mehrere Grundrechte. Der Kanzler wäre gut beraten, die Forderung sofort wieder einzupacken – und stattdessen vor der eigenen Haustüre zu kehren. Ein Kommentar.

Illustration eines geöffneten Kopfes mit einem kleinen Menschen, der in die Gitterstäbe greift, die den Kopf verschließen.
Die Klarnamenpflicht schränkt viele Grundrechte ein, zum Beispiel die Meinungsfreiheit. (Symbolbild) – Alle Rechte vorbehalten IMAGO / ANP

Nun hat also die uralte Forderung nach einer Klarnamenpflicht im Netz mit dem Bundeskanzler die höchste Ebene deutscher Politik erreicht. Besser wird die Forderung dadurch nicht. Eine Klarnamenpflicht ist nicht wirkungsvoll, sondern autoritär, falsch und extrem gefährlich für gleich mehrere Grundrechte.

Mit der derzeitigen Debatte um ein Social-Media-Verbot für Jugendliche, die vermutlich mit flächendeckenden Ausweiskontrollen umgesetzt würde,  ergibt sich allerdings gerade ein Möglichkeitsfenster für diese Art der Einschränkung des freien Internets. Dabei ist die Debatte sogar schon soweit entgleist, dass sogar die im Gesetz als freiwillig festgeschriebene digitale Brieftasche der EU von Mitgliedern der Bundesregierung jetzt als Pflicht-Instrument zur Identifizierung gefordert wird.

Dabei ist eine Klarnamenpflicht im Internet und sozialen Netzwerken bislang als Unterdrückungsinstrument von autoritären Ländern wie China bekannt.

Für freie und demokratische Gesellschaften sind Anonymität und Pseudonymität im Internet jedoch unerlässlich. Dafür gibt es zahlreiche Gründe. Und nicht umsonst ist die Anonymität im Netz in Deutschland gesetzlich festgeschrieben.

Klarnamenpflicht verschlechtert das Leben vieler Menschen

Wer eine Klarnamenpflicht im Internet oder sozialen Netzwerken einführen will, verschlechtert das Leben vieler Menschen. Wir haben schon vor Jahren zahlreiche fiktive, aber alltägliche Beispiele aufgeschrieben, die zeigen, dass Pseudonymität und Anonymität dem Schutz der Grundrechte und der freien Entfaltung und Entwicklung von Menschen dienen.

Die Möglichkeit unter einem erfundenen Namen im Internet aufzutreten, ist elementar für die Pressefreiheit, die freie Entfaltung der Persönlichkeit, die Meinungsfreiheit, die Freiheit der Kunst, die informationelle Selbstbestimmung und die Religionsfreiheit. Wir alle brauchen anonyme Orte im Netz. Das trifft nicht nur für marginalisierte Gruppen und Minderheiten zu, aber für diese besonders.

Wir alle brauchen anonyme Orte im Netz

Anonym heißt nicht gewaltvoll

Die Befürworter:innen der Klarnamenpflicht ignorieren die demokratische Notwendigkeit von Anonymität und Pseudonymität. Sie bleiben aber auch den Beweis schuldig, dass diese schwerwiegende Maßnahme überhaupt etwas bringt. Es ist nämlich alles andere als wissenschaftlich gesichert, dass durch eine Klarnamenpflicht der Diskurs befriedet wird.

Die Idee hinter der Forderung ist die Annahme, dass Menschen „mit offenem Visier“ zurückhaltender kommunizieren würden. Dafür gibt es wenig Belege. Im Gegenteil gibt es Studien, die zeigen, dass anonyme Nutzer:innen weniger aggressiv kommunizieren und solche die zeigen, dass Rassisten ganz offen hetzen.

Oftmals spielen Umfeld, Kultur und wirksame Moderation auf den jeweiligen Plattformen die entscheidende Rolle, wie diskutiert wird und wie Nutzer:innen auftreten. Dort wo Nutzer:innen selbst bestimmen können, wen sie aus ihrer Kommunikation ausschließen wollen, wird der Diskurs besser.

Es gibt zahlreiche Beispiele für Orte im Netz, in denen Menschen anonym oder pseudonym, aber vollkommen zivilisiert, achtsam und geregelt miteinander kommunizieren.

Rechtsdurchsetzung statt neuer Einschränkungen

Die Bundesregierung sollte nicht mit diesem gefährlichen Instrument gegen die Bevölkerung vorgehen. Sie sollte stattdessen das EU-Gesetz über digitale Dienste (DSA) gegen Plattformen durchzusetzen und gegen Plattformen vorgehen, wenn diese gegen EU-Gesetze verstoßen.

Man könnte den Kampf gegen Hass und Hetze in Form von gut ausgebildeten Polizeien und Staatsanwaltschaften unterstützen und Möglichkeiten schaffen, gegen strafbare Formen der Kommunikation einfacher und besser vorzugehen.

16 Beispiele, warum Pseudonymität im Netz unverzichtbar ist

Schlüsselfertiges autoritäres Haus für die AfD

Was früher noch eine eher hypothetische Warnung von Bürgerrechtlern war, ist heute leider die neue Realität. Was passiert eigentlich, wenn wir autoritäre Instrumente in einer Demokratie schaffen, die dann in die Hände der Falschen fallen? Genau vor diesem Problem stehen wir.

Die gesichert rechtsextreme AfD ist kurz davor, stärkste Partei zu werden. Eine Klarnamenpflicht würde eine mögliche Absicherung der Macht der AfD unterstützen, wenn die Rechtsradikalen an die Regierung kommen. Man baut den Zerstörern der Demokratie unnötigerweise ein schlüsselfertiges Haus, das die diese gleich beziehen können – anstatt ihnen Steine in den Weg zu legen, wo man nur kann.

Kritik nur noch mit Nummernschild?

Vielleicht sollte Friedrich Merz zunächst bei sich selbst anfangen. Er könnte zum Beispiel noch heute aufhören, auf der Hass- und Hetzplattform X zu posten. Denn dort findet genau der vergiftete Diskurs statt, der nun kritisiert wird – er wird dort durch den Eigentümer Elon Musk sogar noch aufgeheizt und befeuert. Wer als Bundeskanzler so einer toxischen Plattform durch die eigene Anwesenheit Relevanz und Seriosität verleiht, sollte von gepflegten demokratischen Diskursen besser schweigen.

Merz hat zudem wenig verstanden von der demokratischen Wichtigkeit anonymer Kommunikation, wenn er die Klarnamenpflicht auf sich selbst bezieht und aus seiner privilegierten, mächtigen Rolle als Bundeskanzler eine Zwangsoffenlegung der Namen aller Menschen fordert, die „sich sich kritisch mit unserem Land und unserer Gesellschaft auseinandersetzen.“ Kritik nur noch mit Nummernschild, oder wie ist das zu verstehen?

In Merzens Kopf schwirrt vermutlich herum, dass er als Bundeskanzler öfter einmal Gegenstand von Beleidigungen ist. Die kann er allerdings mit der ganzen Macht eines Bundeskanzlers und der Unterstützung des Bundeskriminalamts bekämpfen. Aber Privilegien und die damit verbundene Verantwortung zu verstehen, war offenbar noch nie Sache eines Kanzlers, der Privatflugzeuge fliegt, aber sich zur Mittelschicht zählt.

Merz befeuert selbst die verrohte Debattenkultur

Die ohne Frage schlechter werdende Diskurskultur, die gesellschaftliche Verrohung und das feindliche Klima hängen unmittelbar mit dem Aufstieg der AfD und ihren Narrativen zusammen. Durch permanente Diskursverschiebung und anhaltende Abwertung von Menschen verschieben die Rechtsextremen die Grenzen des Sagbaren und ermutigen Menschen zu hetzen und Grenzen zu überschreiten.

Wenn ein Friedrich Merz selbst von „kleinen Paschas“ über muslimische Jugendliche redet oder davon, dass Geflüchtete einem die Zahnarzttermine wegnehmen, dann ist dies ein Ausdruck eben genau jener Entgrenzung, die wiederum andere motiviert auch entgrenzt zu kommunizieren.

Wer also Hass und Hetze im Netz verringern will, der sollte sich selbst mit Menschenfeindlichkeit und Diskriminierung zurückhalten – und lieber ganz konkret die AfD und ihre Diskurse bekämpfen statt diese in die demokratische Mitte zu heben und zu normalisieren.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Digitale Gewalt: „Hass im Netz führt dazu, dass Frauen eher leise auftreten“

Von: Chris Köver

In ihrem neuen Buch „Feindbild Frau“ zeigt Ingrid Brodnig, wie Politiker*innen auf die systematischen Bedrohungen und Beleidigungen reagieren, die sie im Netz erleben. Im Interview spricht sie über dickes Fell, Durchsetzungslücken und Doppelstandards, die es Frauen schwer machen, sich dagegen zu wehren.

Mensch steht mit gekreuzten Armen vor einer Wand
Es ist leicht, ein dickes Fell einzufordern, wenn man nicht weiß, was Frauen im Netz erleben, sagt Journalistin Ingrid Brodnig. – Alle Rechte vorbehalten Gianmaria GAva

Ingrid Brodnig beobachtet seit Jahren die Debattenkultur im Netz, wenn man diese so bezeichnen kann. Die österreichische Journalistin hat sich spezialisiert auf Bücher und Beiträge zu Falschinformationen und digitaler Gewalt. Während der Corona-Pandemie galt sie als gefragte Expertin, um Verschwörungstheorien rund um die Pandemie einzuordnen. Noch länger beschäftigt sich Brodnig mit dem, was oftmals unter „Hass im Netz“ gefasst wird: Hetzkampagnen, gezielten Bedrohungen und Beleidigungen im digitalen Raum, die oft unterhalb der Schwelle zur Straftat liegen und doch große Wirkung entfalten.

Sechs Sachbücher hat Brodnig bislang veröffentlicht – unter anderem zu den Auswirkungen des Onlineseins auf die Gesellschaft, Falschnachrichten, Anonymität und zur Macht der großen Plattformen. Jetzt folgt ein weiteres. Für die Recherche hat sie mit Abgeordneten und Politikerinnen aus Deutschland und Österreich über ihre Erfahrungen mit Alltagsgewalt im Internet gesprochen, darunter Renate Künast und Anke Domscheit-Berg.

„Eine substanzielle Aufarbeitung erfolgt kaum“

netzpolitik.org: Dass Politikerinnen im Netz besonders häufig bedroht und massiv beleidigt werden, ist kein neues Phänomen. Warum greifen Sie das Thema erneut auf?

Ingrid Brodnig: Wir sehen diese Fälle in den Medien. Da geht es jedes Jahr um eine andere Person: Renate Künast, Ricarda Lang, Heidi Reichinnek. Eine substanzielle Aufarbeitung erfolgt aber kaum.

Wir beschäftigen uns kurz damit und freuen uns, dass Renate Künast einen juristischen Erfolg erzielt. Aber die Geschichte endet ja damit nicht.Ich wollte von den Politikerinnen erfahren: Wie erfahren sie die Anfeindungen? Und welche wiederkehrenden Muster lassen sich darin erkennen?

netzpolitik.org: Was haben Sie erfahren?

Ingrid Brodnig: Ich mache das an einem Beispiel fest. Vor ein paar Jahren gab es eine schreckliche Massenvergewaltigung in einem Bus in Indien, die Frau starb. Zu dieser Zeit schrieb jemand auf Twitter einer Politikerin, er würde ihr gerne eine Busfahrt durch Indien spendieren.

Das ist eine verklausulierte Vergewaltigungsdrohung, die aus juristischer Sicht womöglich nicht als Vergewaltigungsdrohung eingestuft wird. Denn es wird keine Absicht formuliert im Sinne von: „Ich werde dich vergewaltigen.“ Die Frau sagte dazu: Es macht keinen Unterschied, ob das verklausuliert ist oder nicht, der Effekt ist der gleiche. Das reicht bis hin zu körperlichen Folgen, Herzzustände, Schlaflosigkeit, Zittern plötzlich vor einem TV-Auftritt.

netzpolitik.org: Sie wollen, dass die Menschen so mehr über die Folgen der Gewalt erfahren?

Ingrid Brodnig: Es gibt ein großes Bewusstsein dafür, dass Hass im Netz gegen Frauen existiert, aber die Debatte verpufft schnell an dieser Erkenntnis. Wenn man diese digitale Gewalt genauer beschreibt, dann wird viel klarer, was die Betroffenen erleben und was es auslöst.

„Es ist schlimmer geworden in den vergangenen 10 Jahren“

netzpolitik.org: Sie haben bereits vor zehn Jahren ein Buch mit dem Titel “Hass im Netz” geschrieben, das sich auch mit der Gewalt gegen Politikerinnen befasst. Was hat sich seitdem verändert?

Ingrid Brodnig: Es ist schlimmer geworden. Ich habe zur Vorbereitung das alte Buch nochmal zur Hand genommen und gemerkt: Vieles darin würde ich heute nicht einmal mehr zitieren, weil es mir zu harmlos erscheint.

Es gab eine Verrohung und auch Zermürbung in diesen zehn Jahren. Wir haben uns als Gesellschaft an vieles gewöhnt. Was vor zehn Jahren noch für eine aufgeregte Offline-Debatte gesorgt hätte, empfinden wir heute schon als Business as Usual.

Gleichzeitig haben auch die Plattformen wesentliche Rückschritte gemacht. Dort konnte man eine Phase des Einlenkens beobachten, speziell nach der US-Präsidentschaftswahl im Jahr 2016. Damals wurde klar, wie stark Facebook und andere Plattformen für Propaganda genutzt wurden. Auch die EU schaute streng auf die Plattformen.

Dieser Eindruck ist mit der Wiederwahl von Donald Trump komplett gekippt. Meta hat seine Richtlinien in vielen Punkten aufgeweicht. Formen der Beleidigung und Herabwürdigung gegen Frauen oder LGBTIQ-Personen sind jetzt explizit erlaubt. Man darf LGBTIQ-Personen auf Facebook und Instagram jetzt als “psychisch krank oder anormal” bezeichnen.

„Frausein an sich ist eine Gefahr“

netzpolitik.org: Sie schreiben, die Erfahrungen dieser Politiker*innen seien für sie ein Symbol für den Zustand der Demokratie. Was meinen sie damit?

Ingrid Brodnig: Ich habe zehn Typen von wiederkehrenden geschlechtsspezifischen Beleidigungen und Bedrohungen herausgearbeitet. Ein Typus besteht in der Abwertung, die auf einer sexuellen Verwertungslogik basiert. Das wäre so ein Kommentar wie: “Niemand will dich ficken.” Frauen stehen also besonders im Fokus.

Politikerinnen sind Frauen und sie sind sehr sichtbar. Beides ist eine Gefahrensituation im Internet. Mit Sichtbarkeit steigt die Wahrscheinlichkeit, dass Communitys auf mich aufmerksam werden, die für gänzlich andere Werte eintreten oder an mir ein Exempel statuieren wollen.

Und Frausein an sich ist eine Gefahr, weil wir eine sehr starke maskulinistische Szene im Netz haben, deren Mitglieder moderne, selbstbewusste Frauen als zentrales Problem ansehen.

Demokratie baut darauf auf, dass die unterschiedlichsten Bevölkerungsgruppen gleichwertig an der politischen Debatte teilhaben können. Das wurde hart erkämpft. Ich glaube, dass derzeit die Gefahr besteht, dass wir hier auf verschiedenen Ebenen Rückschritte machen.

netzpolitik.org: Ein gängiger Einwand lautet, wer in der Öffentlichkeit steht, müsse eben mehr aushalten, auch wenn es mal unfair zugeht.

Ingrid Brodnig: Renate Künast sagte zu mir, als Politikerin hätten die meisten ein bisschen Hornhaut auf der Seele. Für ihr Team seien die Hasskommentare gegen sie anfangs schwerer auszuhalten gewesen als für sie selbst.

Mir macht das Sorge, wenn Menschen in öffentlichen Debatten in einer Demokratie Hornhaut auf der Seele brauchen, um hier überhaupt mitmachen zu können. Es ist immer leichter, eine solche dicke Haut einzufordern, wenn man nicht weiß, was Menschen erleben. Und bei Frauen ist der Verdacht natürlich besonders groß, dass sie einfach zu feinfühlig seien.

Das fehlt beim Schutz vor digitaler Gewalt

netzpolitik.org: Ziehen Frauen sich tatsächlich schneller zurück nach solchen Erfahrungen?

Ingrid Brodnig: Hass im Netz führt tatsächlich dazu, dass Frauen eher leise auftreten oder gar verstummen. 42 Prozent der Frauen, die hasserfüllte Kommentare erhalten, werden vorsichtiger beim Formulieren ihrer Meinung. Bei Männern sind es 16 Prozent, ergab eine norwegische Studie. Das ist ein demokratisches Alarmsignal!

Aber das bedeutet nicht, das Frauen zu schwach sind. Alle Geschlechter erleben digitale Gewalt. Und in jedem einzelnen Fall ist das falsch.

Bei Frauen gibt es allerdings diese spezielle sexualisierte Komponente. Und die hat zum einen eine besonders einschüchternde Wirkung. Zum anderen bekommen Frauen von klein auf gesagt, sie müssten sich vor Gefahren schützen. Es ist oft Teil ihrer Sozialisation, dass sie lernen, den Raum lieber zu verlassen, als zu riskieren, dass die Situation sich weiter zuspitzt.

„Wir haben eine Zweiklassensituation“

netzpolitik.org: In Deutschland wird seit Jahren über Ansätze debattiert, um die Rechte von Betroffene zu stärken. Das Bundesjustizministerium arbeitet an einem „digitalen Gewaltschutzgesetz“. Betroffene sollen damit leichter auf dem Privatklageweg erfahren, wer hinter einem anonymen Account steckt. Was halten Sie davon?

Ingrid Brodnig: Das erscheint mir sinnvoll. Derzeit sind sehr häufig die Kosten einer Privatklage ein hohes Hindernis. Wir haben eine Zweiklassensituation, wo diejenigen, die es sich leisten können, leichter gegen digitale Gewalt vorgehen können als andere. Alles, was dazu beiträgt, das Kostenhindernis zu verringern, ist gut.

netzpolitik.org: Die Pläne für das Gesetz sehen außerdem vor, dass Accounts künftig nach wiederholten Rechtsverletzungen per Gerichtsbeschluss gesperrt werden. Ist das angemessen?

Ingrid Brodnig: Wir müssen eine Lösung finden für Personen, die fortwährend andere Menschen verletzen oder falsche Informationen verbreiten. Wir müssen dann aber auch die Frage nach der Resozialisierung stellen. Wann wird einem Menschen beispielsweise wieder zugesprochen, dass er oder sie wieder posten darf? Bei vielen dieser Nachschärfungen gilt: Der Teufel liegt im Detail. Es bleibt Feinstarbeit.

„Die EU präsentiert sich gerne als Champions der digitalen Grundrechte“

netzpolitik.org: Auf EU-Ebene soll seit 2024 der Digital Services Act die Rechte von Nutzer*innen auf den großen Plattformen stärken. Meta, TikTok und Co. müssen etwa Meldeverfahren anbieten, die “leicht zugänglich und benutzerfreundlich” sind. Hat das zu einer Verbesserung beigetragen?

Ingrid Brodnig: Ohne den Digital Services Act wären wir derzeit sicher schlechter dran in Zeiten, in denen die großen Tech-Plattformen den Schulterschluss mit der Trump-Regierung üben. Der DSA ermöglicht es, hohe Geldbußen zu verhängen, wenn Unternehmen systemisch Risiken ignorieren oder Meldefunktionen fehlen. Aber diese Regeln müssen auch durchgesetzt werden. Bisher gab es aber nur eine negative Entscheidung aus Sicht der Plattformen, nämlich die 120 Millionen Euro Geldbuße für X.

Die EU-Kommission und die EU als Ganzes präsentieren sich gerne als Champions der digitalen Grundrechte. Und auf dem Papier hat die EU auch gute Regeln geschaffen. Aber erst die nächsten ein, zwei Jahre werden zeigen, ob sie dieses Versprechen auch einlöst. Ob ich genügend geschützt werde, wenn Falsches über mich verbreitet wird, wenn ich fertig gemacht werde, wenn ich eingeschränkt werde.

Kann die EU-Kommission die großen Plattformen kontrollieren? Kann sie potenziell rechtswidrige Kommentare auch ernsthaft und rasch prüfen? Und kann sie genügend gegen systemische Risiken unternehmen? An all diesen Fragen wird sich zeigen, wie mutig und selbstbewusst die EU auftritt – auch und gerade gegen die Konzerne in den USA.

„Jede einzelne Anzeige, die leichter erfolgt, ist schon ein Fortschritt“

netzpolitik.org: Was könnte die Bundesregierung konkret tun, um die von Ihnen beschriebene Gewalt einzudämmen?

Ingrid Brodnig: Ich sehe einige konkrete Stellschrauben. Deutschland kann als Staat einige Rechtslücken schließen oder bürokratische Hürden nehmen. Zum Beispiel die Kostenreduktion. Oder auch bildbasierte digitale Gewalt stärker ahnden, zum Beispiel sexualisierte Deepfakes. Das löst das Problem nicht als Ganzes. Aber jede einzelne Anzeige, die leichter erfolgt, ist schon ein Fortschritt. Und die Regierung muss auf europäischer Ebene den Druck erhöhen, damit die eigentlich sinnvollen Regeln auch umgesetzt werden.

netzpolitik.org: Was können Einzelpersonen in dieser Situation beitragen?

Ingrid Brodnig: In der Tat, es gibt eine dritte Ebene: die Persönliche. Ich habe auch mit der Psychotherapeutin und Psychologin Dorothee Scholz gesprochen, die mit Betroffenen digitaler Gewalt zusammenarbeitet. Aus ihrer Sicht kann es die Weltwahrnehmung sehr verändern, wenn Menschen den ganzen Tag nur Hasskommentare lesen.

Das heißt aber auch: Ich kann den Betroffenen solcher Vorfälle schreiben – öffentlich oder privat – und ihnen sagen: Das hast du nicht verdient, lass dich nicht unterkriegen oder du leistest wichtige Arbeit. Auch das hilft.

Feindbild Frau. Wie Politikerinnen im Netz bedroht, beleidigt und verdrängt werden – und was wir alle dagegen tun können“ von Ingrid Brodnig erscheint am 25. Februar 2026 im Brandstätter Verlag. Die Autorin hält am 23.2. und am 16.3. Lesungen in Wien sowie am 26.2. eine Lesung in Berlin.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

KI und Datenschutz: Wo der Digitale Omnibus der EU gerade hinrollt

Von: Anna Ströbele Romero · Ingo Dachwitz

Unter Hochdruck will die EU Teile ihrer Digitalregulierung überarbeiten. Während der AI Act auf den letzten Metern noch um ein Verbot sexualisierter Deepfakes ergänzt werden könnte, treten beim Datenomnibus zwei wichtige EU-Institutionen auf die Bremse. Die neuesten Entwicklungen im Überblick.

Bild eines weißen Busses, durch den verschwommenen Hintergrund sieht es so aus, als würde er schnell fahren
Zumindest teilweise ist der „Digital Omnibus“ der EU mit hoher Geschwindigkeit unterwegs – Gemeinfrei-ähnlich freigegeben durch unsplash.com Gen Pol

Am 19. November 2025 präsentierte die Europäische Kommission den sogenannten „Digitalen Omnibus“: Mit zwei Gesetzen will die EU ihre Digitalregulierung überarbeiten und auf einen Schlag zahlreiche bestehende Gesetze ändern. Die Kommission will mit dem Paket Regeln vereinfachen, Bürokratie abbauen und so die Wettbewerbsfähigkeit Europas steigern.

Das erste dieser Gesetze, das die Datenschutzgrundverordnung (DSGVO), mehrere Datennutzungsgesetze und die Meldung von Cyber-Vorfällen betrifft, wird „Datenomnibus“ genannt. Das zweite Gesetz, welches die KI-Verordnung ändert, heißt „KI-Omnibus“. Für beide Vorhaben hat die Kommission ein hohes Tempo vorgegeben, die Änderungen sollen so schnell wie möglich beschlossen werden. Während dies beim KI-Omnibus, der unter anderem Teile der europäischen KI-Verordnung aufschieben soll, realistisch erscheint, dürften sich die Verhandlungen um den Datenomnibus deutlich länger hinziehen.

Sollen sexualisierte Deepfakes verboten werden?

Für den KI-Omnibus sind im Parlament zwei Ausschüsse verantwortlich: der Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) und der Ausschuss für bürgerliche Freiheiten, Justiz und Inneres (LIBE). Daher gibt es in diesem Fall auch zwei federführende Abgeordnete, die sogenannten Berichterstatter:innen: Michael McNamara ist Teil der Fraktion der Liberalen, Arba Kokalari gehört der konservativen EVP an, zu der auch CDU/CSU gehören.

Sie haben am 4. Februar gemeinsam ihren ersten Berichtsentwurf vorgelegt. Dieser beschreibt, wie sie die KI-Verordnung im Vergleich zum Vorschlag der EU-Kommission verändern wollen. Die verantwortlichen Abgeordneten anderer Fraktionen, die sogenannten Schattenberichterstatter:innen, haben bis zum 12. Februar ihre Änderungswünsche vorgelegt. Diese sind noch nicht öffentlich.

Bekannt ist jetzt schon, dass derzeit diskutiert wird, ob die Erstellung von sexualisierten Deepfakes im Rahmen des Omnibusses verboten werden soll – und unter welchen Umständen. Nach dem Skandal um Elon Musks Chatbot Grok, mit dem Nutzer:innen unfreiwillige Nacktbilder von Frauen und Minderjährigen erstellt haben, gibt es dafür gerade viel politischen Willen, sowohl im Parlament als auch unter den Mitgliedstaaten. Wie ein solches Verbot ausgestaltet werden könnte, ist jedoch umstritten.

Bei den Verhandlungen wird auch diskutiert, wer die Verantwortung für KI-Schulungen haben soll – die Anbieter der KI-Systeme oder die Regierungen. Außerdem soll entschieden werden, ob die verschobenen Fristen für Hochrisiko-Systeme fest oder flexibel sein werden. Dass sie überhaupt verschoben werden, scheint unter den Verhandelnden niemand mehr anzufechten. Ein weiteres Thema ist die Zentralisierung der Aufsicht im KI-Büro der EU-Kommission und das KI-Training mit sensiblen Daten, um Verzerrungen zu vermeiden. Ebenfalls besprochen werden mögliche Ausnahmen im Transparenzregister für KI-Systeme.

KI-Omnibus könnte bald schon am Ziel sein

Bereits nächste Woche startet im Parlament die Verhandlung, deren Ziel ein finaler Bericht ist. Es ist vorgesehen, dass die beiden Ausschüsse am 18. März darüber abstimmen. Damit würde dann die Parlamentsposition stehen und wäre bereit für den sogenannten Trilog mit der EU-Kommission und den Mitgliedstaaten.

Letztere erarbeiten im Moment ebenfalls ihre Position im Rat der Europäischen Union. Derzeit finden die Gespräche auf Ebene der Arbeitsgruppe „Vereinfachung“ statt. Es gibt bereits zwei Entwürfe. Wenn der Text final ist, wird er an die Diplomat:innen im „Ausschuss der Ständigen Vertreter“ gegeben. Auf der höchsten Ebene ist der Rat für Allgemeine Angelegenheiten für den KI-Omnibus verantwortlich.

Das Steuer hat dabei die derzeitige Ratspräsidentschaft Zypern in der Hand. Sie hat bereits angekündigt, den KI-Omnibus mit Priorität zu behandeln. Und das nicht ohne Grund: Schließlich sollen im Omnibus die Fristen für Hochrisiko-KI-Systeme angepasst werden, die eigentlich ab dem 2. August 2026 gelten würden. Der Omnibus muss daher spätestens bis zu diesem Datum in Kraft treten.

Insgesamt scheinen sich Rat und Parlament beim KI-Omnibus bisher relativ einig zu sein. Sie tendieren in vielen Punkten dazu, zum ursprünglichen Text der KI-Verordnung zurückzugehen. Unterschiede gibt es selbstverständlich in den Details.

Institutionen warnen vor Datenomnibus

Unübersichtlicher und umstrittener ist die Lage beim Datenomnibus. Während die Zusammenlegung von Datennutzungsgesetzen oder die Vereinfachung der Meldewege bei IT-Sicherheitsvorfällen für relativ wenig Aufregung gesorgt haben, ist um die Datenschutzaspekte des Vorhabens eine heftige Debatte entbrannt.

De EU-Kommission behauptet weiter steif und fest, lediglich technische Änderungen vorgeschlagen zu haben, die das Datenschutzniveau in der EU nicht verändern würden. Inzwischen mehren sich jedoch die Stimmen, die sagen: Vorschläge wie eine erleichterte Nutzbarkeit von Daten für KI, Einschränkungen von Betroffenenrechten oder eine Änderung der Definition personenbezogener Daten würde an Grundpfeilern des Datenschutzes rütteln.

In diesen Chor hat sich vergangene Woche auch der Europäische Datenschutzausschuss (EDSA) eingereiht, in dem die nationalen Datenschutzbehörden der EU zusammenarbeiten. „Einige vorgeschlagene Änderungen geben Anlass zu erheblichen Bedenken, da sie das Schutzniveau für Einzelpersonen beeinträchtigen, Rechtsunsicherheit schaffen und die Anwendung des Datenschutzrechts erschweren können“, heißt es in einer gemeinsamen Erklärung des EDSA mit dem Europäischen Datenschutzbeauftragten Wojciech Wiewiórowski.

Ehemalige Meta-Lobbyistin verhandelt über Datenschutz

Zwar begrüße man einige Vorschläge, die zu tatsächlichen Vereinfachungen führen. Darunter falle etwa eine Anhebung des Risikoschwellenwerts, ab dem eine Datenschutzverletzung der zuständigen Datenschutzbehörde gemeldet werden muss, oder die Verlängerung der Frist für die Meldung von Datenpannen. Auch Vorschläge zu Vereinfachungen bei Cookie-Bannern begrüßen die Datenschützer:innen.

Deutlich länger ist jedoch die Liste der gravierenden Mängel, die die Datenschützer:innen ausmachen. Allen voran kritisieren die Behörden die vorgeschlagene Neudefinition personenbezogener Daten, die pseudonymisierte Daten unter Umständen von der DSGVO ausnehmen würde. Dazu heißt es von der Vorsitzenden des Europäischen Datenschutzausschusses, Anu Talus: „Wir fordern die beiden gesetzgebenden Organe jedoch nachdrücklich auf, die vorgeschlagenen Änderungen der Definition personenbezogener Daten nicht anzunehmen, da sie den Schutz personenbezogener Daten erheblich schwächen könnten.“

Was die beiden angesprochenen Organe, das Europäische Parlament und der Rat der Mitgliedstaaten, mit dem Input der Datenschutz-Expert:innen anfangen werden, ist derzeit noch ziemlich offen. Der Datenomnibus wird zwar in den legislativen Prioritäten für 2026 genannt, auf welche sich die drei EU-Institutionen Ende des Jahres einigten. Das bedeutet: Das Vorhaben soll eigentlich noch in diesem Jahr abgeschlossen werden. Eine Positionierung des Rates ist nach Auskunft von Beobachter:innen in den nächsten Monaten allerdings nicht zu erwarten.

Im Parlament stellt man sich ebenfalls auf langwierige und zähe Verhandlungen ein. Hier teilen sich auch beim Datenomnibus zwei Ausschüsse die Federführung. Während im LIBE-Ausschuss für Bürgerliche Freiheiten die Sozialdemokratin Marina Kaljurand Berichterstatterin für das Thema ist, hat im Industrieausschuss (ITRE) Aura Salla das Ruder übernommen. Die finnische Politikerin von der konservativen Europäischen Volkspartei war von 2020 bis 2023 Chef-Lobbyistin des US-Tech-Konzerns Meta in Brüssel. Mit Blick auf den Datenomnibus sagte sie im Januar auf einer Veranstaltung: „Wir müssen deregulieren, nicht nur vereinfachen.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Geschichten aus dem DSC-Beirat: Leicht lädiert am zweiten Geburtstag

Von: Svea Windwehr

Seit zwei Jahren gelten neue Regeln für Plattformen in der EU. Die haben schon kleine Fortschritte bewirkt und machen Hoffnung. Aber um sie wirksam durchzusetzen, ist noch viel zu tun.

Ein bunter Kuchen auf dem eine Kerze in Form der Ziffer "2" steht.
2 Jahre Digital Services Act, Grund zum Gratulieren? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Kelly Sikkema

Der DSC-Beirat ist ein Gremium aus Zivilgesellschaft, Forschung und Wirtschaft. Er soll in Deutschland die Durchsetzung des Digital Services Act begleiten und den zuständigen Digital Services Coordinator unterstützen. Svea Windwehr ist Mitglied des Beirats und berichtet in dieser Kolumne regelmäßig aus den Sitzungen.

Seit dem 17. Februar 2024, also seit genau zwei Jahren, gilt in der EU der Digital Services Act. Das Regelwerk soll Nutzende schützen und mehr Transparenz und Fairness gegenüber Online-Plattformen und -Diensten schaffen. Gibt es etwas zu feiern?

Die Bilanz ist gemischt: Ein erstes Verfahren gegen X wurde zum Abschluss gebracht, viele andere Ermittlungen laufen noch. Die Rahmenbedingungen für Forschungsdatenzugang stehen endlich, in der Praxis gibt es aber noch massive Probleme. Zivilgesellschaft und Forschende haben unzählige Verfahren angestoßen und liefern wichtige Evidenz zu DSA-Verstößen, sind jedoch Repression und Delegitimierung ausgesetzt.

Pünktlich zum Geburtstag hat sich der neu berufene DSC-Beirat in neuer, kleinerer Konstellation zu seiner ersten gemeinsamen Sitzung getroffen und sich mit dem Stand der DSA-Durchsetzung beschäftigt. Der Beirat ist im Vergleich zu seiner letzten Besetzung geschrumpft, da die vier Vorschläge der AfD im Plenum des Deutschen Bundestages keine Mehrheit fanden. Deshalb und wegen der christ-demokratischen Definition von Zivilgesellschaft ist insbesondere von deren gesetzlich angedachter Stärke im Beirat des DSC nicht viel übrig geblieben.

Fortschritt in kleinen Schritten

Bei der Durchsetzung des DSA geht es nach wie vor oft schleppend voran. Der Koordinator für Digitale Dienste in Deutschland prüft noch, ob weitere außergerichtliche Streitbeilegungsstellen und Trusted Flagger zugelassen werden sollen. Während die Streitbeilegungsstellen etwa bei strittigen Moderationsentscheidungen zwischen Nutzer:innen und Plattformen vermitteln sollen, agieren die Trusted Flagger als vertrauenswürdige Hinweisgeber, deren Meldungen die Plattformen priorisiert bearbeiten sollen. Aktuell gibt es in Deutschland vier Organisationen, die als Trusted Flagger anerkannt sind, sowie zwei Streitbeilegungsstellen.

Von inzwischen insgesamt 30 durch den DSC eingeleiteten Verwaltungsverfahren gegen in Deutschland ansässige Plattformen wegen DSA-Verstößen scheint noch keines zum Abschluss gekommen zu sein. Und auch auf europäischer Ebene wurde seit der Verhängung eines Bußgelds gegen X im Dezember 2025 kein weiteres Verfahren zu Ende gebracht.

Immerhin kleine Fortschritte gibt es beim Datenzugang für Forschende. Nachdem detaillierte Hinweise, wie genau der Datenzugang ausgestaltet werden soll, Ende Oktober 2025 endlich in Kraft getreten sind, können Forschende Anträge auf Datenzugang bei ihren nationalen Aufsichtsbehörden stellen. Über dieses durch den DSA neu geschaffene Recht können sie zum ersten Mal qualitative und quantitative Daten von Plattformen anfragen, um systemische Risiken zu erforschen. Damit schafft der DSA längst überfällige Rahmenbedingungen, die unabhängige Forschung und ein besseres Verständnis von Online-Plattformen ermöglichen sollen – und potenziell wichtige Grundlagen für Durchsetzungsverfahren schaffen können.

Beim deutschen DSC sind seitdem immerhin neun Anträge auf Datenzugang eingegangen. Das klingt vielversprechend, allerdings wurden die meisten der neun Anträge wieder zurückgezogen, da die benötigten Daten auch über den niedrigschwelligeren Datenzugang über Schnittstellen der Plattformen angefragt werden konnten. Diese Möglichkeit, Daten über APIs anzufragen, funktioniert in der Praxis je nach Plattform durchwachsen bis schlecht – mangelnder Zugang zu Forschungsdaten ist einer der DSA-Verstöße, die zum Bußgeld gegen X beigetragen haben. Die Gesellschaft für Freiheitsrechte und Democracy Reporting International haben X kürzlich zum zweiten Mal deswegen verklagt.

Es ist also noch zu früh, um sich über große Durchbrüche beim Datenzugang zu freuen, aber immerhin können Forschende jetzt das System ausprobieren, Anträge stellen und auf Durchsetzung pochen, wenn die Plattformen sich weigern.

Ebenfalls hoffnungsvoll stimmen die kürzlich veröffentlichten vorläufigen Ergebnisse zu einem Verfahren gegen TikTok. Dort kommt die Europäische Kommission zu dem Schluss, dass die Videoplattform nicht genug getan hat, um Risiken von suchtfördernden Mechanismen insbesondere für Minderjährige zu mindern, beispielsweise endlose Feeds und hoch-personalisierte Empfehlungen. Das ist spannend, weil die Kommission davon ausgeht, dass TikTok das „grundlegende Design“ der Plattform ändern muss, um diesen Risiken beizukommen.

Sollte die Kommission bei dieser Einschätzung bleiben und nach Abschluss des Verfahrens Bußgelder gegen TikTok verhängen, hätte der Fall Auswirkungen weit über TikTok hinaus: Endlose Feeds und hoch-personalisierte Empfehlungen sind Kernelemente aller großen sozialen Netzwerke und Videosharingplattformen. Hier zeigt der DSA sein Potenzial, einerseits strukturelle Änderungen zu erstreiten, die das Businessmodell der Plattformen direkt betreffen. Das könnte zu anderen und besseren digitalen Räumen führen .

Andererseits zeigt die Argumentation, dass der DSA sinnvolle Werkzeuge bietet, um den Features und Plattform-Praktiken zu begegnen, die in der Debatte um Verbote von sozialen Medien für Kinder und Jugendliche im Fokus stehen: süchtigmachendes Design, Personalisierung basierend auf Unmengen persönlicher Daten, Produktdesign, das die Rechte und Interessen von Kindern wahrt.

Ein solches Verbot wurde Anfang Februar von Spaniens Premierminister Pedro Sanchez angekündigt, wofür er prompt von Elon Musk als Tyrann und Verräter Spaniens betitelt wurde. Daraufhin solidarisierte sich die Europäische Kommission mit Sanchez, während sie gleichzeitig festhielt, dass nur die Europäische Kommission durch den DSA weitere Verpflichtungen gegenüber sehr großen Online-Plattformen aussprechen darf. Angesichts des Eifers von Mitgliedstaaten wie Spanien, Italien, Griechenland, Frankreich und den Niederlanden bleibt abzuwarten, ob sich EU-Regierungen diesem Machtwort aus Brüssel beugen werden. Ob es also europäische Verboten von sozialen Medien geben wird, ist nach wie vor unklar.

Keine Durchsetzung ohne Repression

Solidarisch hatte sich die Europäische Kommission Ende Dezember auch gegenüber Mitgliedern eines angeblichen „globalen Zensur-industriellen Komplexes“ gezeigt, nachdem sie vom US-Außenministerium mit Visa-Sanktionen belegt worden waren, unter ihnen die beiden Geschäftsführerinnen von HateAid. HateAid ist eine der Organisationen, die als Trusted Flagger in Deutschland zugelassen sind.

Mit diesen Sanktionen markiert die Trump-Regierung Menschen als politische Feinde, die Online-Plattformen für Verstöße gegen geltendes Recht zur Verantwortung ziehen, bestraft sie und versucht, sie an ihrer Arbeit zu hindern.

Seit den Sanktionen gegen Zivilgesellschaft und Forschende vom Dezember hat ein neuer Bericht des Rechtsausschusses des US-Abgeordnetenhauses die Situation weiter verschärft. Die Beschäftigung des Ausschusses mit dem DSA ist getrieben von Jim Jordan, einem republikanischen Abgeordneten, der seit Jahren damit beschäftigt ist, die angebliche Zensur von US-Amerikaner:innen durch den DSA zu beweisen.

Auf 160 Seiten breitet der Bericht Jordans wirre Fantasie aus, dass die Europäische Kommission, unterstützt von der europäischen Zivilgesellschaft, nur ein Ziel mit dem DSA verfolge: die Unterdrückung konservativer, US-amerikanischer Stimmen. Dabei stützt sich der Bericht auf massenweise E-Mails, Screenshots und Dokumente, die Jordan durch Herausgabeverlangen von US-Plattformen bekam – wogegen sich Plattformen offensichtlich nicht oder kaum gewehrt haben.

Der Jordan-Bericht stellt jedoch nicht nur eine Reihe von Falschbehauptungen auf, sondern identifiziert und markiert auch eine ganze Reihe von Kommissionsmitarbeitenden und Vertreter:innen der Zivilgesellschaft, die an Workshops der Kommission zur DSA-Durchsetzung teilnahmen oder anderweitig an der Durchsetzung des DSA beteiligt sind. Ein gefundenes Fressen für jene Kräfte, die genau diese Arbeit verhindern wollen.

Die Repressionen gegen HateAid und Co. werden also wahrscheinlich nicht die letzten gegen Menschen und Organisationen gewesen sein, die sich um die Durchsetzung des DSA bemühen. Auf Seite der Behörden scheint man auch nach dem Shitstorm um Trusted Flagger und der Demontage des Stanford Internet Institute auf Druck rechtskonservativer Politiker kaum auf solche Szenarien vorbereitet sein – um nur zwei Beispiele zu nennen, in denen rhetorische Delegitimierungen durch rechte Akteure zu Einschüchterung, Gefahren für Einzelpersonen und dem Verlust von institutionellen Strukturen geführt haben.

Aufsichtsbehörden, Politik und die Kommission sind jetzt gefragt, nicht nur ihre Solidarität auszudrücken, sondern konkrete Maßnahmen zum Schutz von Zivilgesellschaft und Forschung zu ergreifen. Dabei darf aber nicht nur in die USA geschaut werden: Auch in Deutschland und anderen Mitgliedstaaten setzen konservative und rechte Kräfte die Zivilgesellschaft immer stärker unter Druck. Vom Anti-NGO-Kurs der Union über die Gemeinnützigkeitsdebatte und Kontoschließungen linker Organisationen bis zu physischen Angriffen gegen Aktivist:innen – wenn es der Politik ernst damit ist, zivilgesellschaftliche Arbeit zu schützen, darf sie nicht zwischen politisch genehmen und unbequemen Organisationen unterscheiden.

Ein ganzheitlicher Ansatz muss her: nachhaltige und großzügige Finanzierung, rechtliche Absicherung und vor allem eine Regierungspartei, die versteht, dass die Delegitimierung von NGOs letztlich nur einer Seite hilft – den Feinden demokratischer und offener Gesellschaften.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Bundesgesundheitsministerium: So umfassend will Warken die Gesundheitsdaten aller Versicherten verknüpfen

Von: Daniel Leisegang

Bundesgesundheitsministerin Nina Warken hat ihre Digitalisierungsstrategie vorgelegt. Darin betont die CDU-Ministerin, die Patient:innensouveränität stärken zu wollen. Tatsächlich aber will sie eine der umfassendsten Gesundheitsdateninfrastrukturen weltweit aufbauen. Nutznießer sind Forschung und Pharma-Unternehmen. Die Rechte der Patient:innen bleiben auf der Strecke.

Bundesministerin für Gesundheit Nina Warken schaut konzentriert
Ganz auf die Vernetzung von Gesundheitsdaten fokussiert: Gesundheitsministerin Nina Warken (CDU). – Alle Rechte vorbehalten IMAGO / dts Nachrichtenagentur

Rund 75 Millionen gesetzlich Versicherte, ihre Gesundheitsdaten täglich übermittelt an ein nationales Forschungsdatenzentrum, verknüpfbar mit hunderten Medizinregistern und europaweit vernetzt – das ist die Vision von Bundesgesundheitsministerin Nina Warken (CDU).

Die Ministerin präsentierte in der vergangenen Woche ihre „Digitalisierungsstrategie für das Gesundheitswesen und die Pflege“. Darin verspricht Warken eine bessere medizinische Versorgung und mehr Patientensouveränität. Tatsächlich aber zielt ihre Strategie vor allem darauf ab, eine der umfassendsten Gesundheitsdateninfrastrukturen weltweit aufzubauen.

Das knapp 30-seitige Papier legt zugleich die Grundlage für ein umfangreiches „Digitalgesetz“. Den Entwurf will das Bundesgesundheitsministerium (BMG) noch im laufenden Quartal vorlegen. Die Rechte der Patient:innen drohen darin weitgehend auf der Strecke zu bleiben.

Die geplante Dateninfrastruktur ruht auf drei Säulen: die elektronische Patientenakte, das Forschungsdatenzentrum Gesundheit und das geplante Medizinregistergesetz. Das Zusammenspiel aller drei Vorhaben ebnet auch der EU-weiten Vernetzung der Gesundheitsdaten den Weg.

Die ePA soll zur „Gesundheits(daten)plattform“ werden

Alle Versicherten, die nicht widersprochen haben, besitzen seit Januar 2025 eine elektronische Patientenakte (ePA); seit Oktober 2025 sind Behandelnde dazu verpflichtet, sie zu verwenden. Gesundheitsministerin Warken will die ePA nicht nur zum „zentralen Dreh- und Angelpunkt“ der ärztlichen Versorgung machen, sondern auch zur „Gesundheits(daten)plattform“ ausbauen.

Dafür sollen erstens mehr strukturierte Daten in die ePA fließen, die dann „möglichst in Echtzeit für entsprechende Anwendungsfälle nachnutzbar“ sind. Derzeit sind dort vor allem noch PDF-Dateien hinterlegt, die nicht einmal durchsuchbar sind, was den Umgang mit der ePA aus Sicht von Behandelnden deutlich erschwert.

Zweitens soll die ePA weitere Funktionen wie eine digitale Terminvermittlung und elektronische Überweisungen erhalten. Die Patientenakte soll so „auch interessanter werden für diejenigen, die nicht krank sind“, kündigte Warken an. Derzeit nutzen gerade einmal rund 4 Millionen Menschen ihre ePA aktiv. Bis zum Jahr 2030 soll sich ihre Zahl, so das Ziel des BMG, auf 20 Millionen erhöhen.

„Künstliche Intelligenz“ soll Symptome auswerten

Wer sich krank fühlt, soll künftig auch über die ePA-App eine digitale Ersteinschätzung einholen können. Mit Hilfe eines Fragenkatalogs sollen Versicherte dann erfahren, ob ihre Symptome den Gang zur Hausärztin oder gar zur Notfallambulanz rechtfertigen.

Diese Auswertung soll offenbar auch mit Hilfe sogenannter Künstliche Intelligenz erfolgen. Ohnehin soll KI laut Warken „in Zukunft da eingesetzt werden können, wo sie die Qualität der Behandlung erhöht, beim Dokumentationsaufwand entlastet oder bei der Kommunikation unterstützt“. Bis 2028 sollen beispielsweise mehr als 70 Prozent der Einrichtungen in der Gesundheits- und Pflegeversorgung KI-gestützte Dokumentation nutzen – ungeachtet der hohen Risiken etwa für die Patientensicherheit oder die Autonomie der Leistungserbringer.

Dafür will das BMG „unnötigen bürokratischen Aufwand“ für KI-Anbieter reduzieren. Das Ministerium strebt dafür mit Blick auf den Digitalen Omnibus der EU-Kommission „eine gezielte Anpassung der KI-Verordnung“ an. Das umstrittene Gesetzesvorhaben der Kommission zielt darauf ab, Regeln für risikoreiche KI-Systeme hinauszuzögern und den Datenschutz deutlich einzuschränken. Zivilgesellschaftliche Organisationen warnen eindringlich, dass mit dem Omnibus der „größte Rückschritt für digitale Grundrechte in der Geschichte der EU“ drohe.

Forschungsdatenzentrum soll als „Innovationsmotor“ wirken

Die in der ePA hinterlegten Daten sollen aber nicht nur der ärztlichen Versorgung dienen, sondern vor allem auch der Forschung zugutekommen. Sie sollen künftig – sofern Versicherte dem nicht aktiv widersprechen – täglich automatisch an das Forschungsdatenzentrum Gesundheit (FDZ) gehen. Während Warken die ePA als „Dreh- und Angelpunkt“ der Versorgung sieht, beschreibt sie das FDZ als „Innovationsmotor“ der Gesundheitsforschung.

Das FDZ wurde nach jahrelangen Verzögerungen im vergangenen Herbst erst handlungsfähig. Es ist beim Bundesamt für Arzneimittel und Medizinprodukte (BfArM) in Bonn angesiedelt. Forschende können sich bei dem Zentrum registrieren, um mit den dort hinterlegten Daten zu arbeiten. Auch Pharma-Unternehmen können sich bewerben. Eine Voraussetzung für eine Zusage ist, dass die Forschung einem nicht näher definierten „Gemeinwohl“ dient.

Die pseudonymisierten Gesundheitsdaten sollen das FDZ nicht verlassen. Stattdessen erhalten Forschende Zugriff auf einen Datenzuschnitt, der auf ihre Forschungsfrage abgestimmt ist. Die Analysen erfolgen in einer „sicheren Verarbeitungsumgebung“ auf einem virtuellen Desktop, das Forschende übers Internet aufrufen können.

Ob dabei tatsächlich angemessene Schutzstandards bestehen, muss indes bezweifelt werden. Denn das Forschungszentrum verfügte in den vergangenen Jahren nicht einmal über ein IT-Sicherheitskonzept, weshalb auch ein Gerichtsverfahren der Gesellschaft für Freiheitsrechte ruht.

Gemeinsam mit der netzpolitik.org-Redakteurin Constanze Kurz hatte die GFF gegen die zentrale Sammlung sensibler Gesundheitsdaten beim FDZ geklagt. Aus ihrer Sicht sind die gesetzlich vorgesehenen Schutzstandards unzureichend, um die sensiblen Gesundheitsdaten vor Missbrauch zu schützen. Sie verlangt daher für alle Versicherten ein voraussetzungsloses Widerspruchsrecht gegen die Sekundärnutzung der eigenen Gesundheitsdaten. Nachdem das FDZ seit Oktober den aktiven Betrieb aufgenommen hat, dürfte das ruhende Verfahren in Kürze fortgesetzt werden.

„Real-World-Überwachung“ ermöglichen

Dessen ungeachtet haben sich laut BfArM-Präsident Karl Broich bereits 80 Einrichtungen beim FDZ registriert. Die Antragsteller kommen zu gleichen Teilen aus Wirtschaft, Verwaltung und Forschung. Mehr als zwei Drittel von ihnen hätten bereits konkrete Forschungsanträge gestellt, bis zum Ende des Jahres will Warken diese Zahl über die Schwelle von 300 hieven. Alle positiv beschiedenen Anträge sollen künftig in einem öffentlichen Antragsregister einsehbar sein.

Zum Jahreswechsel wird das FDZ wohl auch über weit mehr Daten verfügen als derzeit. Bislang übermitteln die gesetzlichen Krankenkassen die Abrechnungsdaten all ihrer Versicherten an das Forschungszentrum. Diese geben bereits Auskunft darüber, welche Leistungen und Diagnosen die Versicherungen in Rechnung gestellt bekommen haben.

Ab dem vierten Quartal dieses Jahres sollen dann nach und nach die Behandlungsdaten aus der ePA hinzukommen. Den Anfang machen Daten aus der elektronischen Medikationsliste, anschließend folgen die Laborfunde, dann weitere Inhalte.

Der baldige Datenreichtum gibt dem FDZ aus Sicht von BfArM-Chef Broich gänzlich neue Möglichkeiten. Er geht davon aus, dass seine Behörde in zehn Jahren bundesweit „einer der großen Daten-Hubs“ ist. Mit den vorliegenden Daten könnten Forschende dann umfassende „Lifecycle-Beobachtungen“ durchführen – „eine Real-World-Überwachung also, die klassische klinische Prüfungen so nicht abdecken können“.

Auch im FDZ soll „Künstliche Intelligenz“ mitwirken. Zum einen in der Forschung selbst: „Dafür arbeiten wir an Konzepten, die Datenschutz, Sicherheit und wissenschaftliche Nutzbarkeit von Beginn an zusammendenken“, sagt Broich. Zum anderen soll das FDZ Datensätze etwa für das Training von Sprachmodellen bereitstellen, wie die Digitalisierungsstrategie des BMG ausführt und auch bereits gesetzlich festgeschrieben ist. Sowohl Training als auch Validierung und Testen von KI-Systemen sind eine zulässige Nutzungsmöglichkeiten. Das bedeutet konkret: Die sensiblen Gesundheitsdaten von Millionen Versicherten können zum Training von Sprachmodellen verwendet werden.

Wie „Künstliche Intelligenz“ unser Gesundheitswesen verändern soll – und welche Fragen das aufwirft

Warken will Medizinregister miteinander verknüpfen

Ab 2028 könnten Trainingsdaten dann auch detaillierte Daten zu Krebserkrankungen enthalten. Denn in knapp zwei Jahren sollen die FDZ-Datenbestände mit Krebsregistern sowie dem Projekt genomDE verknüpft werden, das Erbgutinformationen von Patient:innen sammelt.

Die Datenfülle beim FDZ dürfte damit noch einmal ordentlich zunehmen. Allein die Krebsregister der Länder Bayern, Nordrhein-Westfalen und Rheinland-Pfalz halten Daten von insgesamt mehr als drei Millionen Patient:innen vor. Wer nicht möchte, dass etwa die eigenen Krebsdaten mit den Genomdaten verknüpft werden, muss mindestens einem der Register komplett widersprechen.

Im Gegensatz etwa zu den Krebsregistern der Länder, die auf Basis spezieller rechtlicher Grundlagen arbeiten, bewegen sich die meisten anderen Medizinregister dem BMG zufolge derzeit „in einem heterogenen Normengeflecht von EU-, Bundes- und Landesrecht“, was „die Schaffung einer validen Datenbasis“ behindere.

Das Ministerium hat daher bereits im Oktober das „Gesetz zur Stärkung von Medizinregistern und zur Verbesserung der Medizinregisterdatennutzung“ auf den Weg gebracht. Der Referentenentwurf sieht vor, einheitliche rechtliche Vorgaben und Qualitätsstandards für Medizinregister zu schaffen.

Ein Zentrum für Medizinregister (ZMR), das ebenfalls am BfArM angesiedelt wäre, soll demnach bestehende Medizinregister nach festgelegten Vorgaben etwa hinsichtlich Datenschutz und Datenqualität bewerten. Qualifizierte Register werden dann in einem Verzeichnis aufgeführt, dürfen zu einem festgelegten Zweck kooperieren und auch anlassbezogen Daten zusammenführen. Die personenbezogenen Daten, die dort gespeichert sind, können für die Dauer von bis zu 100 Jahren in den Registern gespeichert werden.

Derzeit gibt es bundesweit rund 350 Medizinregister. Zu den größten zählen das „Deutsche Herzschrittmacher Register“, das die Daten von mehr als einer Million Patient:innen enthält, und das „TraumaRegister DGU“ mit Daten von mehr als 100.000 Patient:innen. Das Gesundheitsministerium geht davon aus, dass etwa drei Viertel der bestehenden Medizinregister Interesse daran haben könnten, in das Verzeichnis des ZMR aufgenommen zu werden.

Verbraucher- und Datenschützer:innen mahnen Schutzvorkehrungen an

Gesundheitsdaten, die dem ZMR vorliegen, sollen ebenfalls pseudonymisiert oder anonymisiert der Forschung bereitstehen. Das geplante Medizinregistergesetz sieht außerdem vor, dass die Daten qualifizierter Register ebenfalls miteinander verknüpft werden können.

Zu diesem Zweck sollen Betreiber von Medizinregistern und die meldenden Gesundheitseinrichtungen registerübergreifende Pseudonyme erstellen dürfen. Als Grundlage dafür soll der unveränderbare Teil der Krankenversichertennummer von Versicherten (KVNR) dienen.

Fachleute weisen darauf hin, dass eine Pseudonymisierung insbesondere bei Gesundheitsdaten keinen ausreichenden Schutz vor Re-Identifikation bietet. Das Risiko wächst zudem, wenn ein Datensatz mit weiteren Datensätzen zusammengeführt wird, wenn diese weitere personenbezogene Daten der gleichen Person enthält.

Das Netzwerk Datenschutzexpertise warnt zudem davor, die Krankenversichertennummer in einer Vielzahl von Registern vorzuhalten. Weil im Gesetzentwurf notwendige Schutzvorkehrungen fehlen würden, sei „das Risiko der Reidentifizierung bei derart pseudonymisierten Datensätzen massiv erhöht“.

Der Verbraucherzentrale Bundesverband kritisiert die Menge an personenbezogenen Daten, die laut Gesetzentwurf an qualifizierte Medizinregister übermittelt werden dürfen. Dazu zählen neben sozialdemographischen Informationen auch Angaben zu Lebensumständen und Gewohnheiten sowie „zu einem Migrationshintergrund oder einer ethnischen Zugehörigkeit, der Familienstand oder die Haushaltsgröße“.

Um die Patient:innendaten besser zu schützen, forderte der Verband bereits im November vergangenen Jahres, eindeutig identifizierende Daten vom Kerndatensatz eines Medizinregisters getrennt aufzubewahren.

Gesundheitsministerium schafft Schnittstellen in die EU

Das Gesundheitsministerium lässt sich davon jedoch nicht beirren und strebt weitere Datenverknüpfungen an. Laut seiner Digitalisierungsstrategie will das BMG das Forschungspseudonym auch dazu nutzen, um die Gesundheits- und Pflegedaten „mit Sozialdaten und Todesdaten zu Forschungszwecken“ sowie „mit Abrechnungs- und ePA-Daten“ zu verbinden. Ob Versicherte dieser umfangreichen Datenverknüpfung überhaupt noch effektiv und transparent widersprechen können, ist derzeit zweifelhaft. Sicher aber ist: Der Aufwand dürfte immens sein.

Die Digitalisierungsstrategie macht ebenfalls deutlich, dass das Ministerium die geplanten Maßnahmen auch in Vorbereitung auf den Europäischen Gesundheitsdatenraum (EHDS) ergreift. Der EHDS ist der erste sektorenspezifische Datenraum in der EU und soll als Blaupause für weitere sogenannte Datenräume dienen. Schon in wenigen Jahren sollen hier die Gesundheitsdaten von rund 450 Millionen EU-Bürger:innen zusammenlaufen und grenzüberschreitend ausgetauscht werden.

Konkret bedeutet das: In gut drei Jahren, ab Ende März 2029, können auch Forschende aus der EU beim FDZ Gesundheitsdaten beantragen. Und das Zentrum für Medizinregister soll dem BMG zufolge ebenfalls Teil der europäischen Gesundheitsdateninfrastruktur werden.

Der größte Brückenschlag in der Gesundheitsdateninfrastruktur steht also erst noch bevor. Und auch hier bleibt die Ministerin eine überzeugende Antwort schuldig, was die Versicherten davon haben.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Migrationskontrolle: Ein KI-Chatbot von Frontex soll zu Selbst-Abschiebung beraten

Von: Laura Jaruszewski

Die europäische Grenzschutzagentur Frontex entwickelt derzeit eine App mit integriertem Chatbot. Der soll Geflüchtete dabei beraten, wie sie „freiwillig“ in ihr Herkunftsland zurückkehren können. Der Einsatz stelle nach dem AI Act kein hohes Risiko dar, findet die Behörde.

Auf einer Weste ist das Logo von Frontex zu sehen.
Frontex arbeitet an einer neuen künstlichen Intelligenz, die zu Abschiebungen beraten soll. – Alle Rechte vorbehalten IMAGO / ANP

Wenn Geflüchtete „freiwillig“ oder unfreiwillig Europa verlassen, soll sie künftig ein KI-basierter Chatbot dabei beraten. Die Grenzschutzagentur Frontex entwickelt eine App, in der Menschen mehr über finanzielle Anreize einer sogenannten freiwilligen Ausreise erfahren oder wohin sie sich für weitere Beratung wenden können.

Die Anwendung ist Teil des europäischen Reintegration Programme von Frontex, das unter anderem Ausreisen finanziert. Reisen Geflüchtete nicht freiwillig aus, begleitet Frontex etwa auch Abschiebeflüge. Seit einigen Jahren setzt die Behörde verstärkt darauf, Menschen zur „freiwilligen“ Rückkehr zu bewegen. Laut einer Präsentation von Frontex aus dem Januar 2026 habe die Unterstützung von „Rückkehr-Spezialisten“ in 42 Prozent der Fälle, bei denen sie eingesetzt wurden, in einer Entscheidung zur freiwilligen Rückkehr geendet.

Da eine solche freiwillige Rückkehr, wie die EU diese Prozesse nennt, für Menschen mit fehlenden Alternativen nicht freiwillig sein kann, nutzen manche stattdessen Begriffe wie Selbst-Abschiebung.

Abschiebungen im Gewand automatisierter Beratungen

Der KI-Chatbot soll nun ähnliches bewirken. Das Ziel sei, dass sich mehr Menschen für eine Rückkehr in ihr Heimatland entscheiden, so der stellvertretende Exekutivdirektor Lars Gerdes laut AlgorithmWatch.

Wenn Frontex jedoch eine KI-basierte Technologie einsetzen will, ist relevant, ob sie nach dem AI Act als Hochrisiko-Anwendung gilt. Die Verordnung sieht vor, dass viele KI-Systeme im Bereich Migration als Hochrisiko-Systeme einzustufen sind, etwa wenn sie bei der Prüfung von Asyleinträgen genutzt werden. Für Frontex hat das zur Behörde gehörende Fundamental Rights Office (FRO) eine entsprechende Einstufung geprüft.

Die unzureichenden Stellen der KI-Verordnung

Obwohl der Chatbot zur Rechtsberatung eingesetzt werden könnte, kam die Behörde zu dem Schluss, dass kein hohes Risiko bestehe. Somit ergebe sich kein weiterer Bedarf, mögliche Auswirkungen auf Grundrechte zu überprüfen. In einer späteren Einschätzung empfahl FRO allerdings als erste von 27 weiteren Empfehlungen, die These theoretisch zu untermauern, dass mehr Informationen die Quote freiwilliger Rückkehrer*innen erhöhen würden. Im Zuge des 2024 verabschiedeten AI Acts hatten sowohl AlgorithmWatch als auch netzpolitik.org auf Leerstellen verwiesen, die der AI Act bei der Regulierung von eingesetzten Technologien im Bereich Migration hat.

Informationen über die App erhielt die Nichtregierungsorganisation AlgorithmWatch aus internen Dokumenten, die sie mit Informationsfreiheitsanfragen erhielt. Auf welche Daten der Chatbot zugreifen können soll, ist laut AlgorithmWatch noch unklar. Ebenfalls unklar bleibt, ob er wie geplant in Sprachen wie Arabisch, Urdu oder Paschtu genutzt werden könne. Bisher hatte Frontex nur Material in englischer Sprache zum Training verwendet, das Material dafür hat Frontex‘ Return Knowledge Office Daten zum Training zusammengestellt.

Die neue App gilt bei Frontex als „schnell umsetzbares, kostengünstiges Projekt mit nur geringem Ressourcenaufwand“, wie aus internen E-Mails laut AlgorithmWatch hervorgeht. Und Frontex hofft offenbar darauf, weitere, „leistungsfähigere und integrierte IT-Systeme“ entwickeln zu können, sobald gesetzliche Hürden dazu gefallen sind.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Kap Verde: Frontex stationiert erstmals Überwachungsflugzeug vor Westafrika

Von: Matthias Monroy

Frontex führt seit November von den Kapverden aus Flüge zur Migrationsabwehr durch. Die Mission startete ohne ein Abkommen zur Datenweitergabe, zeigt die Antwort auf eine Frage aus dem EU-Parlament.

Gruppenfoto mit EU- und Kap-Verde-Flagge vor einem Fluzeug
Frontex bei einem Besuch in Kap Verde. – Alle Rechte vorbehalten Frontex

Die EU-Grenzagentur Frontex hat im November ihre Luftüberwachung auf die Gewässer vor Westafrika erweitert. Regelmäßige Einsätze erfolgen seitdem immer wieder von der Insel Santiago, die zu den Kapverden gehört. Für die Stationierung eines Flugzeugs war Frontex-Direktor Hans Leijtens selbst in die kapverdische Hauptstadt Praia gereist. Dort traf sich der Niederländer mit dem Staatsminister, dem Verteidigungs- sowie dem Innenminister und weiteren hochrangigen Regierungsmitgliedern.

Die Luftüberwachung von Praia aus ist der erste derartige Einsatz von Frontex in einem afrikanischen Land. An den Gesprächen zur technischen Umsetzung waren auch Behörden aus Portugal beteiligt – die beiden Länder arbeiten nach der Unabhängigkeit des Inselstaats Kap Verde auch zu maritimer Sicherheit eng zusammen. Nach Angaben eines Frontex-Sprechers stimmt sich die EU-Grenzagentur auch mit spanischen Behörden zu den Flügen ab.

Die zu Spanien gehörenden Kanarischen Inseln sind oft Ziel der Überfahrten von Booten mit Migrant*innen, die von Gambia, Guinea-Bissau, Senegal oder Mauretanien in Richtung Europa ablegen. Auf sie hat es Frontex abgesehen.

Hochgerüstete Überwachungsflugzeuge

Mit den ausgeweiteten Flügen ihrer „Multipurpose Aerial Surveillance“ will Frontex die EU-Migrationsabwehr verstärken. Bei privaten Firmen gecharterte Luftfahrzeuge halten dazu Ausschau in den Such- und Rettungsregionen im Atlantik vor Senegal und Mauretanien. Bei Sichtung eines Bootes informiert die Besatzung die zuständigen Behörden der westafrikanischen Länder. Deren Küstenwachen sollen die Menschen abfangen und zurückholen. Ein solches Pullback-System praktiziert Frontex bereits seit 2017 mit der Küstenwache in Libyen.

Allerdings startet die neue Frontex-Mission ohne ein neues Arbeitsabkommen mit den Kapverden. Wie aus einer aktuellen Antwort auf eine parlamentarische Anfrage hervorgeht, bezeichnet Frontex den aktuellen Betrieb deshalb als „Phase 1“. In diesem Zeitraum findet demnach kein erweiterter Austausch von Daten aus der Überwachung mit kapverdischen Behörden statt – dies soll erst nach Unterzeichnung einer entsprechenden Vereinbarung in „Phase 2“ erfolgen.

Auch ohne Abkommen zum Datentausch können in der „Phase 1“ Informationen zu gesichteten Booten an die Küstenwache der Kapverden übermittelt werden – jedenfalls in einem Seenotfall. Dies könne über das internationale Seerecht erfolgen, das im Rahmen von Such- und Rettungseinsätzen die Benachrichtigung von maritimen Leitstellen benachbarter Staaten vorschreibt, erklärt Frontex.

Kapverden benennen „Eurosur-Koordinierungszentrum“

Nach Unterzeichnung eines Arbeitsabkommens soll dann „Phase 2“ beginnen. Dann würde der Informationsaustausch zu Booten auf dem Weg zu den Kanaren über ein Lagezentrum der Marine erfolgen, das Kap Verde dafür benannt hat. Frontex bezeichnet dieses COSMAR, das Zentrum für maritime Sicherheitsoperationen, als „Eurosur-Koordinierungszentrum“. Eurosur ist das Überwachungsnetzwerk, an das seit 2014 alle Schengen-Staaten mit dem Frontex-Hauptquartier in Warschau vernetzt sind. Dorthin werden auch die von Flugzeugen aufgenommenen Videos in Echtzeit gestreamt.

Die Antwort auf die parlamentarische Anfrage gibt auch Auskunft zur Sensortechnik an dem bei der britischen Firma DEA mit einem Rahmenvertrag gecharterten Flugzeug. Dazu gehören eine giro-stabilisierte elektro-optische und Infrarot-Kamera mit Wärmebildfunktion und Tageslicht-Zoomkamera, außerdem ein AIS-Transponder zur Schiffsidentifikation und ein Seeüberwachungsradar.

Derartige Ausrüstung gilt als Dual-Use-Technik, die auch militärisch verwendet werden kann. Schiffe der zivilen Seenotrettung dürfen sie deshalb nicht erwerben oder einsetzen, ansonsten können sie auch wegen Spionage verfolgt werden.

„Operative Verbindungsbeamte“ in Warschau

Mit der Anbindung an Eurosur erhalten die „eingebetteten kapverdischen Behörden“ laut Frontex die gleichen Informationen wie Portugal und Spanien. Dazu stationiert die Regierung in „Phase 2“ außerdem „operative Verbindungsbeamte“ in Warschau. Umgekehrt will Frontex aber kein eigenes Personal auf den Kapverden stationieren.

Die Frontex-Mission von den Kapverden aus soll eine Lücke schließen, die gescheiterte Verhandlungen mit Senegal und Mauretanien hinterließen: Die EU-Grenzagentur wollte ursprünglich Statusabkommen mit diesen Ländern schließen, um auch dort operieren zu dürfen. Trotz vorheriger positiver Signale verweigerten die Regierungen jedoch entsprechende Gespräche.

Die Flüge von Praia erfolgen deshalb außerhalb der Zwölfmeilenzone von Senegal und Mauretanien und damit im internationalen Seegebiet. So zeigt es auch ein ADSB-Tracker für das Flugzeug.

Grundrechtsbeauftragter äußert sich kritisch

Auch der Frontex-Grundrechtsbeauftragte Jonas Grimheden hatte sich bereits mit den Flügen von Praia aus beschäftigt – und äußerte sich schon im Planungsstadium kritisch. Denn die Flugzeuge sollen Informationen über entdeckte Migrant*innen an Such- und Rettungsbehörden der betreffenden Staaten weitergeben. In Mauretanien und Senegal gibt es aber Berichte über Defizite beim Schutz der Menschenrechte. Deshalb hätten vor der Inbetriebnahme des Flugdienstes wirksame Schutzmaßnahmen eingeführt werden sollen, meint Grimheden.

Das Büro des Grundrechtsbeauftragten forderte daher einen Aktionsplan, der die Probleme adressiert. Besonders das Verbot des Non-Refoulement – also das Verbot, Menschen in Länder zurückzuschicken, wo ihnen Verfolgung droht – müsse darin berücksichtigt werden, so Grimheden.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Anlasslose Massenüberwachung: Harter Stand für die Vorratsdatenspeicherung

Von: Tomas Rudl

Im Dezember hat das Justizministerium einen ersten Entwurf für die Neuauflage der Vorratsdatenspeicherung vorgelegt. Dieser stößt bei zivilgesellschaftlichen Gruppen auf Kritik, die vor anlassloser Überwachung warnen.

Wie hoch sollte die Eingriffsintensität ausfallen? Das lotet derzeit Stefanie Hubig (SPD) aus, Bundesministerin für Justiz und Verbraucherschutz. (Symbolbild) – Alle Rechte vorbehalten IMAGO / photothek

Der jüngste Anlauf, eine Vorratsdatenspeicherung in Deutschland einzuführen, könnte womöglich gegen EU-Recht verstoßen. So lautet der Tenor aus vielen zivilgesellschaftlichen Organisationen, die in den letzten Wochen Stellung zum Gesetzentwurf bezogen haben.

Diesen hatte das Bundesjustizministerium (BMJV) im Dezember vorgestellt. Demnach sollen Netzbetreiber die IP-Adressen und Port-Nummern ihrer Nutzer:innen anlasslos drei Monate lang speichern. Außerdem sollen sich mit einer Sicherungsanordnung auch weitere Verkehrsdaten von Nutzer:innen einfrieren lassen, wenn ein Verdacht von Straftaten mit erheblicher Bedeutung vorliegt.

Die Tür für den erneuten Anlauf hat der Europäische Gerichtshof (EuGH) geöffnet. Im Jahr 2024 hatten die Richter:innen entschieden, die verdachtsunabhängige Speicherung von IP-Adressen unter bestimmten Bedingungen zuzulassen. Zuvor hatte sich der EuGH in mehreren Urteilen stets gegen diese Form anlassloser Massenüberwachung gestellt. Diese Kehrtwende hat in vielen EU-Ländern, aber auch auf EU-Ebene, neue Diskussionen um Vorratsdatenspeicherung ausgelöst.

EU-weite Lösung bevorzugt

Schon allein deshalb sei ein nationaler Alleingang fragwürdig, schreibt die Digital-NGO Digitale Gesellschaft in ihrer Stellungnahme. „Der Vorschlag läuft quer zu einem gerade angelaufenen Gesetzgebungsverfahren von der EU-Kommission zur Harmonisierung europäischer Regeln zur Vorratsdatenspeicherung“, so die Bürgerrechtler. Lieber sollte sich die Bundesregierung „auf europäischer Ebene für zielgerichtete Maßnahmen statt Massenüberwachung“ einsetzen, empfiehlt die NGO.

Auch inhaltlich spart die Digitale Gesellschaft nicht mit Kritik. In Bezug auf ein älteres EuGH-Urteil würde die vorgeschlagene Speicherfrist von drei Monaten den Maßstäben des Gerichtshofs nicht entsprechen. In seinem letzten Urteil hatte der EuGH keine Zeitspanne benannt. Er führte aus, dass das nun erlaubte Vorhalten von IP-Adressen zeitlich auf das absolut Notwendige begrenzt werden müsse sowie keine detaillierten Einblicke in das Privatleben betroffener Personen erlauben dürfe.

Aufgeweichtes „Quick Freeze“

Dem Deutschen Anwaltverein (DAV) zufolge habe das BMJV die Öffnung für die Speicherung von IP-Adressen „in einem Maße überdehnt, die nicht mehr mit den grundrechtsschützenden Intentionen des Gerichtshofs in Einklang steht“. Da jegliche wirksame Begrenzung der Verwendungszwecke fehle, sei „jedenfalls die vorgeschlagene Vorratsdatenspeicherung europarechtswidrig“.

Neben der anlasslosen Speicherung von IP-Adressen, mit denen sich die Anschlussinhaber:innen herausfinden lassen, will das BMJV mit der Sicherungsanordnung eine Form von „Quick Freeze“ einführen. Hierbei werden nach einer Anordnung auch sogenannte Verkehrsdaten wie eine Liste abgehender Anrufe oder verschickter SMS-Nachrichten eingefroren. Betroffen wären auch Standortdaten, mit denen sich Bewegungsprofile erstellen lassen. Das entspricht grob dem gescheiterten Ansatz der Ampelregierung, die in der vergangenen Legislaturperiode eine grundrechtsschonendere Alternative zur Vorratsdatenspeicherung etablieren wollte.

Doch im aktuellen Entwurf schleift das nun SPD-geführte Justizministerium einige Schutzvorkehrungen. So soll für das Einfrieren der Daten eine simple Anordnung von Ermittlungsbehörden reichen. Erst beim zweiten Schritt, wenn es um das „Auftauen“ der Daten für weitere Ermittlungen geht, wäre eine unabhängige gerichtliche Prüfung notwendig.

Zudem plant das BMJV, die Eingriffsschwelle abzusenken, womit mehr einzufrierende Daten erfasst würden. Damit würde den Ermittlungsbehörden ermöglicht, schreibt der DAV, „genau wie bei der Vorratsdatenspeicherung, für einen Zeitraum von bis zu sechs Monaten retrograde Standortdaten zu erheben und detaillierte Bewegungsprofile zu erstellen“.

Andere Ansätze existieren

Aus Sicht der Gesellschaft für Informatik (GI) ist die flächendeckende, anlasslose Einführung einer IP-Adressenspeicherung vollständig auszuschließen, da sonst jede Person unter Generalverdacht gestellt würde. Zudem müsse grundsätzlich gefragt werden, ob „eine zusätzliche Form der staatlichen Überwachung durch eine Speicherung von Verkehrsdaten überhaupt erforderlich ist“. Aktivitäten ließen sich „bereits durch private Datenabflüsse im Alltag zum Teil rekonstruieren“, so die GI.

Für andere Ansätze plädiert der Digitalverband D64. Als „grundrechtsschonende und zielgerichtete Ermittlungsinstrumente“ schlägt der Verband eine sauber geregelte „Quick Freeze“-Lösung oder eine Login-Falle vor. Auch die Digital-NGO Digitalcourage verweist auf das Quick-Freeze-Verfahren, welches „rechtsstaatlich, verhältnismäßig und bereits heute möglich“ sei.

Kritik am Vorstoß des BMJV übt auch die Wirtschaft. So weist etwa eco, der Verband der Internetwirtschaft, auf potenzielle neue Speicherpflichten für bislang datensparsame Messenger wie Signal hin. „Mit dem geänderten § 100g der Strafprozessordnung (StPO) wird neben den bereits verpflichteten Anbietern bei der Erhebung von Verkehrsdaten klargestellt, dass dieser zusätzlich auch für Anbieter von nummernunabhängigen interpersonellen Kommunikationsdiensten (NI-ICS) gilt“, heißt es in der Stellungnahme des Verbands.

Dem Entwurf deutlich wohlgesonnener sind die von den Speicherpflichten besonders betroffenen Netzbetreiber. Allerdings warnt etwa VATM, der Verband der Anbieter von Telekommunikations- und Mehrwertdiensten, vor Unschärfen im derzeitigen Referentenentwurf. „Wird – wie im Entwurf vorgesehen – der Startpunkt einer Session gespeichert, ist eine Zuordnung einer IP-Adresse zu einem Endkunden nicht nur für drei Monate möglich, sondern faktisch für die gesetzliche Speicherfrist zuzüglich der Dauer der Session“, führt der Verband aus. Demnach könnten in der Praxis auch nach fünf oder sechs Monaten noch Zuordnungen vorgenommen werden. „Dies widerspricht dem Ziel einer strikt zeitlich begrenzten Speicherung.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Medien auf X: Im permanenten Shitstorm

Von: Tomas Rudl · Markus Reuter

Sie wollen Qualitätsjournalismus hochhalten und einen Gegenpol auf der Plattform X bieten. Doch Tagesschau, ZDFheute, Spiegel und Zeit erreichen weder viele Views noch positive Interaktionen mit dem Publikum. Was ihnen vor allem entgegenschlägt, ist Hass. Warum bleiben sie trotzdem da? Eine Analyse.

Manche seriöse deutsche Medien bekommen ganz schön viele Giftpfeile auf X ab, sind dort aber immer noch aktiv. – Alle Rechte vorbehalten Grafik: IMAGO / Depositphotos. Bearbeitung: netzpolitik.org

Große Nachrichtensendungen wie die Tagesschau und ZDFheute, aber auch Online-Medien wie Tagesspiegel, Die Zeit und Spiegel sowie Fachmedien wie Legal Tribune Online betreiben weiterhin Accounts auf der Plattform X des rechtsradikalen US-Milliardärs Elon Musk und posten dort aktuelle Inhalte. Sie alle wissen um die Probleme auf der Plattform. Doch sie begründen ihre Aktivität damit, dass sie ihren Qualitätsjournalismus gegen die Desinformation auf X setzen und das Publikum dort abholen wollen, wo es sich aufhält.

Wir haben anhand einer Stichprobe analysiert, wie sich diese Medien auf X schlagen: Wie oft werden die Tweets angesehen, wie oft retweetet, wie interagieren die Nutzer:innen mit den Medien und ihren Inhalten?

Bei der beispielhaften Untersuchung wird klar: Die auf X verbliebenen seriösen Medien befinden sich in feindlichem Terrain. Teils haben sie zwar hohe Followerzahlen, ihre Inhalte werden aber verhältnismäßig wenig Nutzer:innen angezeigt. Wohlwollende Interaktionen wie Retweets können sie kaum generieren. Dafür bläst ihnen in Kommentaren der Wind eisig ins Gesicht.

Gezielter Umbau nach rechts

Für das unwirtliche Klima ist nicht zuletzt Elon Musk selbst mitverantwortlich. Kurz nach dem 44 Millarden US-Dollar schweren Kauf des Online-Dienstes im Jahr 2022 entließ er ganze Moderationsteams und holte im Namen der Meinungsfreiheit zuvor gesperrte Rechtsextremisten, Trolle und professionelle Lügner:innen auf den Dienst zurück. Werbekunden sprangen ab, da sie offenbar ihre Anzeigen ungern neben Nazi-Inhalten sehen wollten. Musk akzeptierte das nicht und überzog die Abtrünnigen mit Klagen.

In diese länger werdende und unvollständige Liste an Kontroversen reiht sich nun der jüngste Skandal um den KI-Chatbot Grok ein. Die ebenfalls zum Firmenimperium Musks gehörende KI-Anwendung ist in X integriert und spuckt auf Anweisung alles mögliche aus – darunter zuletzt auch sexualisierte Deepfakes von Nutzer:innen, in aller Regel von Frauen und sogar von Minderjährigen. Neu ist das Phänomen zwar nicht, aber Grok machte es leicht, bis X doch noch technische Einschränkungen implementierte: Noch nie ließen sich solche Inhalte derart einfach erstellen und an ein globales Publikum ausliefern.

Der Umbau von X zu einer offen rassistischen und sexistischen Plattform geht Hand in Hand mit Musks Unterstützung für rechtsradikale und antidemokratische Bewegungen, hierzulande die AfD. Der Unternehmer macht kein Geheimnis daraus, sein soziales Netzwerk in den Dienst einer rechtsradikalen Revolution zu stellen.

Im Vorjahr zeigte eine Untersuchung von ZDF Frontal, dass die Empfehlungsalgorithmen von X rechte Parteiinhalte überproportional bevorzugen. Bei rassistisch motivierten Ausschreitungen im Sommer 2024 in England hat laut einer Studie von Amnesty International das Empfehlungssystem von X „eine zentrale Rolle“ gespielt. Auch die EU-Kommission vermutet, dass von den algorithmischen Empfehlungen systemische Risiken ausgehen könnten, hat ihre Untersuchungen aber noch nicht abgeschlossen.

Viele haben X verlassen – doch manche sind geblieben

Viele Nutzer:innen, aber auch Medienhäuser und sonstige Organisationen haben deshalb in den vergangenen Jahren die Online-Dienste des rechtsradikalen US-Milliardärs verlassen. Ob Niedersächsischer Landtag, das Jüdische Museum München oder netzpolitik.org, die Gründe für den Rückzug ähneln sich: X sei ein Ort der Zensur, des Rassismus, Antisemitismus und des rechten Agendasettings geworden, begründeten Dutzende Abgeordnete, Wissenschaftler:innen und Journalist:innen im Winter 2024 ihren Abgang. Zwar nutzen in Deutschland immer noch rund sieben Millionen Menschen monatlich die Plattform, ihre Reichweite geht jedoch europaweit kontinuierlich zurück.

Warum also bleiben weiterhin manche Medien auf X und versorgen das soziale Netzwerk mit Inhalten, die wiederum dessen Attraktivität steigern?

Auch hier ähneln sich die Gründe: So betont etwa Markus Sehl, stellvertretender Chefredakteur von Legal Tribune Online (LTO), Beiträge über zahlreiche Social-Media-Kanäle auszuspielen, darunter Instagram, LinkedIn, Bluesky, Facebook – und eben auch X. „Wir verbinden mit unserer Präsenz auf allen diesen Plattformen das Ziel, mit unseren Inhalten dort ein seriöses Inhaltsangebot zu machen. Eines, das Filterblasen durchdringt, für konstruktive Irritation sorgt und schließlich einen demokratischen Diskurs ermöglicht“, so Sehl auf Anfrage von netzpolitik.org.

Bescheidene Reichweite, bescheidene Debatten

Wir haben dieses hehre Ziel einem Realitäts-Check unterzogen. In unserem Beobachtungszeitraum wurden Tweets des juristischen Fachmediums, allesamt mit Links zu LTO-Artikeln, laut der Statistikanzeige von X am Tag der Postings durchschnittlich nur 1.329 Mal von Nutzer:innen gesehen. Derzeit folgen mehr als 28.000 Accounts dem X-Auftritt von LTO. Sonderlich viel Aufmerksamkeit oder gar „demokratischen Diskurs“ konnten die Postings nicht entfachen. Im Schnitt wurden die Tweets knapp mehr als fünf Mal retweetet und zwölf Mal mit einem Herzchen versehen („geliked“). Die Hälfte der untersuchten Postings erhielt keine Antwort, im Schnitt waren es 2,2 Antworten („replys“) pro Tweet.

Und wie sieht es mit der Qualität der Antworten aus? Nennenswerte Diskussionen lösten LTO-Tweets über die Sabotage der russischen Öl-Pipeline Nord Stream aus, über das ungarische Gerichtsverfahren gegen die non-binäre Aktivist:in Maja T. oder ein Beitrag zur Mediendebatte über Inhaltemoderation und Algorithmenregulierung.

Dass solche Themen besonders viel Aufmerksamkeit auf X nach sich ziehen, ist so erwartbar wie viele der Antworten darunter: „Das sind Taschenspielertricks um unliebsame Meinungen kleinzumachen und das weiß auch der Autor der polarisieriende Ausagen mit Desinformationen vermengt“, polterte etwa ein gewisser Leo gegen Schleswig-Holsteins Ministerpräsidenten Daniel Günther (CDU) sowie den Autor des LTO-Artikels.

Schnittstellen-lose Stichprobe

Eine massenhafte Auswertung der jeweiligen X-Auftritte deutscher Medien ist nicht mehr ohne Weiteres möglich, seit Elon Musk die dazu notwendigen Schnittstellen hinter eine Bezahlschranke gepackt hat. Für unsere kleinere Untersuchung haben wir deshalb am 19. Januar 2026 jeden zweiten Tweet eines Mediums erfasst, bis insgesamt zehn erfasste Postings zusammengekommen waren. Diese zehn Tweets pro Medium haben wir hinsichtlich Views, Replys, Retweets und Likes ausgewertet. Außerdem haben wir uns angesehen, ob die Medien selbst in den Replys angegriffen werden und haben die Reaktionen auf die Tweets qualitativ bewertet.

Aufgrund des kleinen Ausschnitts können die erhobenen Daten nur als Stichprobe gelten, die aber deutliche Muster aufzeigt. Diese konnten wir auch bei Tweets außerhalb des Untersuchungszeitraums finden.

Grundsätzlich sind die Zahlen mit Skepsis zu betrachten, nicht nur wegen der kleinen Stichprobe. Manipulationsversuche sind seit Jahren nicht mehr aus dem Internet wegzudenken. Doch wozu noch vor nicht allzu langer Zeit umfangreiche Troll-Farmen notwendig waren, lassen sich Aufruf- und Engagement-Metriken in Zeiten von ChatGPT, Grok und anderen KI-Chatbots mit deutlich weniger Aufwand und raffinierter verfälschen.

Ganze Schwärme von KI-Bots, die etwa über Online-Dienste hinweg authentisches Handeln und konsistente Persönlichkeiten vortäuschen können, überfluten derzeit soziale Medien, warnten zuletzt mehrere Studien. Oft ist nur schwer erkennbar, ob hinter Postings echte Menschen oder Propagandabots stecken. „Die Verschmelzung von agentenbasierter KI und LLMs markiert eine neue Grenze im Informationskrieg“, führt eine der Studien aus.

Ähnliche Vorsicht ist auch bei der Anzeige der Views oder der Followerzahlen angebracht. Nicht einmal X dürfte einigermaßen verlässlich über verdächtige Aktivitäten auf dem eigenen Dienst Bescheid wissen, seit Musk die dafür zuständigen Teams dramatisch reduziert und zugleich die Moderationsregeln gelockert hat – wenn die Manipulationsversuche nicht gleich aus dem eigenen Haus kommen.

Konzentrierter brauner Sumpf

Das bei LTO beobachtete Phänomen lässt sich auch bei anderen noch auf X aktiven Medien feststellen. Kaum Reichweite, wenig Engagement von Nutzer:innen, und wenn es Antworten unter den Tweets gibt, enthalten diese nur selten erhellende Einsichten. Im Gegenteil: Oft genug besetzen reaktionäre Trolle den Platz, den es ohne die Tweets der Medien-Accounts so nicht gegeben hätte. Dabei kapern sie die Debatte und posten gerne auch themenfremde und beliebige Links zu rechtsradikalen Aufregerthemen. Außer einem braunen Sumpf bleibt oft nicht viel übrig unter den Tweets der Medien.

So folgen dem X-Account von Die Zeit derzeit rund 2,3 Millionen Accounts. Einzelne Postings wurden im Beobachtungszeitraum trotz dieser auf dem Papier großen Zahl durchschnittlich nur knapp 2.900 Mal angesehen, 2,1 Mal retweetet, 5,1 Mal geliked und 4,1 Mal beantwortet. Mehrere Tweets erhielten zum Zeitpunkt der Auswertung gar keine Reaktion, die meisten Antworten (17) liefen bei einem Tweet über ein internes Papier der Grünen zur EU-Außenpolitik auf. Ein gefundenes Fressen für selbsternannte „Parodieaccounts“, die die Schuld für jedwedes Problem bei den Grünen verorten.

Bemerkenswert ist, was passiert, wenn der Zeit-Account zuweilen gezielt ein bestimmtes Publikum anzusprechen scheint. Ein Tweet über die Fußballbundesliga erwähnt etwa den rechtsextremen AfD-Spitzenpolitiker Tino Chrupalla. Wie auch im Anreißer des Originalartikels steht dort, der AfD-Politiker habe „nicht viel verpasst“. Dafür gab es Kritik: „Warum wird dieser Faschist hier einfach so erwähnt?“, fragte immerhin ein:e Nutzer:in mit einer EU-Flagge im Profilbild. Wenig später wird der Account selbst als Faschist beschimpft.

In einem anderen Tweet schien die Zeit-Redaktion Gratis-Werbung für die österreichische FPÖ zu machen: Ein von der Rechtsaußen-Partei neu gestarteter Radiosender sei „sehr langweilig (…) und gerade deshalb interessant – besonders für deutsche Hörer“. Was auch immer die Motivation hinter diesen anbiedernden Anreißern war, der Erfolg hielt sich in Grenzen. Beide Tweets erhielten insgesamt nicht einmal zehn Antworten – zusammengerechnet. Als Reibebaum, der Engagement und Klicks lostritt, eignet sich diese Form der Ansprache offenbar nicht.

Gegengewicht oder Zielscheibe?

Auch Zeit Online begründet ihren Verbleib auf X damit, ein Korrektiv sein zu wollen. „Unser Ziel ist es, verlässliche Informationen und unabhängigen Journalismus möglichst vielen Menschen zugänglich zu machen“, teilt eine Verlagssprecherin mit. Die Zeit sei „ein Gegengewicht zur aggressiven, wenig produktiven Diskussionskultur und der Zunahme von Desinformation auf X, weshalb wir unseren Account mit 2,3 Millionen Followern zum jetzigen Zeitpunkt weiterhin betreiben. Neben X sind wir auf Plattformen wie Bluesky, Threads und WhatsApp aktiv und bauen diese Kanäle weiter aus“, heißt es aus dem Verlag.

Ein Stückchen erfolgreicher ist der X-Account des Spiegel. Im Untersuchungszeitraum abgesetzte Tweets huschten im Schnitt rund 4.200 Mal über die Bildschirme der Nutzer:innen. Unterm Strich erhielten sie je knapp elf Antworten, 3,6 Retweets und rund 9 Likes. Allerdings verzerrt ein Ausreißer das Bild: Ungewöhnlich viel Resonanz erhielt ein Retweet des @SPIEGEL_EIL-Accounts, der staatliche Förderung von Elektroautos zum Thema hatte. Zum Zeitpunkt der Erfassung konnte der Tweet über 12.000 Views verzeichnen, rund eine Woche später ist die Zahl auf 22.000 angestiegen. Rechnet man diesen Tweet heraus, sinkt die Anzahl der durchschnittlichen Views auf rund 3.000. Für ein angebliches Millionenpublikum – @derspiegel hat über 3 Millionen Follower, @SPIEGEL_EIL über 1,5 Millionen – ist das eine magere Ausbeute.

Ein Screenshot eines Twitter-Posts von Spiegel EIL über die Förderung von Elektroautos mit bis zu 6000 Euro, zusammen mit einem Foto einer Ladestation für Elektroautos und einem Kommentar von Miró, der kritisiert, dass Steuerzahler für die Kosten aufkommen.
Der rechte Influencer holt unter dem Spiegel-Tweet die Likes. - Screenshot / Twitter

Präsenz schafft Diskursräume für Rechtsradikale

Welche Diskursräume die Tweets erst schaffen, zeigt erneut ein Blick in die Antworten unter diesen. Bei besagtem E-Auto-Tweet spülte das Empfehlungssystem von X den rechten Influencer Miró Wolsfeld ganz nach oben. „Steuerzahler zahlen den Müll, nicht der Bund“, wetterte der auch als Unblogd bekannte Aktivist. Während der Tweet des Spiegels gerade mal 8 Retweets und 31 Likes bekommt, holt sich Wolsfeld 51 Retweets und 1.654 Likes mit seinem Kommentar ab. Auch solche Phänomene sind ein klares Zeichen, wer das Sagen auf der Plattform hat.

Ein solches Auftreten lässt sich auf X inzwischen monetarisieren. Dem Account kann man freiwillig für 3,33 Euro im Monat folgen, den zahlenden Followern verspricht Wolsfeld als Bonus „Demnächst Podcasts vorab“. Gekoppelt an Empfehlungsalgorithmen, die umstrittene Inhalte bevorzugen, um damit Nutzer:innen länger auf dem Dienst zu halten, entsteht ein perverses Anreizsystem: Es belohnt diejenigen, die mit reißerischen Inhalten möglichst viel Aufmerksamkeit erregen.

Mit Spott und Hohn wird dabei oft nicht gespart. „SPIEGEL, STERN, SZ, usw. haben auf X einfach so gut wie nichts mehr zu melden“, tönte der rechte Influencer vor wenigen Tagen. „Bei der üblich hohlen Propaganda gibt es so gut wie keine Likes auf deren Posts, dafür aber etliche Kommentare, die den Nonsens zerlegen. Der Wind hat sich hier definitiv gedreht.“

„Wichtige Kontaktpunkte“ zu wem?

Für seriöse Medien, die weiterhin auf X bleiben und der Plattform Inhalte zuliefern, steigt tatsächlich der Druck. „Wenn wir mit den redaktionellen Inhalten unserer Medienmarken neue Nutzerinnen und Nutzer erreichen wollen, müssen wir dorthin gehen, wo sie sich informieren, und das sind eben oft Plattformen, die weniger offen und verantwortungsvoll sind, als wir uns das wünschen“, teilt eine Spiegel-Sprecherin mit.

„Wenn sich unabhängige Medien von diesen Plattformen selbst ausschließen, verlieren wir wichtige Kontaktpunkte zu unseren Zielgruppen. Und an der Nutzung der Plattformen würde sich durch den Rückzug der Qualitätsmedien nichts ändern“, sagt die Sprecherin.

Doch dass sich der Wind gedreht hat, ist auf X kaum von der Hand zu weisen. Die Plattform ist unter den Tweets der Accounts großer deutscher Medien fest in der Hand von Rechtsextremen, Zynikern, Rassisten und Menschen, die einfach nur ihrem Hass auf klassische Medien und die Welt freien Lauf lassen.

Hohes Vertrauen in öffentlich-rechtliche Medien

Diese Wut trifft insbesondere öffentlich-rechtliche Medien. Im öffentlichen Auftrag sollen sie dazu beitragen, die Menschen in Deutschland umfassend und ausgewogen zu informieren. Deshalb landen sie immer wieder im Visier von Rechtsextremen wie dem AfD-Politiker Björn Höcke, der etwa die Medien-Staatsverträge aufkündigen will. Von ganz rechts bis in die Bundesregierung hinein wird am öffentlich-rechtlichen Rundfunk gesägt.

Trotz aller Versuche, die Glaubwürdigkeit öffentlich-rechtlicher Medien zu untergraben, genießen die Sender bis heute verhältnismäßig viel Vertrauen in der Bevölkerung, mehr als private Tageszeitungen oder Sender. Zwei Drittel der Befragten hielten den öffentlich-rechtlichen Rundfunk (ÖRR) für „unverzichtbar“, wie eine repräsentative Studie im Vorjahr ergab. Den parteiübergreifenden Konsens durchbrechen lediglich Anhänger:innen der Kleinpartei BSW sowie der AfD, die den sogenannten Systemmedien überwiegend nicht vertrauen.

Viele Follower, wenige Ansichten

Unsere Auswertung zeigt, dass sich die Bedeutung der Öffentlich-Rechtlichen auch im Internet abbildet. So wurden die Tweets der großen Kanäle @tagesschau (5,1 Millionen Follower) und @ZDFheute (1,3 Millionen Follower) deutlich mehr Menschen in der App und auf der Seite von X angezeigt als die Postings privater Medien. Im Beobachtungszeitraum sahen im Schnitt rund 24.000 Nutzer:innen Tweets der Tagesschau, bei ZDFheute waren es rund 23.000. Angesichts der hohen Followerzahlen der Kanäle sind diese Zahlen jedoch mehr als ernüchternd.

Wie viele der Nutzer:innen tatsächlich auf einen Link in einem Tweet klickten, verrät X nicht. Und auch die sogenannten Referrer-Zahlen von tagesschau.de und ZDFheute, die mehr über die Herkunft der Besucher:innen verraten, liegen uns nicht vor. Schätzungen von Marketing-Firmen gehen bei X von einer Klickrate von etwa einem Prozent auf externe Links aus.

Warum die beiden Kanäle der Öffentlich-Rechtlichen laut der nicht notwendigerweise zuverlässigen Views-Anzeige von X derart besser abschneiden als Spiegel oder Die Zeit, geht aus den Daten nicht hervor. Klar ist aber, dass X seit der Übernahme von Musk Tweets mit Links benachteiligt werden, dafür sprechen unterschiedliche Untersuchungen und Berichte.

Zudem hat X schon im Jahr 2023 durch das Design der Tweets Links in die Außenwelt unattraktiver gestaltet, indem nicht mehr die Vorschau eines Artikels eingebettet wird. Hintergrund ist, dass X wie auch andere Big-Tech-Plattformen versucht, die Nutzer:innen auf der Plattform zu halten und dort „Engagement“ und damit Werbeabspielungen zu erreichen. Nutzer:innen über einen Klick auf andere Seiten im Netz zu schicken, widerspricht diesem Ziel.

Tagesschau und ZDFheute sehen sich als Gegenpol

Laut einem Sprecher der ARD geht es der Tagesschau darum, „seriöse und verifizierte Nachrichteninhalte Nutzenden auf Social-Media-Plattformen zur Verfügung zu stellen und damit einen Gegenpol zu Desinformationen und Verschwörungsmythen zu setzen.“ Dies gelinge mit Blick auf die Zugriffszahlen, die die Artikellinks der Tagesschau auf X erzielten, „weiterhin in relevanter Größenordnung“.

Angesichts der relativ zur hohen Followeranzahl wenigen Views und der geschätzten Klickrate von einem Prozent dürfte sich der Anteil von X bei den 50 bis 80 Millionen monatlichen Seitenbesuchen auf tagesschau.de in Grenzen halten. Zur Einordnung: Auch vor Elon Musks Übernahme erreichte beispielsweise netzpolitik.org mit seiner damals Twitter-affinen Leser:innenschaft nie mehr als ein bis zwei Prozent aller Seitenabrufe über die Plattform. Diese Zahlen umfassen sowohl Klicks auf Links in Tweets des eigenen Accounts als auch in Tweets anderer.

ZDF schreibt gegenüber netzpolitik.org, dass alle Social-Media-Aktivitäten einem „kontinuierlichen Controlling mit Blick beispielsweise auf Zielgruppe, Performance und Entwicklung der jeweiligen Plattform“ unterliegen würden. „Sollten Accounts entsprechende Ziele nicht erreichen bzw. genannte Kriterien nicht erfüllen, werden diese eingestellt.“

Was für Ziele das sind, gibt das ZDF nicht preis, führt jedoch aus, warum man weiter auf der Plattform poste: „Das Nachrichtenangebot ZDFheute veröffentlicht aktuelle Informationen weiterhin auf X, um Qualitätsjournalismus auch dort möglichst vielen Menschen einfach zugänglich zu machen.“

Doch die Versuche der Tagesschau und von ZDFheute werden von den Nutzenden auf der Plattform X wenig honoriert. Das Gegenteil ist der Fall. Dementsprechend heiß geht es in den Kommentaren unter den Tweets zu: Durchschnittlich liefen bei der Tagesschau 77 Kommentare auf, bei ZDF Heute sogar 100.

Dort findet eine Schlacht um die Deutungshoheit statt. Mit 173 Kommentaren besonders umkämpft war ein Tweet zu einer Eilmeldung, dass der Begriff „Sondervermögen“ zum Unwort des Jahres 2025 gewählt wurde. Die Debatte lenkten dem rechten Milieu zuordnenbare Accounts, etwa der des rechten Magazins Krautzone. Eine der Top-Antworten wollte etwas ganz anderes diskutieren: „Für mich ist ‚ÖRR‘ das Unwort des Jahrhunderts.“

Öffentlich-rechtliche Medien im Dauer-Shitstorm

Die grundsätzliche Feindseligkeit der Rezipient:innen auf X ist bei den untersuchten Medien am Verhältnis von Antworten zu Retweets erkennbar, der „Reply Retweet Ratio“. Tweets mit vielen Replys und wenigen Retweets zeigen in der Regel eine Kontroverse oder eine Ablehnung der Nutzer:innen an. Diese kann sich auf den Inhalt des Tweets oder auf den Postenden selbst beziehen.

Es ist ganz normal, dass einzelne Tweets bisweilen mehr Replys erhalten als Retweets. Ungewöhnlich ist aber, dass bei den öffentlich-rechtlichen Nachrichten-Accounts von Tagesschau und ZDFheute mehr Replys als Retweets der Regelfall sind. Die Tagesschau erhielt im Untersuchungzeitraum drei Mal so viele Replys wie Retweets, ZDF gar fast vier Mal soviele. Auch der Spiegel erhielt drei mal so viele Replys wie Retweets, bei der Zeit waren es immer noch doppelt so viele. Einzig LTO war als Medium nicht so negativ im Fokus – es erreichte mehr Retweets als Replys.

Bei ZDFheute und Tagesschau gab es in den untersuchten Tweets bis auf eine Ausnahme unter jedem Tweet direkte Angriffe auf die Sendungen oder die Sender selbst, oft auch mehrfach. Dabei ging es in den Kommentaren nicht um sachliche oder inhaltliche Kritik an Nachrichteninhalt oder dessen Aufbereitung.

So findet man unter Tweets regelmäßig die Forderung, die Pflicht zum Rundfunkbeitrag abzuschaffen. Die Tagesschau wird unter anderem als „Terrorpropaganda“, „Propagandascheisse“ oder „Schundfunk“ diffamiert, das ZDF als „Schrottsender“ und die ZDFheute-Redaktion sieht ein User als heroinabhängig. Das ist nur ein kleiner Ausschnitt dutzender Beschimpfungen, die wir als Reaktion auf das kleine Set an untersuchten Tweets identifizieren konnten.

netzpolitik.org holt auf Bluesky mehr Retweets als Tagesschau, heute, Spiegel und Zeit zusammen

Wir haben uns zum Vergleich angesehen, wie die Interaktion beim Account von netzpolitik.org auf Bluesky aussieht. Im gleichen Untersuchungszeitraum erhielt netzpolitik.org auf Bluesky eine deutlich umgekehrte Reply-Repost-Ratio: Fast neun Mal mehr Accounts klickten auf den Repost-Button als auf Reply. Mehr Reposts als Replys sind der eigentliche Normalzustand bei Diensten wie X, Bluesky oder Mastodon.

Spannend war auch die Anzahl der Reposts insgesamt beim Account unserer Redaktion auf Bluesky. Der Account von netzpolitik.org mit seinen etwa 35.000 Followern erreichte im Untersuchungszeitraum am 19. Januar mit 755 Reposts mehr Verstärkung als Tagesschau, Heute, Spiegel, Zeit und LTO auf X mit ihren fast 12 Millionen Followern. Insgesamt kamen diese Accounts auf 615 Reposts. Und das, obwohl den untersuchten Medien auf X mehr als 300 Mal mehr Accounts folgen.

Weder Tagesschau noch ZDFheute betreiben einen offiziellen Kanal auf Bluesky. Die Sender ARD und ZDF sind jedoch auf Mastodon vertreten und betreiben dort jeweils eigene Server.

Überprüfen, bis das Fass überläuft

Ein Abschied von X fällt offenkundig nicht leicht. Das Bleiben aber auch nicht. „Die Entwicklung und die gesellschaftlichen Auswirkungen von X beobachten wir kritisch und diskutieren regelmäßig, ob und wie wir dort weiterhin präsent sein sollten“, heißt es von Die Zeit. „Fehlentwicklungen auf Plattformen nehmen wir ernst, selbstverständlich behalten wir die Entwicklungen gerade bei X kritisch im Blick“, beteuert LTO. Auch der Spiegel befasse sich im Lichte der neuen Erkenntnisse „erneut mit unserer Präsenz auf der Plattform“, sagt eine Sprecherin. Die Antworten ähneln denen der EU-Kommission, der Bundesregierung, Parteien im Bundestag und Ministerien, die weiterhin der Plattform treu sind und immer schwerer Argumente dafür finden.

Es bleibt also spannend, wann der Punkt erreicht ist, an dem es auch für die letzten Verbliebenen nicht mehr weiter geht. Die Erfahrungen der letzten Jahre zeigen: Der Skandal mit sexualisierten Deepfakes realer Personen rund um den X-Chatbot Grok wird nicht der letzte bleiben.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

❌