🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Ältere BeiträgeHaupt-Feeds

Kinderähnliche Sexpuppen und süchtig machendes Design: EU eröffnet Verfahren gegen Shein

17. Februar 2026 um 18:32

Nach Temu ermittelt die EU-Kommission nun auch gegen einen zweiten Online-Händler aus China. Die Fast-Fashion-Plattform Shein unternimmt vermutlich zu wenig gegen die Risiken, denen sie ihre Nutzer*innen aussetzt. Zur Debatte stehen gleich mehrere Verstöße gegen den Digital Services Act.

Die App Shein wird im App Store angezeigt.
Der Online-Händler Shein hat nicht nur Kleidung, sondern auch illegale Waren verkauft. – Alle Rechte vorbehalten IMAGO / imagebroker

Mit dem Digital Services Act (DSA) verpflichtet die EU sehr große Online-Plattformen, Risiken ihrer Angebote zu identifizieren und zu beheben. Weil der chinesische Fast-Fashion-Händler Shein diesen Vorgaben möglicherweise nicht ausreichend nachgekommen ist, hat die EU-Kommission nun ein Verfahren gegen das Unternehmen eröffnet. Das teilte sie am heutigen zweijährigen Geburtstag der EU-Verordnung über digitale Dienste mit.

Die Shopping-Plattform soll monatlich etwa 126 Millionen aktive Nutzer*innen in der EU haben. Seit Juni 2024 hatte die Kommission mehrfach Informationen von Shein angefragt. Die Entscheidung, eine Untersuchung einzuleiten, basiert auf diesen Auskunftsersuchen, auf einer vorläufigen Analyse der von Shein vorgelegten Risikobewertungsberichte und auf Einschätzungen dritter Parteien.

In Frankreich hatte sich im letzten Jahr bereits Widerstand gegen den Online-Händler geregt, jedoch war die französische Regierung mit dem Versuch gescheitert, die Plattform für drei Monate zu sperren.

„Illegale Produkte sind verboten“

Die Kommission attestiert dem Konzern Handlungsbedarf in drei Bereichen. An erster Stelle steht der Verkauf illegaler Waren, wegen dem der Fast-Fashion-Händler in der Vergangenheit bereits in Kritik stand. Zum Beispiel konnten genehmigungspflichtigen Waffen oder kinderähnliche Sexpuppen auf dem Marktplatz erworben werden.

Bei der Untersuchung geht es jedoch nicht darum, dass die EU gezielt den Verkauf einzelner Produktgruppen kontrollieren will. Vielmehr will sie dafür sorgen, dass die Plattform selbst ihre Systeme so gestaltet, dass Risiken minimiert werden. Konkret muss Shein also dafür sorgen, dass auf dem Marktplatz keine illegalen Waren gehandelt werden können.

„In der EU sind illegale Produkte verboten – egal, ob sie im Ladenregal oder auf einem Online-Marktplatz angeboten werden“, so EU-Kommissionsvizepräsidentin Henna Virkkunen zu dem Verfahren. „Der Digital Services Act schützt die Sicherheit und das Wohlergehen von Käufern und versorgt sie mit Informationen über die Algorithmen, mit denen sie interagieren.“

Ein zweiter Kritikpunkt betrifft mutmaßlich süchtig machendes Design des Online-Händlers. Er vergibt unter anderem Verbraucherpunkte oder Belohnungen für Engagement auf der Plattform. Das könne Suchtpotenzial entwickeln, welches sich negativ auf das Wohlbefinden der Nutzer*innen und den Verbraucherschutz im Internet auswirkt.

Außerdem kritisiert die Kommission mangelnde Transparenz des algorithmischen Empfehlungssystems von Shein. Dieses muss nach dem DSA zudem so gestaltet sein, dass sich Nutzer*innen optional für ein nicht-personalisiertes Empfehlungssystem entscheiden können.

EU ermittelt auch gegen Temu

Shein ist die zweite sehr große Plattform im Bereich Online-Handel, gegen die eine Untersuchung wegen süchtig machender Designpraktiken besteht. Bereits im Jahr 2024 hatte die EU-Kommission aus den gleichen Gründen ein Verfahren gegen Temu eröffnet.

Sollte die Kommission im Zuge der formalen Untersuchung zu einer Nichteinhaltungsentscheidung kommen, also einen tatsächlichen Verstoß gegen den DSA feststellen, kann sie zum Beispiel Bußgelder gegen das Unternehmen verhängen. Bis dahin ist es der Online-Plattform aber möglich, auf Forderungen zu reagieren und Anpassungen vorzunehmen. Wann es zu einer Entscheidung in dem Verfahren kommt, bleibt jedoch offen, denn der DSA schreibt hierfür keine Frist vor.

Der Online-Händler zeigt sich nach Angaben von Zeit.de bisher kooperationswillig: „Wir teilen das Ziel der Kommission, eine sichere und vertrauenswürdige Online-Umgebung zu gewährleisten, und werden uns weiterhin konstruktiv an diesem Verfahren beteiligen.“ Bei altersbeschränkten Produkten habe man bereits weitere Sicherheitsvorkehrungen ergriffen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Social-Media-Debatte: Ursachenbekämpfung statt Verbote

14. Februar 2026 um 09:00

In Los Angeles stehen Meta und Google vor Gericht, in der EU muss TikTok nachschärfen. In beiden Fällen geht es um ihr süchtig machendes Design. Das verweist auf einen besseren Weg im Kinder- und Jugendschutz: Ursachenbekämpfung statt Verbote. Ein Kommentar.

Auf einer Wand sind Like-Symbole, ein Herz und ein Smiley, wie sie bei Social Media aussehen, gesprüht.
Es braucht etwas anderes, um Kinder zu schützen. Und Erwachsene auch. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Foto von George Pagan III auf Unsplash

„Ich male mir die Welt, so wie sie mir gefällt.“ – Das gelingt den Plattformbetreibern hinter Instagram, Youtube, Snapchat oder TikTok bisher ganz gut. Das in Los Angeles eröffnete Verfahren könnte an diesem Prinzip jedoch rütteln und zeigen, dass es etwas anderes als ein Verbot für Jugendliche braucht, um die negativen Effekte sozialer Medien zu reduzieren.

Die 20-jährige Hauptklägerin will Meta und Google für ihr süchtig machendes Design zur Verantwortung ziehen. Vor Gericht gibt sie an, seit über zehn Jahren von sozialen Medien abhängig zu sein – einem Effekt, dem sich die Unternehmen laut interner Dokumente bewusst waren. Und wenn man ehrlich ist: Es ist ein Effekt, den die kommerziellen Plattformen wollen, damit sich die Aufenthaltszeit auf Plattformen verlängert, sie mehr Werbung an die Nutzer*innen abspielen und so mehr Gewinne einfahren können.

Wenn in den USA eine Person vor Gericht geht, deren Generation bisher am frühesten in der digitalen Welt aufgewachsen ist, führt das unweigerlich zu der Frage, wie für diese und nachfolgende Generationen eine bessere und andere Version von sozialen Medien aussehen könnte. Denn ob mit dem Verfahren letztlich ein Präzedenzfall geschaffen werden kann oder nicht – der Prozess stärkt eine andere Stoßrichtung als das derzeit heiß diskutierte Social-Media-Verbot.

Ein Verbot ist die falsche Antwort

Von einem Verbot sozialer Medien für junge Menschen werden viele negative Effekte erwartet: Für Minderheiten oder vulnerable Gruppen fällt ein Kanal zur Vernetzung und Gemeinschaftsbildung weg, ebenso ein Kanal zur Information, Menschen ohne Papiere könnten ganz ausgeschlossen sein und auf Kinder und Jugendliche entfallen die Folgen je nach Familiensituation und Wohnort ungleich.

Diese Nebeneffekte müssten weniger ins Gewicht fallen, wenn unterm Strich auf den Plattformen und ohne Verbot das ursprüngliche Ziel erreicht werden würde: Schutz von Kindern und Jugendlichen vor digitalem Missbrauch, vor Mobbing sowie übermäßigem Konsum und Sucht.

Ein Blick nach Australien zeigt, dass Verbote einerseits löchrig bleiben und andererseits große Risiken für Privatsphäre und Datenschutz bergen. Wie die australische Regierung erwartet hatte, finden Jugendliche einfach Schlupflöcher, das Verbot zu umgehen. Sie ändern ihren Standort über VPN-Verbindungen, legen sich neue Accounts an, wechseln auf nicht betroffene Apps oder nutzen Accounts von älteren Personen. Mit KI-generierten Bildern, Ausweisen von Älteren oder durch einfaches Stirnrunzeln bestehen sie Altersabfragen, die jetzt zur Architektur von Plattformen dazugehören.

Sollte die australische Regierung an diesen Stellen nachschärfen, bleiben Alterskontrollen aus datenschutzrechtlicher Perspektive trotzdem bedenklich. Ein vorab durchgeführtes Gutachten verzeichnet massive Bedenken, wie erhobene Daten gesammelt und an Behörden weitergegeben werden könnten. Das ist der eine Fall. Der andere Fall ist auch datenschutzrechtlich problematisch, wenn personenbezogene Daten aus Alterskontrollen an Drittanbieter weitergegeben werden, wie der Fall von Discord deutlicht.

Plattformen in die Pflicht nehmen statt Probleme in die Zukunft verlagern

Der Medienrechtler Stephan Dreyer erwartet, dass ein EU-Verbot den Jugendschutz auf sozialen Plattformen verschlechtern würde, wie er gegenüber netzpolitik.org darlegte.

Dazu kommt: Soziale Medien sind allgegenwärtiger Teil des Lebens auf der ganzen Welt. Haben Jugendliche die magische Grenze von 16 Jahren überschritten, sind sie zusammen mit den Älteren weiterhin endlosen Feeds, manipulativem Design, personalisierten Empfehlungssystemen und Dopamin-Kicks ausgesetzt. Statt „Cybergrooming“ heißt die Gefahr dann „digitale Gewalt“, wie der Grok-Skandal gerade deutlich vor Augen geführt hat.

Und warum eigentlich nur Jugendliche? Sind nicht auch gestandene Mittvierziger dem suchtmachenden Design der Plattformen verfallen und geraten nicht auch Boomerinnen in den Strudel, der sie in den verschwörungsideologischen Kaninchenbau zieht? Werden nicht uns allen polarisierende Inhalte von intransparenten Algorithmen gezeigt, damit wir möglichst lange mit den Plattformen interagieren und sie uns mit personalisierter Werbung zuballern können.

Bessere Plattformen für alle

Ein Verbot für Jugendliche macht die Plattformen nicht besser. Anstatt Plattformen zur Umsetzung von Alterskontrollen zu zwingen und junge Menschen auszuschließen, müssen die Plattformen zu einer anderen Architektur verpflichtet werden. Fairness by Design und by Default nennt sich der Ansatz, der digitale Plattformen dazu verpflichtet, ihre Webseiten und Apps nutzerfreundlich und manipulationsfrei zu gestalten. Die EU ist gegenüber TikTok einen Schritt gegangen, aber die Liste an manipulativen Techniken ist lang.

Ein Verbot ist letztlich eine platte und hilflose Maßnahme. Es erinnert an überforderte Eltern, die den Kindern das Handy wegnehmen, weil sie nicht weiterwissen. Dabei könnten auch die Verbotsbefürworter*innen beim Ansatz Fairness by Design auf ihre Kosten kommen. Er wäre einer von mehreren Ansätzen, die Plattformen nachhaltig zu verändern. Und es gibt Gesetzgebungen wie das Digitale-Dienste-Gesetz oder wie das geplante Gesetz für digitale Fairness, mit denen man Plattformen verändern kann.

Die Politik muss sich nur trauen – und nicht weiter vor der Lobby der Tech-Riesen einknicken.

 


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Migrationskontrolle: Ein KI-Chatbot von Frontex soll zu Selbst-Abschiebung beraten

13. Februar 2026 um 14:56

Die europäische Grenzschutzagentur Frontex entwickelt derzeit eine App mit integriertem Chatbot. Der soll Geflüchtete dabei beraten, wie sie „freiwillig“ in ihr Herkunftsland zurückkehren können. Der Einsatz stelle nach dem AI Act kein hohes Risiko dar, findet die Behörde.

Auf einer Weste ist das Logo von Frontex zu sehen.
Frontex arbeitet an einer neuen künstlichen Intelligenz, die zu Abschiebungen beraten soll. – Alle Rechte vorbehalten IMAGO / ANP

Wenn Geflüchtete „freiwillig“ oder unfreiwillig Europa verlassen, soll sie künftig ein KI-basierter Chatbot dabei beraten. Die Grenzschutzagentur Frontex entwickelt eine App, in der Menschen mehr über finanzielle Anreize einer sogenannten freiwilligen Ausreise erfahren oder wohin sie sich für weitere Beratung wenden können.

Die Anwendung ist Teil des europäischen Reintegration Programme von Frontex, das unter anderem Ausreisen finanziert. Reisen Geflüchtete nicht freiwillig aus, begleitet Frontex etwa auch Abschiebeflüge. Seit einigen Jahren setzt die Behörde verstärkt darauf, Menschen zur „freiwilligen“ Rückkehr zu bewegen. Laut einer Präsentation von Frontex aus dem Januar 2026 habe die Unterstützung von „Rückkehr-Spezialisten“ in 42 Prozent der Fälle, bei denen sie eingesetzt wurden, in einer Entscheidung zur freiwilligen Rückkehr geendet.

Da eine solche freiwillige Rückkehr, wie die EU diese Prozesse nennt, für Menschen mit fehlenden Alternativen nicht freiwillig sein kann, nutzen manche stattdessen Begriffe wie Selbst-Abschiebung.

Abschiebungen im Gewand automatisierter Beratungen

Der KI-Chatbot soll nun ähnliches bewirken. Das Ziel sei, dass sich mehr Menschen für eine Rückkehr in ihr Heimatland entscheiden, so der stellvertretende Exekutivdirektor Lars Gerdes laut AlgorithmWatch.

Wenn Frontex jedoch eine KI-basierte Technologie einsetzen will, ist relevant, ob sie nach dem AI Act als Hochrisiko-Anwendung gilt. Die Verordnung sieht vor, dass viele KI-Systeme im Bereich Migration als Hochrisiko-Systeme einzustufen sind, etwa wenn sie bei der Prüfung von Asyleinträgen genutzt werden. Für Frontex hat das zur Behörde gehörende Fundamental Rights Office (FRO) eine entsprechende Einstufung geprüft.

Die unzureichenden Stellen der KI-Verordnung

Obwohl der Chatbot zur Rechtsberatung eingesetzt werden könnte, kam die Behörde zu dem Schluss, dass kein hohes Risiko bestehe. Somit ergebe sich kein weiterer Bedarf, mögliche Auswirkungen auf Grundrechte zu überprüfen. In einer späteren Einschätzung empfahl FRO allerdings als erste von 27 weiteren Empfehlungen, die These theoretisch zu untermauern, dass mehr Informationen die Quote freiwilliger Rückkehrer*innen erhöhen würden. Im Zuge des 2024 verabschiedeten AI Acts hatten sowohl AlgorithmWatch als auch netzpolitik.org auf Leerstellen verwiesen, die der AI Act bei der Regulierung von eingesetzten Technologien im Bereich Migration hat.

Informationen über die App erhielt die Nichtregierungsorganisation AlgorithmWatch aus internen Dokumenten, die sie mit Informationsfreiheitsanfragen erhielt. Auf welche Daten der Chatbot zugreifen können soll, ist laut AlgorithmWatch noch unklar. Ebenfalls unklar bleibt, ob er wie geplant in Sprachen wie Arabisch, Urdu oder Paschtu genutzt werden könne. Bisher hatte Frontex nur Material in englischer Sprache zum Training verwendet, das Material dafür hat Frontex‘ Return Knowledge Office Daten zum Training zusammengestellt.

Die neue App gilt bei Frontex als „schnell umsetzbares, kostengünstiges Projekt mit nur geringem Ressourcenaufwand“, wie aus internen E-Mails laut AlgorithmWatch hervorgeht. Und Frontex hofft offenbar darauf, weitere, „leistungsfähigere und integrierte IT-Systeme“ entwickeln zu können, sobald gesetzliche Hürden dazu gefallen sind.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Fachleute fordern: Das fehlt beim Schutz vor digitaler Gewalt

06. Februar 2026 um 07:00

Stalking, Doxing, geleakte Nacktfotos – digitale Gewalt kann Menschen das Leben zur Hölle machen. Während das Justizministerium ein Gesetz entwirft, haben wir zivilgesellschaftliche Organisationen gefragt, was am meisten helfen würde.

Eine Sportlerin rastet in der Sonne mit einem Smartphone in der Hand.
Wie lassen sich Betroffene digitaler Gewalt stärken? (Symbolbild) – Alle Rechte vorbehalten IMAGO / Addictive Stock; Bearbeitung: netzpolitik.org

Fremde, die Frauen heimlich in der Sauna filmen und die Videos ins Netz stellen. Männer, die das Handy ihrer Freundin verwanzen, um sie jederzeit orten zu können. Organisierte Gruppen, die auf sozialen Medien unliebsame Personen mit Hassnachrichten überziehen. Digitale Gewalt hat viele Facetten. Auf besondere Weise trifft sie Frauen und andere marginalisierte Gruppen.

Das Bundesjustizministerium entwirft derzeit ein „digitales Gewaltschutzgesetz“, wie Ministerin Stefanie Hubig (SPD) in mehreren Interviews angekündigt hat. Erste bekannte Bestandteile des Gesetzes sind demnach „angemessene Strafen für Deepfakes“ sowie zeitweise Sperren für Accounts, „über die immer wieder schwere Rechtsverletzungen begangen werden“.

Bereits die vorige Regierung hatte sich an einem Gesetz zu dem Thema versucht. Für dessen Eckpunkte gab es breite Kritik. Nachdem die Ampel-Regierung zerbrochen war, kam nicht mehr heraus als ein unfertiger Entwurf.

In Deutschland befassen sich mehrere zivilgesellschaftliche Akteur*innen mit digitaler Gewalt. Ihre Perspektive basiert teils auf direkter Erfahrung mit Betroffenen. Zuletzt hatten wir vor knapp drei Jahren aufgeschrieben, welche klaffenden Lücken es bei digitaler Gewalt gibt.

Die aktuellen Pläne der Regierung für einen weiteren Anlauf haben wir zum Anlass genommen, die Frage zu erneuern: Was brauchen Betroffene digitaler Gewalt am dringendsten? Hier fassen wir die Perspektiven von insgesamt acht Organisationen zusammen.

  1. Anlaufstellen stärken
  2. Polizei und Justiz sensibilisieren
  3. Vorschriften für Plattformen durchsetzen
  4. Strafrecht erweitern
  5. Rechtsdurchsetzung für Betroffene erleichtern
  6. Verdächtige einfacher ins Visier nehmen
  7. Adressen von Betroffenen besser schützen
  8. Aufklärung und Medienkompetenz ausbauen
  9. Frauen nicht isoliert betrachten
  10. Internationale Regeln gut umsetzen

1. Anlaufstellen stärken

Bevor Polizei oder Justiz überhaupt relevant werden, können Betroffene zunächst bei Beratungsstellen Unterstützung finden. Davon gibt es nicht genug, wie Berater*innen regelmäßig beklagen. „Die Finanzierung für Beratungsstellen von Betroffenen muss langfristig und nachhaltig gewährleistet sein. Die Beratungsstellen brauchen qualifiziertes, gut geschultes Personal“, fasst es die Organisation das Nettz auf Anfrage von netzpolitik.org zusammen. Auch der Bundesverband der Frauenberatungsstellen und Frauennotrufe fordert „ausreichend finanzierte Unterstützungsstrukturen“.

Der Verein Frauenhauskoordinierung schlüsselt das näher auf: Einerseits brauche es mehr Personal, „weil digitale Gewalt neue Herausforderungen mit sich bringt: Es wird mehr Zeit benötigt, um zu den digitalen Dimensionen von Gewalt zu beraten, aber auch mehr Zeit, um sich das nötige Wissen anzueignen“. Weiter brauche es „Expert*innen zum Thema digitale Gewalt in jedem Frauenhaus“ und „regelmäßige Fortbildungen, damit Kenntnisse zu digitaler Gewalt im Beratungsteam aktuell sind“. Dafür brauche es trotz kommender Finanzierung durch den Bund weiter Geld von Ländern und Kommunen.

Fälle von etwa digitalem Stalking und heimlicher technischer Überwachung können viel IT-Expertise benötigen. Hierfür fordert die Initiative Ein Team gegen digitale Gewalt, Fachberatung in Einrichtungen zu verankern. „Die IT-Fachberatung könnte von einer fachkompetenten zivilgesellschaftlichen Organisation aufgebaut, vom Bundesamt für Sicherheit in der Informationstechnik unterstützt und vom Bundesministerium des Innern gefördert werden“, heißt es in einem Forderungspapier von Ende 2024, das „ein Team“ und mehr als 60 weitere Organisationen und Projekte erarbeitet haben. Das Papier „ist nicht weniger aktuell als damals“, schreibt die Initiative heute.

2. Polizei und Justiz sensibilisieren

Wollen sich Betroffene digitaler Gewalt juristisch wehren, können sie sich nicht immer darauf verlassen, dass Polizei oder Staatsanwaltschaft sie professionell behandeln. Es brauche „Schulungen für Polizei und Justiz, damit Betroffene ernst genommen werden und schnell Hilfe erhalten“, hält „Ein Team“ fest. Häufig könnten „Polizei und Gerichte mit entsprechenden Beweisen noch nicht umgehen oder erkennen sie nicht an“.

Das Nettz bekräftigt: „Justiz und Polizei brauchen spezialisiertes Personal und verpflichtende themenspezifische Fortbildung für ihre Mitarbeitenden.“ Der Verein Frauenhauskoordinierung fordert „Grundlagenwissen bei Polizei und Justiz zu digitaler (Ex-)Partnerschaftsgewalt“.

Ein konkreter Ansatz aus dem Forderungspapier von „Ein Team“ und weiteren Organisationen sind Schwerpunktstaatsanwaltschaften für digitale Gewalt. So nennt man Justizbehörden, die auf bestimmte Themen spezialisiert sind. Einrichten müssten sie die Länder. Bisher gibt es das zum Beispiel für Geldwäsche oder Bekämpfung sogenannter Kinderpornografie.

3. Vorschriften für Plattformen durchsetzen

Die Regulierung von Plattformen wie TikTok, Instagram oder X sprechen gleich mehrere Organisationen an. Der Bundesverband der Frauenberatungsstellen und Frauennotrufe kritisiert: „Digitale geschlechtsspezifische Gewalt wird durch die Marktmacht großer Techkonzerne begünstigt, weil Profit und Reichweite über Schutz gestellt werden.“ Das Nettz fordert: „Plattformen müssen mehr Verantwortung übernehmen und die existierende Regulierung konsequent umsetzen.“

In der EU gibt es das Gesetz über digitale Dienste. Sehr große Plattformen müssen demnach systemische Risiken für ihre Nutzer*innen erkennen und mindern – etwa durch Inhaltsmoderation, Meldewege oder Sicherheitsfunktionen. Sonst drohen Sanktionen. Werkzeuge zur Durchsetzung des Schutzes Betroffener digitaler Gewalt wären also vorhanden.

Allerdings gibt es Widerstand: Plattformen setzen gerade kostspielige Maßnahmen oft nur zögerlich um; die Trump-Regierung deutet Regulierung aus der EU zunehmend als Angriff. Mit Blick darauf schreibt die gemeinnützig Organisation HateAid: „Wir wünschen uns ein klares Bekenntnis der Bundesregierung zur europäischen Plattformregulierung und den unbedingten Willen, diese auch gegen den politischen Druck aus den USA durchzusetzen“.

4. Strafrecht erweitern

Mehrere Formen digitaler Gewalt sind strafbar, Betroffene können sich also vor Gericht dagegen wehren. Gerade bei bildbasierter, sexualisierter Gewalt stehen sie aber oftmals vor einem Flickenteppich. Je nachdem, was sie erlebt haben, kann eine andere Regelung greifen. Bereits im Jahr 2023 kritisierte der Deutsche Juristinnenbund den rechtlichen Schutz als „lückenhaft“, das Strafrecht „vollkommen unsystematisch“.

HateAid richtet den Fokus auf eine bestimme Form bildbasierter Gewalt und fordert, dass schon die Erstellung sexualisierter, nicht-einvernehmlicher Deepfakes strafbar sein solle. Selbst wenn die Bilder „nur auf einer Festplatte oder Cloud gespeichert werden, sind sie nur einen falschen Knopfdruck, Hackingangriff oder ein Datenleck von der Verbreitung entfernt“. Die neue EU-Richtlinie zur Gewalt gegen Frauen adressiert zwar auch die Herstellung solcher Deepfakes, knüpft die Strafbarkeit jedoch an die Verbreitung. Bei der Ausgestaltung der Regeln warnen Kritiker*innen vor möglicher Überregulierung.

Das Projekt „Ein Team“ nimmt weitere Delikte in den Blick und warnt: „Viele Formen von technikgestützter Gewalt sind bisher nicht verboten. Dazu gehört zum Beispiel das heimliche Überwachen des Aufenthaltsorts mit Bluetooth-Trackern wie Apple AirTags“. Im Forderungspapier mit anderen Organisationen fordert „Ein Team“ ein Verbot von Stalkerware – also Spionage-Apps, mit denen Täter*innen das Smartphone ihrer (Ex-)Partner*innen heimlich verwanzen, um sie umfassend zu überwachen. Gegen solche Szenarien gibt es bereits verschiedene Normen, die jedoch Schlupflöcher lassen. Laut Koalitionsvertrag sollen Hersteller solcher Apps künftig verpflichtet werden, regelmäßig das Einverständnis der Gerätebesitzer*innen abzufragen.

Auf „identifizierte Lücken im Rechtssystem“ verweist auch der Verein Weisser Ring hin und fordert, sie zu schließen.

5. Rechtsdurchsetzung für Betroffene erleichtern

Je nach Fall können Betroffene digitaler Gewalt Strafanzeige erstatten oder zivilrechtliche Ansprüche geltend machen. Das Strafrecht greift jedoch nur, wenn eine Staatsanwaltschaft ein Verfahren aufnimmt. Die Hürden dafür können unterschiedlich hoch sein. Mithilfe des Zivilrechts können Betroffene zum Beispiel erfahren, wer hinter einem Übergriff steckt (Auskunft), erreichen, dass die Angriffe aufhören (Unterlassung) oder in bestimmten Fällen Geld als Entschädigung erhalten.

„Private Rechtsdurchsetzung ist angesichts überlasteter Strafverfolgungsbehörden und der schleppenden Umsetzung von Nutzendenrechten auf Online-Plattormen ein wichtiges Instrument“, schreibt HateAid. Betroffene digitaler Gewalt könne das handlungsfähig machen, zumindest in ausgewählten Fällen.

Das Problem laut HateAid: Dieser Weg sei für Betroffene „kaum zugänglich“. Die Organisation warnt vor hohen Kosten und langen Laufzeiten der Verfahren von sechs bis zwölf Monaten. Auch der Weisse Ring fordert, dass zivilrechtliche Ansprüche klarer und zugänglicher gestaltet werden sollten.

Betroffene kann es entlasten, wenn sie ihre Rechte nicht individuell einklagen müssen. Stattdessen könnten auch Organisationen im Interesse von Betroffenen vor Gericht ziehen. Ein solches Verbandsklagerecht gibt es zum Beispiel beim Umwelt- oder Verbraucherschutz. Ein Verbandsklagerecht für digitale Gewalt wünschen sich unter anderem der Deutsche Juristinnenbund und das Projekt „Ein Team“.

6. Verdächtige einfacher ins Visier nehmen

Viele Formen digitaler Gewalt geschehen im direkten Umfeld der Betroffenen, etwa durch Ex-Partner*innen. Das heißt: Sie kennen die Täter*innen bereits. In anderen Fällen können Betroffene lange rätseln, wer überhaupt Täter*in ist. Zum Beispiel bei Drohungen und Beleidigungen auf sozialen Medien oder bei nicht-einvernehmlich geteilten Nacktfotos auf Pornoseiten.

HateAid wünscht sich Maßnahmen im Zivilrecht, die es Betroffenen leichter machen, Verdächtige zu identifizieren. Die Organisation will eine „Stärkung der gerichtlichen Auskunftsansprüche“. Damit ist gemeint, dass etwa Plattformen auf Anordnung von Gerichten Details über einen Account herausrücken sollen, der zum Beispiel Beleidigungen verschickt hat. „In der aktuellen gesetzlichen Ausgestaltung sind die Auskunftsansprüche gleichzeitig kostspielig und völlig nutzlos“, kritisiert HateAid.

Das Forderungspapier von „Ein Team“ und weiteren Organisationen warnt jedoch – an dieser Stelle mit Blick aufs Strafrecht – vor Maßnahmen, die Täter*innen aufspüren sollen. Der Grund: Sie können auch die Betroffenen und die Gesamtgesellschaft verletzlicher machen. Deshalb sollten Möglichkeiten erprobt werden, die „keine oder weniger negative Effekte haben“.

Eine konkrete Maßnahme ist die Login-Falle. Das ist ein vom Verein D64 entwickeltes Verfahren, wonach erst auf richterliche Anordnung nach einem Anfangsverdacht für eine Straftat die IP-Adresse eines Verdächtigen übermittelt wird. Eine weitere Maßnahme ist das Quick-Freeze-Verfahren, das vor allem die FDP als Alternative zur invasiven Vorratsdatenspeicherung vorangetrieben hatte.

Auch richterlich angeordnete Account-Sperren könnten Betroffene in bestimmten Fällen entlassen, indem sie potenziellen Täter*innen die Plattform nehmen. Diesen Plan hatte bereits die Ampel gefasst; unter anderem der Deutsche Juristinnenbund fordert es weiterhin.

7. Adressen von Betroffenen besser schützen

Eine besondere Gefahr für Betroffene digitaler Gewalt sind Regelungen zur Anschrift – auch wenn das auf den ersten Blick sehr bürokratisch klingt. Wenn eine Person etwa ein Zivilverfahren wegen digitaler Gewalt anstrengt, muss sie der Regel eine Anschrift angeben, unter der sie zuverlässig erreichbar ist. Das Problem: Entsprechende Unterlagen können auch bei der Gegenseite landen. Auf diese Weise kann es passieren, dass Betroffene ausgerechnet dem Menschen, der sie bedrohen und stalkt, ihre genaue Adresse verraten.

„Die Angabe von c/o-Adressen muss bei der Geltendmachung eigener Rechte ausreichend sein“, fordert der Deutsche Juristinnenbund. Das bekräftigt auch das Forderungspapier von „Ein Team“ und anderen Organisationen: „In zivilrechtlichen Verfahren braucht es Möglichkeiten, die Anonymität Betroffener effektiv zu wahren.“

Ähnlich gelagert ist die Impressumspflicht. Wer in Deutschland eine geschäftsmäßige Website betreibt, muss eine ladungsfähige Anschrift ins Impressum schreiben. Ein Postfach oder eine c/o-Adresse reichen demnach nicht. Gerade Freiberufler*innen haben oftmals eine solche Website, aber keine separate Firmenanschrift – und stehen damit unter erhöhter Gefahr für Stalking. Der Deutsche Juristinnenbund will auch das ändern: Eine Reform der Impressumspflicht ist dem Verein zufolge „dringend notwendig“.

8. Aufklärung und Medienkompetenz ausbauen

Digitale Gewalt ist vor allem ein Fachbegriff aus Wissenschaft, Beratung und Politik. Was das genau ist, wie man sich davor schützen und dagegen wehren kann, das dürften längst nicht alle wissen. „Betroffene brauchen Schulungen, die über ihre Rechte aufklären und leicht auffindbare Wege (online und offline), wo sie sich Hilfe suchen können“, schreibt das Nettz. Ähnlich hält die gemeinnützige Organisation Superrr fest: „Zentral für den Schutz vor Gewalt ist Aufklärung und digitale Kompetenz“.

Die Fachleute von „Ein Team“ und weiteren Organisationen fordern „stärkere Sensibilisierung und Aufklärung der Gesellschaft“. Konkret könnten Bundesministerien die Präventionsarbeit fördern. Der Weisse Ring denkt bei Medienkompetenz nicht nur an Betroffene, sondern an alle. Mit „digitaler Zivilcourage“ könnten Menschen etwa gegen Hassrede vorgehen.

Wissenschaftliche Forschung zu digitaler Gewalt kann einen weiteren Beitrag zur öffentlichen Aufklärung leisten. „Wir brauchen mehr Forschung zu digitaler Gewalt, denn wir wissen immer noch zu wenig über das tatsächliche Ausmaß“, bemängelt das Nettz. Mehr Forschung verlangt etwa auch der Verein Frauenhauskoordinierung.

9. Frauen nicht isoliert betrachten

Viele Formen digitaler Gewalt betreffen Frauen. Das Thema sollte aber nicht darauf reduziert werden, wie mehrere Organisationen betonen. Digitale Gewalt müsse „immer mit weiteren Diskriminierungsformen gemeinsam gedacht werden“, schreibt das Nettz. Betroffen seien potenziell alle. „Menschen mit sichtbarem Migrationshintergrund, junge Frauen oder queere Menschen, die ohnehin diskriminiert werden, jedoch noch mal deutlich mehr.“

Was das konkret bedeuten kann, zeigen Beispiele aus dem Forderungspapier von „Ein Team“ und weiteren Organisationen: „So kann das Veröffentlichen eines Fotos ohne Kopftuch für eine kopftuchtragende muslimische Frau eine extrem gewaltsame Erfahrung sein. Für Menschen mit Behinderung sind manche Tipps zum Schutz vor digitaler Gewalt nicht umsetzbar, weil die Barrieren zu hoch sind. Für Menschen in Armut sind die Kosten zivilrechtlicher Verfahren eine Hürde, die Gegenwehr verhindert.“

Der Verein Frauenhauskoordinierung fordert die „Stärkung von intersektionalen Ansätzen im gesamten Hilfesystem“. Zudem weist der Verein darauf hin, dass Betroffene auch oft Kinder haben, die mitbedacht werden müssten. „Kinder können in die Ausübung digitaler Gewalt hineingezogen oder dafür instrumentalisiert werden“. Die Organisation Superrr wiederum erinnert daran, dass Maßnahmen auch bei der Arbeit mit Täter*innen ansetzen können.

Generell kann Täter*innenarbeit dazu beitragen, dass Menschen Gewalt gar nicht erst ausüben – oder bereits gewaltsame Menschen dabei unterstützen, ihr Verhalten zu überdenken und zu ändern.

10. Internationale Regeln gut umsetzen

Auf Bundesebene ließe sich zumindest ein Teil der Forderungen angehen; einiges betrifft jedoch Länder und Kommunen. Zwei umfassende Regelungen mit direktem Bezug zu digitaler Gewalt sind schon beschlossene Sache. Mindestens an deren Umsetzung wird sich die aktuelle Bundesregierung messen lassen müssen.

Erstens gibt es die sogenannte Istanbul-Konvention des Europarats, die Gewalt gegen Frauen verhüten und bekämpfen soll. Der Europarat ist eine von der EU unabhängige Organisationen mit 46 Mitgliedstaaten. In Deutschland ist die Konvention bereits seit 2018 in Kraft. Der Verein Frauenhauskoordinierung kritisiert: Deutschland habe die Konvention unzulänglich umgesetzt. „Nicht nur fehlen 14.000 Frauenhausplätze, sondern auch eine Gesamtstrategie zur Bekämpfung von Gewalt gegen Frauen und ein wirksames Risikomanagement gegen Femizide“.

Zweitens gibt es die neue EU-Richtlinie zur Bekämpfung von Gewalt gegen Frauen. Die Mitgliedstaaten müssen die Anforderungen bis Juni 2027 in nationales Recht überführen. Neben Vorgaben zur Unterstützung von Betroffenen sieht die Richtlinie auch Schulung und Information von Fachkräften vor – und stellt Regeln auf zur Bekämpfung bildbasierter, sexualisierter Gewalt und Deepfakes. In ihrem Forderungspapier pochen „Ein Team“ und weitere NGOs auf „zügige“ Umsetzung.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Pressefreiheit in Deutschland: Journalist*innen „bedrängt, geschubst, bespuckt“

05. Februar 2026 um 09:32

Im vergangenen Jahr gab es mindestens 55 Angriffe gegen Journalist*innen in Deutschland, berichtet Reporter ohne Grenzen. Weiter warnt die Organisation vor starker psychischer Belastung im Rahmen der Gaza-Berichterstattung und zunehmender Polarisierung.

Jedes Jahr veröffentlichen Reporter ohne Grenzen einen Bericht zur Lage der Pressefreiheit in Deutschland. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Oleg Laptev (@snowshade); Bearbeitung netzpolitik.org

Die erfassten physischen Angriffe auf Journalist*innen in Deutschland sind im Vergleich zum Vorjahr gesunken, die Attacken auf IT-Systeme dafür auf einen neuen Höchstwert gestiegen. Im jährlich erscheinenden RSF-Report informiert die Organisation Reporter ohne Grenzen über die Lage der Pressefreiheit in Deutschland.

Von einer höheren Dunkelziffer sei auszugehen, konstatiert der Bericht bei einem Rückgang der Angriffe auf Medienschaffende von 89 (2024) auf 55 (2025). Konnten Fälle nicht unabhängig überprüft werden, sind sie nicht in die Statistik geflossen. Die Zahl errechne sich aus 46 physischen Angriffen, drei Sachbeschädigungen an Redaktionsgebäuden und sechs „Cyberattacken“.

„Das ist die höchste dokumentierte Zahl von Hackerangriffen seit Beginn des Monitorings im Jahr
2015“, schreibt RSF. Zum Beispiel sei die Website der taz am Tag der Bundestagswahl für zwei Stunden durch eine DDoS-Attacke lahmgelegt worden.

41 der körperlichen Attacken auf Journalist*innen sind laut Bericht auf Demos, Parteiveranstaltungen oder Protestaktionen passiert. Am häufigsten seien Attacken in Form von Tritten und Schlägen gewesen, auch mit Gegenständen. Täter*innen hätten Medienschaffende auch zu Boden gestoßen, die Brille von der Nase geschlagen oder mit einem Stein beworfen.

„Journalist*innen wurden 2025 bei Recherchen im rechtsextremen Umfeld immer wieder bedrängt,
geschubst, bespuckt, körperlich angegriffen oder anderweitig in ihrer Arbeit behindert“, schreibt RSF weiter. Außerdem seien Medienschaffende im Rahmen von Palästina-solidarischen Demos angegriffen worden.

Gaza-Berichterstattung: „Starke psychische Belastung“

Gerade die Berichterstattung zu Gaza polarisiert die deutsche Medienlandschaft, hält RSF fest. Viele Medienschaffende beklagten sich demnach über „eingeschränkte Themenwahlen, restriktive Sprachvorgaben und Angst vor Antisemitismusvorwürfen“. Die Folge sei „starke psychische Belastung bis hin zur Selbstzensur“. Belastend seien etwa Kämpfe über die Deutungshoheit innerhalb der jeweiligen Redaktionen gewesen, aber auch digitaler Hass und Hetze.

Der Druck von außen lässt sich auch empirisch belegen. RSF verweist auf eine repräsentative Studie der Universität München. Die Forschenden haben untersucht, ob die Menschen die deutsche Berichterstattung seit dem Überfall der Hamas am 7. Oktober 2023 als ausgewogen oder parteiisch wahrnehmen. Das Ergebnis: Nur rund ein Viertel halte die Berichterstattung für ausgewogen. „Etwa 30 Prozent der Befragten erkennt pro-israelische Voreingenommenheit, während neun Prozent pro-palästinensische Befangenheit sehen“, fasst RSF die Studie zusammen.

Exiljournalist*innen erleben Verfolgung

In besondere Gefahr würden immer wieder Exil-Journalist*innen in Deutschland geraten, die im Visier ihrer autoritär regierten Herkunftsstaaten sind. RSF bewertet die Situation für afghanische, russische, belarussische und iranische Journalist*innen als lebensbedrohlich. Die Organisation kritisiert die Bundesregierung für die Aussetzung humanitärer Aufnahmeprogramme.

Betroffene Exil-Journalist*innen in Deutschland berichten von Überwachungs- und Einschüchterungskampagnen. So hätten mehrere iranische Exiljournalist*innen gesagt: „Ich weiß nicht, ob ich nur paranoid bin.“ Zu den mutmaßlichen Attacken gehören demnach Phishing, versuchte Account-Übernahmen oder Beschattung auf der Straße.

Warnung vor Polarisierung

Als weitere Gefahr für die Pressefreiheit benennt RSF Tendenzen zur politischen und medialen Polarisierung. Stabilisierende Faktoren seien das Mehrparteiensystem, starke öffentlich-rechtliche Sender und ein vielfältiges Medienangebot. Dennoch nehme die Polarisierung zu, auch durch ein „neues publizistisches Milieu“ aus dem rechtspopulistischen und rechtsextremen Spektrum. Es sei mittlerweile professioneller und finanziell besser ausgestattet.

Weiter kritisiert der Bericht US-amerikanische soziale Medien. „Ihre Algorithmen favorisieren Desinformation; plattformintegrierte Faktenchecks wurden inzwischen abgeschafft.“ Die Trump-Regierung unterstütze Widerstand gegen Tech-Regulierung.

Hinter Desinformation wiederum stecken dem Bericht zufolge gezielten Kampagnen, etwa vor dem Hintergrund politischer Wahlen oder Kriegen. Ein Beispiel war die russische Desinformationskampagne vor der Bundestagswahl.

„Ernsthafte Sorgen“ vor KI-Zusammenfassungen

Manche Forderungen aus dem vorigen Bericht sind auch dieses Jahr aktuell: RSF positioniert sich weiterhin gegen die Einführung der Chatkontrolle, also das Vorhaben der EU-Kommission, Online-Dienste auf Anordnung dazu zu verpflichten, private Kommunikation zu durchleuchten, um Darstellungen von Kindesmissbrauch zu suchen. „Chatkontrolle untergräbt den Quellenschutz; niemand könnte sich mehr der Privatheit der eigenen Kommunikation sicher sein“, warnt RSF.

Auch den Einsatz von Staatstrojanern kritisiert RSF. So nennt man es, wenn Sicherheitsbehörden Geräte von Bürger*innen hacken, um sie zu heimlich überwachen. Auch Journalist*innen können ins Visier geraten.

Die zunehmende Nutzung von sogenannten KI-Modellen bereiten dem Bericht zufolge fast allen Medien „ernsthafte Sorgen“. Gerade Werkzeuge, die Artikel zusammenfassen, würden Traffic und Werbeeinnahmen von originalen journalistischen Inhalten weg leiten und damit „die finanzielle Existenz von Verlagen und Medienschaffenden“ gefährden.

Deutschland steht auf der Rangliste der Pressefreiheit derzeit auf Platz 11 von 180 Staaten.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Berlin: Undurchsichtige Gesundheitsdatenbank-Pläne nach Brandbrief vorerst gestoppt

29. Januar 2026 um 14:19

CDU und SPD wollen in Berlin eine zentrale Gesundheitsdatenbank an der Charité aufbauen. Doch die Berliner Datenschutzbeauftragte kritisierte das Vorhaben der Koalition scharf und fordert Nachbesserungen. Wir veröffentlichen ihren Brandbrief.

Die Berliner Datenschutzbeauftragte Meike Kamp steht vor einer Säule an der Spree in Berlin.
Die Berliner Datenschutzbeauftragte Meike Kamp übt Kritik an der geplanten Gesundheitsdatenbank. – Alle Rechte vorbehalten IMAGO / Funke Foto Services; Bearbeitung: netzpolitik.org

Die rot-schwarze Koalition in Berlin wollte die Charité dazu befähigen, auf Basis eines reformierten Universitätsmedizingesetzes eine neue Gesundheitsdatenbank aufzubauen. Ziel ist es, den Standort Berlin als Zentrum für Wissenschaft, Forschung, Lehre und Innovation zwischen Hochschulen und Instituten zu fördern. Wie sensible personenbezogene Daten geschützt werden, bleibt in dem Vorhaben jedoch unklar, kritisiert die Berliner Datenschutzbeauftragte Meike Kamp.

Als dringliche Beschlussempfehlung hatten CDU und SPD am 15. Januar eine Änderungsvorlage ins Abgeordnetenhaus eingebracht, bevor sich Kamp am 20. Januar einschaltete. Nach scharfer Kritik in einem Brandbrief, den wir veröffentlichen, teilte der Sprecher für Inneres der SPD-Fraktion, Martin Matz, nun die vorläufige Verfahrenseinstellung mit.

Matz zeigte sich Kamps Kritik gegenüber offen. Die Datenbank-Pläne erachte er aber weiterhin als wichtig und will das Vorhaben bis 2029 verwirklichen. Wie es mit dem Vorhaben weitergeht, ist derzeit allerdings offen: In der heutigen Plenarsitzung stand das Thema auf der Tagesordnung, wurde dann aber kurzfristig vertagt.

Senat verstößt gegen Berliner Datenschutzgesetz

Betreffen neue Gesetzesvorhaben den sensiblen Bereich der personenbezogenen Datenverarbeitung – wie in diesem Fall von Gesundheitsdaten – schreibt das Berliner Datenschutzgesetz vor, die Datenschutzbeauftragte verpflichtend zu konsultieren.

Den Kontakt hatten in diesem Fall aber weder Senat noch Abgeordnetenhaus gesucht. Laut des Brandbriefs hatte die Koalition das vor dem parlamentarischen Beschluss auch nicht mehr vor. Schließlich hatten offenbar Teile der Opposition die Datenschutzbehörde auf den Änderungsentwurf hingewiesen.

Unklar ist bisher auch, warum die Charité als weitere betroffene Partei nicht in das Vorhaben einbezogen wurde. Schließlich wäre sie das ausführende Organ gewesen. Nach Angaben eines Sprechers der Charité war sie weder Initiator noch auf andere Weise in die Formulierung des Änderungsentwurfs eingebunden.

Zweck der Datenbank nicht ersichtlich

Kritisch beurteilte Kamp den Änderungsentwurf außerdem hinsichtlich unklarer und unverständlicher Inhalte. Die Datenbank soll mit nicht personenbezogenen Daten gefüttert werden, heißt es im ersten Absatz des neuen Paragraphen. Jedoch würden die folgenden Absätze dann nur Regelungen für den Umgang mit personenbezogenen Daten behandeln.

Es sei daher anzunehmen, dass an der Charité erhobene personenbezogene Daten in nicht personenbezogene Daten umgewandelt werden. Dafür wären dann Vorgaben für Anonymisierungsverfahren notwendig. Angaben, um welche Daten es konkret gehe, wer sie erheben soll und wie sie anonymisiert und in die Datenbank eingespeist werden sollen, fehlen jedoch.

Die jetzige Fassung sehe außerdem eine „staatenübergreifende Nutzung“ vor. Daten könnten somit auch an Dritte außerhalb der EU übermittelt werden. Handele es sich dann doch um personenbezogene Daten, greifen für diesen Fall bestehende Regelungen, unter anderem die Datenschutzgrundverordnung.

Die Notwendigkeit einer neuen Vorschrift bleibt unklar, urteilt Kamp. Erst einmal müsse der Zweck einer neuen Gesundheitsdatenbank verdeutlicht werden. Dann könne geprüft werden, ob dafür eine Erweiterung der bestehenden Gesetzeslage nötig wäre.

Datenschutz zuerst

Tobias Schulze, Fraktionsvorsitzender für die Linke im Berliner Abgeordnetenhaus, schließt sich der geäußerten Kritik an: „Solche Nachlässigkeiten können wir uns besonders in dem sensiblen Bereich von Gesundheitsdaten nicht leisten. Forschung mit Gesundheitsdaten kann sinnvolle Dienste leisten. Gerade damit dieser Mehrwert nicht delegitimiert wird, ist wirkungsvoller Datenschutz besonders wichtig.“

Anonymisierung und Pseudonymisierung sind entscheidende Schritte auf dem Weg dahin, da sie „wichtige Maßnahmen für eine datenschutzkonforme und datensparsame Datenverarbeitung“ darstellen, betont Simon Rebiger, Pressesprecher der Berliner Datenschutzbeauftragten gegenüber netzpolitik.org.

Alles netzpolitisch Relevante

Drei Mal pro Woche als Newsletter in deiner Inbox.

Jetzt abonnieren

Anonymisierte Daten dürfen nicht mit verfügbaren Zusatzinformationen auf eine betroffene Person zurückzuführen sein, betont Rebiger. Bei vielen Methoden verbleiben jedoch Restrisiken. Schätzen Verantwortliche diese nach allgemeinem Ermessen als unbeachtlich ein, gelten Daten als anonym und unterliegen nicht mehr dem Datenschutzrecht.

Im Unterschied dazu müsse bei der Pseudonymisierung nur sichergestellt sein, dass eine bestimmte Personengruppe, der die Daten zugänglich gemacht wird, Betroffene in keinem Fall identifizieren kann, so Rebiger. In solchen Fällen können pseudonymisierte Daten unter bestimmten Umständen als anonym gelten. Ansonsten bleiben die Daten personenbezogen und sind datenschutzrechtlich beschränkt.

Derzeit erarbeitet die Datenschutzkonferenz praktische Hilfestellungen für auf Einzelfälle zugeschnittene Verfahren. Sensible Gesundheitsdaten werden zum Beispiel bei der Übermittlung von Daten aus dem Krebsregister erfasst oder wenn KI-Modelle mit radiometrischen Aufnahmen trainiert werden.


Hier das Dokument in Volltext:


Viertes Gesetz zur Änderung des Berliner Universitätsmedizingesetzes (Drucksache 19/2763)

Änderungsantrag der Fraktion der CDU und der Fraktion der SPD
Dringliche Beschlussempfehlung des Ausschusses für Wissenschaft und Forschung vom 12. Januar 2026
Hier: § 38 Zentrale Gesundheitsdatenbank

Sehr geehrte Frau Präsidentin,
sehr geehrte Vorsitzende der Ausschüsse des Abgeordnetenhauses von Berlin,

ich nehme Bezug auf einen Änderungsantrag zum Vierten Gesetz zur Änderung des Berliner Universitätsmedizingesetzes der Fraktion der CDU und der Fraktion der SPD, der im Ausschuss für Wissenschaft und Forschung am 12. Januar 2026 angenommen und zur dringlichen Beschlussfassung in die 78. Plenarsitzung am 15. Januar 2026 eingebracht wurde.

Die dringliche Beschlussempfehlung sieht durch Einfügung eines neuen § 38 in das Berliner Universitätsmedizingesetz die Errichtung einer zentralen Gesundheitsdatenbank durch die Charité vor, die entsprechend mit Verarbeitungen von Gesundheitsdaten einhergeht. Ich bin entgegen der Vorgaben aus § 11 Abs. 2 Satz 2 Berliner Datenschutzgesetz bisher nicht zu diesem Gesetzesentwurf beteiligt bzw. angehört worden, obwohl die mit der Vorschrift vorgesehenen Errichtung einer zentralen Gesundheitsdatenbank auch die Verarbeitung von personenbezogenen Gesundheitsdaten und damit besonders sensible Bereiche der personenbezogenen Datenverarbeitung betrifft. Irritierend ist insbesondere, dass – wie die Erörterung in der Sitzung des Ausschusses für Wissenschaft und Forschung zeigte – die Beteiligung meiner Behörde auch vor Beschlussfassung im Parlament bewusst nicht mehr vorgesehen ist.

Auch inhaltlich ist die vorgeschlagene Regelung zu kritisieren: Abgesehen davon, dass die Beschlussempfehlung und der Änderungsantrag keine Begründung enthalten, aus welchen Grün- den aus Sicht des Gesetzgebers die Errichtung einer Gesundheitsdatenbank notwendig erscheint, ist der Gesetzesentwurf in seiner derzeitigen Form unklar und unverständlich. Meinen für den Bereich Wissenschaft und Forschung zuständigen Mitarbeiter:innen, die eine besondere Expertise in Bezug auf die Voraussetzungen für die Zulässigkeit der Verarbeitung personenbezogener Gesundheitsdaten haben, erschließt sich der konkrete Regelungsgehalt des § 38 des Entwurfs nicht. Ich habe daher erhebliche Zweifel, ob den Rechtsanwender:innen, insbesondere in der Charité und unter den Forschenden, die Voraussetzungen der Norm in der derzeitigen Fassung verständlich werden wird.

Dies möchte ich im Einzelnen erläutern:

  • Nach Abs. 1 soll eine zentrale Datenbank mit „nicht personenbezogenen Gesundheitsdaten“ errichtet werden. Aus der Vorschrift wird nicht klar, was hierunter zu verstehen ist und woher diese Daten stammen. Es ist davon auszugehen, dass es sich um die Gesundheitsdaten handelt, die die Charité im Rahmen der Behandlung und Versorgung ihrer Patient:innen erhoben hat. Damit diese personenbezogenen Daten nicht mehr personenbezogen sind, muss zunächst eine Anonymisierung durch die Charité erfolgen. Dies setzt eine Regelung voraus, die die Verarbeitung der Daten zum Zweck der Anonymisierung zum Gegenstand hat. Eine solche enthält die Vorschrift jedoch nicht.
  • Abs. 3 legt fest, dass eine „staatenübergreifende Nutzung“ der Datenbank zulässig sein soll, sofern die „Vorgaben des Datenschutzes“ eingehalten werden. Fragen wirft an dieser Stelle bereits auf, dass in Absatz 1 der Vorschrift von einer Datenbank mit nicht personenbezogenen Daten die Rede ist, hier jedoch auf die Vor- gaben des Datenschutzes hingewiesen wird. Zudem ist die Vorschrift unbestimmt und zeigt keinen klaren Regelungsinhalt auf. Eine „staatenübergreifende Nutzung“ ist nichts anderes als eine Übermittlung oder eine Offenlegung der entsprechenden Daten an Dritte außerhalb Deutschlands oder der EU. Entsprechende Regelungen finden sich bereits in § 25 LKG bzw. in § 6 Abs. 3 GDNG sowie bei möglicher Drittstaatenübermittlung in Kapitel V der DSGVO.
  • Abs. 4 S. 1 regelt sodann, dass auch personenbezogene Daten „im Rahmen einer Nutzungsvereinbarung“ zu erheben sind. Gänzlich unklar bleibt, was unter einer solchen Nutzungsvereinbarung verstanden und zwischen wem eine solche Nutzungsvereinbarung geschlossen werden soll. Ferner bleibt unklar, durch wen hier- bei welche Stellen personenbezogenen Daten erhoben werden sollen, und ob und inwieweit diese in die Gesundheitsdatenbank aufzunehmen sind
  • Ferner sind nach Abs. 4 S. 2 „anderweitig erhobene und für Forschung und Lehre relevante Daten unter den Voraussetzungen des § 17 BlnDSG […] in die Gesundheitsdatenbank aufzunehmen“. Diese Vorschrift ist ebenfalls unbestimmt und erfüllt den verfassungsgemäßen Grundsatz der Bestimmtheit des Gesetzes nicht. Zunächst ist unklar, welche Daten in die Gesundheitsdatenbank aufgenommen werden sollen. Aus der Formulierung „anderweitig erhoben“ wird nicht deutlich, wer diese Daten erhoben haben soll (ggf. die Charité). Ferner ist unklar, in welchen Kontexten die Daten erhoben worden sein sollen. Darüber hinaus ist nicht klar, ob es sich um Gesundheitsdaten handeln soll, was ausdrücklich im Gesetzestext zu benennen wäre. Um dem verfassungsrechtlichen Bestimmtheitsgebot gerecht zu werden, müsste explizit beschrieben werden, in welchem Zusammenhang von wem welche personenbezogenen Daten erhoben worden sind.
  • Die Formulierung, dass „für Forschung Lehre relevante Daten“ aufzunehmen sind, ist ebenfalls zu unbestimmt. Unklar bleibt, was unter „Relevanz“ zu verstehen ist und wer über diese Relevanz entscheidet.
  • Auch der Verweis auf § 17 BlnDSG ist nicht verständlich. Zunächst ist anzumerken, dass das BlnDSG nach § 2 Abs. 1 BlnDSG für die Verarbeitung personenbezogener Daten durch Behörden und sonstige öffentliche Stellen des Landes Berlin gilt. Sollte hiermit die Charité angesprochen werden, ist § 25 LKG eine speziellere Norm, die vorrangig anzuwenden wäre. Für Forschende, Studierende oder sonstige Nutzende kann § 17 BlnDSG keine Anwendung finden, weil es sich bei diesem Personenkreis um keine öffentlichen Stellen des Landes Berlin handelt, für die das BlnDSG ausschließlich Anwendung findet (§ 2 Abs. 1 BlnDSG).
  • Ferner enthält Abs. 4 S. 2 eigene Voraussetzungen, die vor Aufnahme der Daten in die Gesundheitsdatenbank zu beachten sind. Gänzlich unklar bleibt das Verhältnis dieser Voraussetzungen zu den in § 17 BlnDSG und § 25 LKG formulierten Voraussetzungen, die die Verarbeitung von (Gesundheits-)Daten zu wissenschaftlichen Forschungszwecken zum Gegenstand haben. Es wird nicht deutlich, welche Regelungen des § 17 BlnDSG und § 25 LKG entsprechend gelten sollen und in welchem Verhältnis diese Rechtsgrundlagen zur Verarbeitung der Daten in der Gesundheitsdatenbank stehen. Hierbei ist ebenfalls nicht nachvollziehbar, wie diese Voraussetzungen erfüllt werden können oder welche Voraussetzungen konkret zu erfüllen sind.
  • Abs. 4 S. 2 regelt ausdrücklich die Aufnahme der Daten in die Gesundheitsdatenbank, nicht die erst nachgelagerte Nutzung durch Forschende oder Studierende. Abs. 4 S. 2 Nr. 2 regelt jedoch beispielsweise als Voraussetzung, dass „der Forschungszweck die Möglichkeit der Zuordnung erfordert, die betroffene Person zu diesem Zweck eingewilligt hat“. Diese Voraussetzung kann jedoch erst dann geprüft werden und erfüllt sein, wenn eine Nutzung der Datenbank für ein Forschungsvorhaben erfolgen soll. Der Forschungszweck ergibt sich nämlich erst aus einem konkreten Forschungsvorhaben, für das eine Nutzung der in der Gesundheitsdatenbank aufgenommenen Daten beantragt wird. Für die vorgelagerte und hier ausschließlich geregelte Aufnahme der Daten in die Gesundheitsdatenbank kann die Voraussetzung des Nr. 2 daher nicht geprüft werden. Dasselbe gilt für die Voraussetzung Nr. 3, nach der das öffentliche Interesse an der Durchführung eines konkreten Forschungsvorhabens überwiegen muss und der konkrete Forschungszweck nicht auf andere Weise zu erreichen ist.
  • Gänzlich unbeachtet bleibt bei Abs. 4 S. 2 auch, dass die Datenbank nach Abs. 2 nicht nur zu wissenschaftlichen und forschungsbezogenen, sondern auch zu lehrbezogenen und innovationsorientierten Zwecken genutzt werden soll, über die Nutzung zu (wissenschaftlichen) Forschungszwecken also hinausgeht.
  • Ferner enthält Abs. 4 S. 3 die Regelung, dass personenbezogene Daten, soweit dies nach dem Forschungszweck erforderlich ist, zu anonymisieren sind. Auch hier stellt sich das Problem, dass auf einen konkreten Forschungszweck abgestellt wird, und nicht auf die grundsätzliche Aufnahme / Verarbeitung der personenbezogenen Daten in der Datenbank.
  • Schließlich sei insgesamt anzumerken, dass zwar Abs. 1 ausdrücklich regelt, dass eine zentrale Datenbank mit nicht personenbezogenen Daten errichtet werden soll, die weiteren Absätze jedoch nur Regelungen zu personenbezogenen Daten enthalten. Ich empfehle daher dringend, die Vorschrift erheblich zu überarbeiten. Dabei wäre es zunächst erforderlich, die mit der Errichtung der Gesundheitsdatenbank verfolgten Zwecke klarzustellen, und dabei auch zu überprüfen, ob die Vorschrift vor dem Hintergrund bereits bestehender gesetzlicher Regelungen überhaupt notwendig ist.

Ich empfehle daher dringend, die Vorschrift erheblich zu überarbeiten. Dabei wäre es zunächst erforderlich, die mit der Errichtung der Gesundheitsdatenbank verfolgten Zwecke klarzustellen, und dabei auch zu überprüfen, ob die Vorschrift vor dem Hintergrund bereits bestehender gesetzlicher Regelungen überhaupt notwendig ist.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

KW 2: Die Woche, in der Politiker*innen auf X den Deepfakes zusahen

10. Januar 2026 um 11:00

Die 2. Kalenderwoche geht zu Ende. Wir haben 9 neue Texte mit insgesamt 72.901 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

– Fraktal, generiert mit MandelBrowser von Tomasz Śmigielski

Liebe Leser*innen,

in der zweiten Woche des Jahres hat uns unter anderem die anhaltende Tatenlosigkeit zum Chatbot Grok beschäftigt. Seit wir am Mittwoch über Musks polemische Reaktion und die leeren Worte der Sprecher*innen von X berichtet haben, geht die Woche ohne nennenswerte Reaktion der dort Verantwortlichen zu Ende.

Dafür hielt der Freitag ein Update des Chatbots bereit: Die Bildgenerierung von Grok ist nun nur noch zahlenden Abonnent*innen vorbehalten und steht nicht mehr allen Menschen auf der Plattform X zur Verfügung. Laut den Medienberichten ist das Tool aber noch über die Grok-App und -Website verfügbar. In Zukunft heißt es dann einfach: Wer in Musks dicke Tasche einzahlt oder einen kleinen Umweg nimmt, kann weiter sexualisierte Deepfakes verbreiten.

Die Frage bleibt, wie lange Regulierungsbehörden noch bei so etwas zusehen oder ob sie doch irgendwann in Aktion treten.

In den vergangenen Tagen war besonders Kritik aus Frankreich und Großbritannien gegenüber X laut zu hören. Der britischen Kommunikationsbehörde Ofcom steht inzwischen frei, Sanktionen gegen xAI und Grok zu verhängen. Laut des britischen Online Safety Act ist als letzter Schritt sogar eine Sperre von X möglich.

Die EU-Kommission geht einen anderen Weg. Sie hat am Donnerstag bei Musks Unternehmen angewiesen, dass dieses interne Dokumente und Daten zu Grok bis Ende 2026 aufbewahren muss. Zu einem späteren Zeitpunkt könnte dann eine Untersuchung beginnen.

Politiker*innen hängen zu sehr an der Plattform

Das eigentlich Verwunderliche an dieser neuen Episode des Absturzes der einstigen Informationsplattform ist jedoch die eher achselzuckende Reaktion von Abgeordneten, Bundesministerien und auch der EU-Kommission. Sie posten einfach weiter auf der Plattform X, als sei in den vergangenen Jahren, Monaten und Wochen nichts passiert.

Sie tun so, als habe Musk nicht X um eine funktionierende Moderation beraubt, als habe es keine Eingriffe des Milliardärs in Wahlkämpfe zu Gunsten rechter Parteien gegeben, als sei X noch eine normale Plattform und nicht ein Instrument zum Pushen rechtsradikaler Narrative geworden. Nun kommt also sexualisierte digitale Gewalt direkt aus Musks Chatbot dazu – und Ministerien und Abgeordnete berufen sich auf eine angebliche Informationspflicht, die sie quasi zum Bleiben auf der Plattform zwinge. Dabei gibt es seit Musks Plattformübernahme zahlreiche bekannte Stimmen und Institutionen, die einfach Schluss mit X gemacht haben.

Wir haben Bundestagsabgeordnete, zwei deutsche Ministerien und die EU-Kommission gefragt, warum sie immer noch auf X aktiv sind: Mehr Lavieren als in diesen Antworten geht kaum.

Euch ein schönes Wochenende mit Schneespaziergängen statt X

Laura


Trugbild: Nur hier für die Kommentare

Rezensions- und Kommentarspalten sind kleine Oasen des Internets. Denn überall dort, wo Menschen ins Netz schreiben können, entsteht Leben. Von Vincent Först –
Artikel lesen

Datenzugang für Nutzer:innen und Forschung: „Wir haben das Recht auf unserer Seite“

Zwei Forschende haben verschiedene Wege genutzt, um an die Daten großer Plattformen zu kommen. In einem Vortrag auf dem 39. Chaos Communication Congress berichten sie von Hindernissen, aber auch davon, wie wertvoll das Recht auf Datenzugang ist. Von Anna Biselli –
Artikel lesen

Argentinien: Per Dekret in die dunkle Vergangenheit

Der argentinische Präsident Javier Milei baut die Demokratie ab und die Online-Überwachung aus. Jetzt hat die Regierung per Dekret buchstäblich über Nacht den Geheimdienst in eine Super-Überwachungsbehörde umgewandelt. Journalist*innen und Aktivist*innen sind alarmiert. Von Gastbeitrag, Nina Galla –
Artikel lesen

Vorhersehbare Forderung: Gegen Stromausfall helfen keine Überwachungskameras

Die Wirtschaftssenatorin Franziska Giffey nutzt die Notfallsituation in Berlin, um sich mit der Forderung nach mehr Videoüberwachung zu profilieren. Sie will auch „Künstliche Intelligenz“ einsetzen. Doch mehr Kameras helfen nicht, wenn es eigentlich andere Maßnahmen braucht. Ein Kommentar. Von Constanze –
Artikel lesen

Hacken & Kunst: „Kunst allein reicht nicht aus“

Helena Nikonole hat Kameras in Russland gehackt und Anti-Kriegsbotschaften verbreitet. Nun entwickelt die Künstlerin ein winziges Gerät, um ohne Internet Nachrichten zu verschicken. Mit kreativen und praktischen Lösungen will sich Nikonole einer zusammenbrechenden Welt entgegenstellen. Von Timur Vorkul –
Artikel lesen

Hacking & Art: „Art alone is not enough“

Helena Nikonole hacked cameras in Russia and spread anti-war messages. Now the artist is developing a tiny device to send messages without using the internet. With creative and practical solutions, Nikonole aims to confront a collapsing world. Von Timur Vorkul –
Artikel lesen

Digitale Gewalt: Musks Chatbot Grok verbreitet weiter sexualisierte Deepfakes

Nachdem sein Chatbot Grok weiterhin sexualisierte Bilder von prominenten Frauen und Minderjährigen erstellt, sieht sich Elon Musk mit möglichen rechtlichen Konsequenzen konfrontiert. Den Trend zu KI-generierten sexuellen Inhalten und digitaler Gewalt gegen weibliche Personen wird das wohl nicht aufhalten. Von Laura Jaruszewski –
Artikel lesen

Chatbot-inspirierte Gewalt: KI-Hersteller entschädigen Familien

Immer wieder wird Chatbot-Herstellern vorgeworfen, die Sicherheit von Kindern und Jugendlichen zu gefährden. In fünf Fällen wollen Character Industries und Alphabet die Klagen mit Geld aus der Welt schaffen. Damit sorgen die Unternehmen dafür, dass es weiterhin keinen Präzedenzfall gibt, nach dem Techunternehmen für ihre KI-Chatbots rechtliche Konsequenzen tragen müssen. Von Laura Jaruszewski –
Artikel lesen

Digitale Gewalt: Abgeordnete, Ministerien und EU-Kommission bleiben auf Deepfake-Plattform X

X hat sich in den letzten Jahren nicht nur zur rechten Propagandaschleuder entwickelt, die Plattform erlaubte seit Ende Dezember auch das Generieren von sexualisierten Deepfake-Bildern. Wir haben Politiker, Ministerien und EU-Kommission gefragt, warum sie trotzdem auf der degenerierten Plattform bleiben. Von Markus Reuter –
Artikel lesen


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Chatbot-inspirierte Gewalt: KI-Hersteller entschädigen Familien

08. Januar 2026 um 18:14

Immer wieder wird Chatbot-Herstellern vorgeworfen, die Sicherheit von Kindern und Jugendlichen zu gefährden. In fünf Fällen wollen Character Industries und Alphabet die Klagen mit Geld aus der Welt schaffen. Damit sorgen die Unternehmen dafür, dass es weiterhin keinen Präzedenzfall gibt, nach dem Techunternehmen für ihre KI-Chatbots rechtliche Konsequenzen tragen müssen.

Smartphone, auf dessen BIldschirm character.ai steht.
Dem Chatbot-Hersteller Character Technologies wird vorgeworfen, dass die Nutzung seiner Chatbots Jugendliche schädige. – Alle Rechte vorbehalten IMAGO / SOPA Images

In den US-Bundesstaaten Florida, Texas, Colorado and New York handeln Google und Character Technologies Vergleiche mit fünf Familien aus, deren Kinder angeblich durch Chatbot-Nutzung zu Schaden gekommen sind. Der Fall, der die meiste Aufmerksamkeit erhielt, behandelt den Suizid eines 14-Jährigen Jungen. Der Jugendliche hatte eine emotionale Beziehung zum Chatbot „Dany“ von Character Technologies aufgebaut, der den Suizid des Jungen befürwortete.

In anderen Fällen hatten Chatbots von Character Technologies angeblich Jugendliche zu Gewalt gegen ihre Eltern oder selbstverletzendem Verhalten inspiriert. Die Bedingungen der Vergleiche sind bisher öffentlich nicht bekannt und werden nach Angaben von TechCrunch weiter verhandelt. Demnach wollen sich weder Sprecher*innen von Character Technologies, noch die Anwältin der Klägerin dazu äußern.

Haften Techkonzerne für ihre Chatbots?

Zwei ehemalige Google-Mitarbeiter gründeten 2021 den Chatbot-Hersteller Character Technologies. Drei Jahre später kehrten sie zu Google zurück. Im gleichen Zug erwarb der Konzern Lizenzen in Höhe von 2,7 Milliarden US Dollar von Character Technologies. Beide Gründer stehen als Angeklagte vor Gericht. Die Mutter des toten 14-Jährigen hat ebenfalls gegen Googles Mutterkonzern Alphabet geklagt. Sie argumentiert, dass das Unternehmen den Chatbot mitentwickelt hat. Google beteiligt sich nun auch an dem Vergleich.

Im Mai des vergangenen Jahres hatte die verantwortliche US-Bezirksrichterin Anne C. Conway entschieden, dass KI-Chatbots rechtlich als Produkte zu behandeln sind. Ihre Ausgaben seien nicht als geschützte Meinungsäußerung zu werten. Andernfalls hätte das die Chancen einer Haftungsklage stark verringert.

Gegenmaßnahme Altersbeschränkungen

Aktuell laufen in den USA sieben Verfahren gegen den Tech-Konzern OpenAI. Eine Klage stammt von den Eltern eines 16-Jährigen Jungen. Auch sie werfen dem Unternehmen vor, dass die KI den Jugendlichen bei der Selbsttötung unterstützt habe. OpenAI zieht sich bisher aus der Verantwortung. Der KI-Hersteller verweist auf die Missachtung der Sicherheitsmaßnahmen durch den 16-Jährigen.

Gleichzeitig führt das Unternehmen neue Tools zur Alterskontrolle und „Kindersicherung“ ein. Auch der KI-Hersteller Character Technologies hat neue Regelungen zur Altersüberprüfung eingeführt.

Präzedenzfall steht aus

Character Technologies und Google streben die nicht-öffentlichen Vergleiche wohl auch deshalb an, um Präzedenzfälle zu vermeiden, auf die sich Kläger*innen bei zukünftigen Verstößen berufen können. Außerdem ist der Schaden für die Reputation bei einem Vergleich vermutlich geringer als bei einer juristischen Niederlage.

Aline Blankertz von Rebalance Now, einem Verein der sich gegen Monopolisierung einsetzt, sagt: „Die kollektive Schutzwirkung der Gesetze wird dadurch untergraben, denn es bleibt offen, ob das Verhalten illegal war. Wir beobachten diese Tendenz in verschiedenen Rechtsbereichen.“

Blankertz erklärt auch, warum sich Kläger*innen auf Vergleiche einlassen: „Aus Sicht der einzelnen Geschädigten ergeben Vergleiche Sinn: Sie geben ihnen ein sicheres Ergebnis innerhalb kürzerer Zeit.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Digitale Gewalt: Musks Chatbot Grok verbreitet weiter sexualisierte Deepfakes

07. Januar 2026 um 17:51

Nachdem sein Chatbot Grok weiterhin sexualisierte Bilder von prominenten Frauen und Minderjährigen erstellt, sieht sich Elon Musk mit möglichen rechtlichen Konsequenzen konfrontiert. Den Trend zu KI-generierten sexuellen Inhalten und digitaler Gewalt gegen weibliche Personen wird das wohl nicht aufhalten.

Ein Smartphone-Bildschirm mit den KI-Apps OpenAI, Grok, Meta AI und Gemini
Der Chatbot Grok erstellt sexualisierte Deepfakes von Minderjährigen – Gemeinfrei-ähnlich freigegeben durch unsplash.com Salvador Rios

Seit Ende Dezember flutet Elon Musks KI-Chatbot Grok die Kurznachrichtenplattform X mit sexualisierten Deepfakes. User*innen haben das Programm aufgefordert, Bilder von bekannten Frauen und Minderjährigen mit nur minimaler Bekleidung und in sexualisierten Posen darzustellen. Inzwischen kursieren auch KI-generierte Bilder von bekannten Frauen in Hakenkreuz-Bikinis.

Auf den weltweiten Aufschrei folgte zunächst nur eine Reaktion des Chatbots selbst, der von „Schwachstellen in den Sicherheitsvorkehrungen“ schrieb, die behoben werden müssten. Elon Musk hatte sich über die Vorwürfe zuerst amüsiert, indem er ein Bild von sich selbst im Bikini postete. Dann kündigte ein Sprecher von X jedoch an, dass das Generieren und Verbreiten „illegaler Inhalte“ die gleichen Konsequenzen für Accounts haben werde, als würden sie die Inhalte selbst hochladen.

Zwar wurden inzwischen einzelne Inhalte gelöscht, weitere Konsequenzen erfolgten bisher jedoch nicht. Entsprechende Bilder kursieren zudem weiter auf der Plattform.

Betroffen sind vor allem Frauen und Kinder

Die Möglichkeit zur Erstellung sexualisierter Fake-Bilder hatte Musks KI-Unternehmen xAI kürzlich mit einem Update für den Chatbot geschaffen. Seit Dezember 2025 kann Grok durch den „Image Generation Release“ auch bestehende Bilder bearbeiten, die Nutzer*innen hochladen. Letzten Sommer hatte das Unternehmen bereits einen „Spicy Mode“ für pornographische Inhalte veröffentlicht, den das neue Feature ergänzt.

Die Bildbearbeitungsfunktion ist auch auf X verfügbar. Wollen User*innen damit Deepfakes erstellen, zum Beispiel von Menschen im Bikini, benötigt der KI-Chatbot dafür weder eine Zustimmung der Urheber*innen, noch erfahren diese von der Manipulation. Opfer der sogenannten Deepnudes sind – nicht nur in diesem Fall digitaler Gewalt – vor allem Frauen und junge Mädchen.

Auch die rechte Influencerin Ashley St. Clair, mit der Elon Musk ein gemeinsames Kind hat, gehört zu den Zielen. Ihre öffentliche Kritik an Musks Chatbot hat den Missbrauch jedoch nur verstärkt. Nutzer*innen hatten unter anderem Bilder von ihr als 14-Jährige, im Bikini und in nach vorne gebeugter Pose erstellen lassen. Wie St. Clair berichtet, habe es nach ihrer Beschwerde bei der Plattform zwölf Stunden gedauert, bis X das gefakte Kinderbild entfernt hat.

Ein Fall für den Digital Services Act

Nach eigenen Angaben will Ashley St. Clair nun ein kürzlich verabschiedetes US-Gesetz nutzen, um sich zu schützen. Der Take it Down Act soll Menschen helfen, gegen die nicht-einvernehmliche Verbreitung sexualisierter Bilder vorzugehen.

Einem Bericht von heise online zufolge prüfen in Frankreich derweil bereits Staatsanwälte, wie man mit dem Digital Services Act der EU auf die Fälle reagieren kann. Auch die Europäische Kommission sieht in den sexualisierten Bildern einen Fall für den Digital Services Act. Das Vorgehen reiht sich in laufende Untersuchungen gegen X wegen Verstößen gegen europäische Plattformgesetze ein.

Auch die britische Kommunikationsaufsicht Offcom verlangt Antworten von xAI zu der Thematik. Ebenso haben sich Regierungen von Malaysia und Indien kritisch geäußert.

Auch Meta und OpenAI setzten auf erotische Inhalte

KI-generierte Erotikinhalte sind inzwischen kein Nischenphänomen mehr. Vielmehr setzen KI-Firmen im großen Stil auf romantische und sexuelle Inhalte, um ihre Bots zu vermarkten. So kündigte Sam Altman, Vorstandschef von Open AI, im Oktober 2025 einen Erotik-Modus für ChatGPT an. Das Add-on ist noch nicht verfügbar und soll nach einer Altersprüfung nutzbar sein.

Meta wiederrum stand kürzlich in der Kritik, weil sein Chatbot Meta AI auf Facebook, WhatsApp und Instagram auch Minderjährigen romantische Interaktionen ermöglichte.

Im Fall eines Rentners aus New York führte eine romantische Konversation sogar zu einem tödlichen Unfall. Der 76-Jährige hatte sich in den Meta-Chatbot „Big Sis Billie“ verliebt und wurde von diesem aufgefordert, ihn an einer bestimmten Adresse zu besuchen. Der Chatbot beteuerte mehrmals, wirklich real zu sein. Auf dem Weg zu dem vermeintlichen Date stürzte und verstarb der Rentner.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

  • Es gibt keine weiteren Artikel
❌