🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
✇netzpolitik.org

Digitale Gewalt: Musks Chatbot Grok verbreitet weiter sexualisierte Deepfakes

Von: Laura Jaruszewski

Nachdem sein Chatbot Grok weiterhin sexualisierte Bilder von prominenten Frauen und Minderjährigen erstellt, sieht sich Elon Musk mit möglichen rechtlichen Konsequenzen konfrontiert. Den Trend zu KI-generierten sexuellen Inhalten und digitaler Gewalt gegen weibliche Personen wird das wohl nicht aufhalten.

Ein Smartphone-Bildschirm mit den KI-Apps OpenAI, Grok, Meta AI und Gemini
Der Chatbot Grok erstellt sexualisierte Deepfakes von Minderjährigen – Gemeinfrei-ähnlich freigegeben durch unsplash.com Salvador Rios

Seit Ende Dezember flutet Elon Musks KI-Chatbot Grok die Kurznachrichtenplattform X mit sexualisierten Deepfakes. User*innen haben das Programm aufgefordert, Bilder von bekannten Frauen und Minderjährigen mit nur minimaler Bekleidung und in sexualisierten Posen darzustellen. Inzwischen kursieren auch KI-generierte Bilder von bekannten Frauen in Hakenkreuz-Bikinis.

Auf den weltweiten Aufschrei folgte zunächst nur eine Reaktion des Chatbots selbst, der von „Schwachstellen in den Sicherheitsvorkehrungen“ schrieb, die behoben werden müssten. Elon Musk hatte sich über die Vorwürfe zuerst amüsiert, indem er ein Bild von sich selbst im Bikini postete. Dann kündigte ein Sprecher von X jedoch an, dass das Generieren und Verbreiten „illegaler Inhalte“ die gleichen Konsequenzen für Accounts haben werde, als würden sie die Inhalte selbst hochladen.

Zwar wurden inzwischen einzelne Inhalte gelöscht, weitere Konsequenzen erfolgten bisher jedoch nicht. Entsprechende Bilder kursieren zudem weiter auf der Plattform.

Betroffen sind vor allem Frauen und Kinder

Die Möglichkeit zur Erstellung sexualisierter Fake-Bilder hatte Musks KI-Unternehmen xAI kürzlich mit einem Update für den Chatbot geschaffen. Seit Dezember 2025 kann Grok durch den „Image Generation Release“ auch bestehende Bilder bearbeiten, die Nutzer*innen hochladen. Letzten Sommer hatte das Unternehmen bereits einen „Spicy Mode“ für pornographische Inhalte veröffentlicht, den das neue Feature ergänzt.

Die Bildbearbeitungsfunktion ist auch auf X verfügbar. Wollen User*innen damit Deepfakes erstellen, zum Beispiel von Menschen im Bikini, benötigt der KI-Chatbot dafür weder eine Zustimmung der Urheber*innen, noch erfahren diese von der Manipulation. Opfer der sogenannten Deepnudes sind – nicht nur in diesem Fall digitaler Gewalt – vor allem Frauen und junge Mädchen.

Auch die rechte Influencerin Ashley St. Clair, mit der Elon Musk ein gemeinsames Kind hat, gehört zu den Zielen. Ihre öffentliche Kritik an Musks Chatbot hat den Missbrauch jedoch nur verstärkt. Nutzer*innen hatten unter anderem Bilder von ihr als 14-Jährige, im Bikini und in nach vorne gebeugter Pose erstellen lassen. Wie St. Clair berichtet, habe es nach ihrer Beschwerde bei der Plattform zwölf Stunden gedauert, bis X das gefakte Kinderbild entfernt hat.

Ein Fall für den Digital Services Act

Nach eigenen Angaben will Ashley St. Clair nun ein kürzlich verabschiedetes US-Gesetz nutzen, um sich zu schützen. Der Take it Down Act soll Menschen helfen, gegen die nicht-einvernehmliche Verbreitung sexualisierter Bilder vorzugehen.

Einem Bericht von heise online zufolge prüfen in Frankreich derweil bereits Staatsanwälte, wie man mit dem Digital Services Act der EU auf die Fälle reagieren kann. Auch die Europäische Kommission sieht in den sexualisierten Bildern einen Fall für den Digital Services Act. Das Vorgehen reiht sich in laufende Untersuchungen gegen X wegen Verstößen gegen europäische Plattformgesetze ein.

Auch die britische Kommunikationsaufsicht Offcom verlangt Antworten von xAI zu der Thematik. Ebenso haben sich Regierungen von Malaysia und Indien kritisch geäußert.

Auch Meta und OpenAI setzten auf erotische Inhalte

KI-generierte Erotikinhalte sind inzwischen kein Nischenphänomen mehr. Vielmehr setzen KI-Firmen im großen Stil auf romantische und sexuelle Inhalte, um ihre Bots zu vermarkten. So kündigte Sam Altman, Vorstandschef von Open AI, im Oktober 2025 einen Erotik-Modus für ChatGPT an. Das Add-on ist noch nicht verfügbar und soll nach einer Altersprüfung nutzbar sein.

Meta wiederrum stand kürzlich in der Kritik, weil sein Chatbot Meta AI auf Facebook, WhatsApp und Instagram auch Minderjährigen romantische Interaktionen ermöglichte.

Im Fall eines Rentners aus New York führte eine romantische Konversation sogar zu einem tödlichen Unfall. Der 76-Jährige hatte sich in den Meta-Chatbot „Big Sis Billie“ verliebt und wurde von diesem aufgefordert, ihn an einer bestimmten Adresse zu besuchen. Der Chatbot beteuerte mehrmals, wirklich real zu sein. Auf dem Weg zu dem vermeintlichen Date stürzte und verstarb der Rentner.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Gegen Regulierung: Big Tech steckt so viel Geld in EU-Lobbyarbeit wie noch nie

Von: Esther Menhard

EU-Digitalgesetze wie der Digital Services Act sollen Big Tech in Schach halten. Das macht Meta, Microsoft & Co. das Leben schwer. Mit einer mächtigen Lobby arbeiten sie dagegen. Das zeigt eine gemeinsame Analyse von LobbyControl und Corporate Europe Observatory.

Ursula von der Leyen am Rednerpult
Kommissionspräsidentin Ursula von der Leyen rüttelt an den Digitalgesetzen der EU. – Alle Rechte vorbehalten IMAGO/NurPhoto

151 Millionen Euro – so viel war der Digitalindustrie die Lobbyarbeit in Brüssel zuletzt wert. Das ist nicht nur der höchste bisher gemessene Betrag an jährlichen Lobbyausgaben der Branche. Mit ihrer „beispiellosen Finanzkraft“ katapultiert sich die Tech-Branche damit außerdem an die Spitze aller Lobbyakteure in der EU. Das zeigt eine heute veröffentlichte Studie der Nichtregierungsorganisationen LobbyControl und Corporate Europe Observatory (CEO).

Ein Vergleich mit anderen Branchen macht die Dimension deutlich. Der aktuellen Auswertung zufolge lassen sich die zehn größten Tech-Unternehmen ihre Lobbyarbeit gut 48 Millionen Euro kosten, die zehn größten Konzerne der Pharma-, Finanz- oder Automobilindustrie zusammen 42,8 Millionen Euro. „Fünf der sechs größten Lobbyakteure in der EU stammen aus der Tech-Branche“, so die Recherche von LobbyControl und CEO.

Zugleich verfügen die zehn größten IT-Unternehmen auch über die höchsten Budgets für ihre Lobbyarbeit. Demnach stellen sie ein Drittel der gesamten Lobbyausgaben der Tech-Branche. Meta unterhält mit jährlich 10 Millionen Euro die einflussreichste Tech-Lobby in der EU, dicht gefolgt von Microsoft, Amazon und Apple mit je 7 Millionen Euro. Die Gesamtausgaben von 151 Millionen Euro wiederum sind doppelt so hoch wie die aus dem Jahr 2021 und entsprechen einer Steigerung um 33,6 Prozent der Ausgaben im Jahr 2023.

EU-Digitalgesetze im Visier

Der NGO-Bericht kommt zu einer Zeit, in der europäische Digitalregeln zunehmend unter Druck geraten. Um die Macht der Tech-Konzerne einzudämmen, hat die EU in den vergangenen Jahren eine Reihe einschlägiger Gesetze verabschiedet, etwa das Digitale-Dienste-Gesetz (DSA), das Digitale-Märkte-Gesetz (DMA) oder die KI-Verordnung (AI Act). Dagegen wettern nicht nur die oft aus den USA stammenden Konzerne wie Meta, Apple oder Amazon. Sie wissen US-Präsidenten Donald Trump sowie den republikanisch dominierten Kongress im Rücken, die US-amerikanische Interessen über alles stellen.

Gleichwohl beschränkt sich die vermehrte Lobbyarbeit nicht auf die größten Tech-Unternehmen. Seit 2023 kamen in Brüssel eine ganze Reihe neuer Lobby-Gruppen hinzu. So stieg die Zahl von 565 digitalen Unternehmen und Verbänden auf 733 im Jahr 2025, die das Ohr der Kommission und von Abgeordneten suchen.

Damit ist auch die Zahl der Digital-Lobbyist*innen angewachsen, inzwischen übersteigt sie sogar die Anzahl der Abgeordneten im Parlament: Neben den gut 720 Parlamentariern gehen im laufenden Jahr 890 Mitarbeiter*innen der Digitalindustrie in Vollzeit ihrer Arbeit nach. 2023 waren es noch 699. „Von ihnen verfügen 437 über Zugangsausweise, die ihnen nahezu uneingeschränkten Zutritt zum Parlament ermöglichen“, so die Recherche. Ganz vorne mit dabei sind Digital Europe mit 27 Lobbyausweisen, Google mit 16 und Microsoft mit elf. Auch mit Mitarbeiter*innen von Amazon trafen sich EU-Abgeordnete. Dabei waren ihnen im Februar 2024 die Zugangsausweise entzogen worden.

Bis Ende Juni fanden durchschnittlich drei Lobbytreffen mit Mitarbeiter*innen der Digitalindustrie pro Tag statt – mit leitenden Vertreter*innen der Kommission und Europaabgeordneten, so die Autoren der Analyse, Felix Duffy von LobbyControl und Bram Vranken von Corporate Europe Observatory (CEO).

Um die Zahlen zu ermitteln, haben die NGOs unter anderem Daten aus dem EU-Transparenzregister ausgewertet und nutzten zudem das Online-Datentool LobbyFacts.eu von LobbyControl. Alle Anaylsedaten sind in einer öffentlich zugänglichen Datenbank einsehbar.

Jetzt nicht einknicken

Big Techs Lobbyarbeit scheint Wirkung zu zeigen. Von der Leyen arbeitet gerade etwa zusammen mit der Kommission an einem digitalen Omnibus-Paket. Damit will sie Digitalgesetze ändern, um die EU „innovationsfreundlicher“ zu machen. Zudem will sie für Unternehmen Ausnahmen in die Datenschutzgrundverordnung aufnehmen.

Ihre Analyse demonstriere, wie Big Tech europäische Tech-Regulierung systematisch aufweicht, erklärt Felix Duffy von LobbyControl. Große Tech-Konzerne haben zu viel Macht und bedrohen eine „demokratische Digitalpolitik“. Gerade jetzt müsse die EU Digitalregeln konsequent umsetzen, anstatt zu deregulieren, so wie es Ursula von der Leyen tut, so Bram Vranken. „Die Kommission darf sich den mächtigen Konzerninteressen nicht beugen.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

DSA: EU-Kommission bemängelt Verstöße bei Instagram, Facebook und TikTok

Von: Anna Ströbele Romero

TikTok, Instagram und Facebook lassen Forschende nicht ausreichend an ihre Daten heran. Und bei Instagram und Facebook ist das Melden von Inhalten zu schwer. Das hat die EU-Kommission festgestellt und fordert Nachbesserungen – sonst drohen Geldstrafen.

Schnell und einfach sollen Instagram-Nutzende in der EU Inhalte melden können. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Claudio Schwarz

Im Frühjahr 2024 hat die EU-Kommission die jeweils ersten Verfahren nach dem Gesetz über digitale Dienste (DSA) für Meta (Instagram, Facebook) und für TikTok eröffnet. Seitdem hat die Behörde vorläufig mehrere Verstöße festgestellt, etwa im Bereich des Jugendschutzes und der Desinformation vor Wahlen. Heute hat sie weitere Untersuchungsergebnisse geteilt.

Alle drei Plattformen – also TikTok, Instagram und Facebook – setzen demnach den Zugang zu Daten für Forschende nicht ausreichend um. Es sei sehr umständlich, die Daten zu beantragen und es gebe Probleme im Überprüfungsprozess der Forschenden. Und auch wenn die Daten bereitgestellt würden, seien diese oft unvollständig und nicht zuverlässig. Ähnliche Punkte hatte die Kommission bereits vor einem Jahr bei X bemängelt. Laut DSA ist die Kommission die zuständige Aufsichtsbehörde für „sehr große Plattformen“ (VLOPs).

Die weiteren der heute vorgestellten Ergebnisse betreffen nur Instagram und Facebook. Die Meldewege seien zu kompliziert, sagte eine Kommissionsbeamtin heute in einem Pressebriefing. Wenn Nutzende auf den Plattformen auf illegale Inhalte stoßen, etwa die Darstellung von Missbrauch oder Betrugsmaschen, sollen sie diese selbst möglichst einfach bei den Plattformen melden können. Der DSA will so die Nutzendenrechte stärken und ein System schaffen, das sich quasi “selbst reinigt”.

Manipulative Designs beim Meldeweg

Doch in der Realität sei der Weg so anspruchsvoll und lang, dass viele Nutzende die Meldungen abbrechen würden, heißt es aus der Kommission. Außerdem kämen hier manipulative Designs zum Einsatz. Das bedeutet, dass Meldewege etwa irreführend oder kompliziert gestaltet sind, zum Beispiel über schwer auffindbare Buttons oder unnötig viele Klicks.

In der Folge würden Inhalte nicht gemeldet, Plattformen also nicht darauf aufmerksam gemacht, und es könnten entsprechend auch keine Maßnahmen ergriffen werden, um die Inhalte zu entfernen. Hierzu hätten die Kommission viele Beschwerden erreicht. Es sei klar, dass Meta hier nachbessern müsse.

Darüber hinaus kritisiert die Kommission den Mechanismus zum Umgang mit Beschwerden zur Inhaltsmoderation. Wenn Plattformen Inhalte oder Accounts sperren, können sich betroffene Nutzende an die Plattformen wenden und Beschwerde einreichen. Allerdings laufe auch das bei Meta nicht zufriedenstellend ab, so die Kommission. Zum Beispiel sei es nicht möglich, in der Kommunikation mit den Plattformen Dokumente anzuhängen, um etwa zu beweisen, dass eine Facebook-Seite einem selbst gehöre. In der Konsequenz würden Beschwerden nicht beantwortet.

So geht es jetzt weiter

Meta und TikTok können nun die Dokumente der Kommission einsehen und schriftlich auf die Kritikpunkte antworten – etwas, das nach Einschätzung der Kommissionsbeamtin zwei bis drei Monate in Anspruch nehmen könne. Im nächsten Schritt soll es weitere Gespräche zwischen Kommission und betroffenen Unternehmen geben. Die Hoffnung der Kommission dabei ist, dass die Plattformen ihre Mechanismen anpassen und damit die Vorgaben des DSA erfüllen.

Sollte dies nicht passieren, könnte die Kommission abschließend feststellen, dass sich die Plattformen nicht an den DSA halten und eine Geldstrafe verhängen – in Höhe von bis zu sechs Prozent des jährlichen weltweiten Umsatzes. Auch dann hätten die Plattformen noch die Möglichkeit, diese Entscheidung vor Gericht anzufechten.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

400 Schulen besucht: Was Kinder im Netz erleben, und was Politik daraus lernen kann

Von: Sebastian Meineck

In seinem Buch „Allein mit dem Handy“ beschreibt Digitaltrainer Daniel Wolff lebhaft, was Kinder ihm beigebracht haben – über ihre Erlebnisse im Netz und ihre Angst vor den Eltern. Das Buch hebt die Debatte um Jugendmedienschutz auf ein neues Level. Eine netzpolitische Rezension.

Zwei Kinder, eines hat ein gelbes Smartphone in der Hand. Die Gesichter sind nicht zu erkennen.
Smartphones versprechen schier unendlichen Spaß (Symbolbild) – Alle Rechte vorbehalten IMAGO/Shotshop; Bearbeitung: netzpolitik.org

Kinder waren wir alle mal, auch wenn nicht alle eine digitale Kindheit hatten. Daran erinnert Autor Daniel Wolff die Leser*innen seines Buchs immer wieder, und er appelliert direkt an ihr Einfühlungsvermögen. „Stellen Sie sich bitte für einen Moment kurz vor, Sie wären heute noch mal jung“, schreibt er. „Würden Sie nicht auch versucht sein, unendlich viel Spaß und Anerkennung auf Social-Media-Plattformen zu suchen (und zu finden), die drei Viertel Ihrer Freunde täglich und nächtlich permanent nutzen?“

Das Zitat ist ein gutes Beispiel für die besondere Perspektive des Buchs. Als Digitaltrainer ist Wolff durch Hunderte Schulen gereist, darunter Grundschulen und weiterführende Schulen. Er hat mit Kindern, Jugendlichen, Eltern und Lehrer*innen gesprochen. Anschaulich gibt er wieder, wie Kinder etwa über Grusel-Videos oder aufdringliche Pädokriminelle erzählen. Über verlockende Smartphone-Spiele, die einem förmlich das Geld aus der Tasche ziehen; und über Tricks, um heimlich mit dem Handy im Bett die Nacht durchzumachen.

Die Wirren der Digitalgesetzgebung kümmern ihn ebenso wenig wie akademische Forschungsdesigns. „Ich bin kein Wissenschaftler, sondern Pragmatiker“, schreibt Wolff, und das merkt man seinem Buch an. Er teilt seine Erfahrungen aus dem direkten Austausch mit vielen Kindern und Eltern, und füllt damit eine wichtige Lücke in der Debatte um Jugendmedienschutz.

Sein Buch zeigt, wie die Mühen von Gesetzgebern und Aufsichtsbehörden oftmals weit entfernt von dem sind, was Kinder und Eltern in ihrem Alltag beschäftigt. Während Politiker*innen weltweit vor allem auf technische Lösungen hoffen, macht Wolff mit Nachdruck klar: Ohne intensive Anstrengungen von Eltern wird das nichts.

Einerseits kommt diese Rezension spät, denn das Buch ist bereits 2024 erschienen. Zugleich könnte sie kaum aktueller sein, denn Anfang September hat das Familienministerium eine neue Expert*innen-Kommission einberufen. Ein Jahr lang soll sie Empfehlungen entwickeln, um Kinder und Jugendliche im Netz besser zu schützen. Dabei sollen Fachleute aus mehreren Disziplinen zusammenkommen.

Auch diese Rezension will Verknüpfungen herstellen. Sie rückt acht im Buch besprochene Probleme in den Mittelpunkt und stellt die Frage: Was lässt sich daraus netzpolitisch lernen?

1. Smartphones fressen Schlafenszeit

🚧 Das Problem: Auf seiner Tour durch deutsche Schulen ist Digitaltrainer Wolff vielen auffällig müden Kindern begegnet. Er beschreibt ihre Augenringe, teils schon in dritten Klassen. Lehrkräfte und Eltern würden von „zunehmend unausgeschlafenen, fahrigen und/oder aggressiven Kindern“ berichten. Der mutmaßliche Grund: Mehr als die Hälfte der deutschen Kinder von 6 bis 13 Jahren würden ein Smartphone mit ins Bett nehmen.

„Vielen Eltern scheint nicht einmal im Ansatz klar zu sein, dass Kinder ein Gerät mit einem extrem hohen Aufforderungscharakter wie ein modernes Smartphone, das sich in ihrem Schlafzimmer befindet, tatsächlich nachts auch nutzen!“, schreibt Wolff. Kinder und Jugendlichen ein Smartphone mit ins Bett zu geben sei die mit Abstand „schädlichste Idee“ der Elterngeneration. In fast jeder Grundschule hätten bereits einzelne Kinder die Nacht vor einem neuen Schultag im Internet durchgemacht.

Wolffs Fazit:

Mit einer einzigen konzertierten Maßnahme könnten wir mit einem Schlag in kürzester Zeit den Bildungsstandard und alle schulischen Leistungen in ganz Deutschland positiver beeinflussen als mit allen milliardenschweren Schulreformen zusammen: KEIN SMARTPHONE INS KINDERBETT! Ausgeschlafene Kinder sind fröhlicher, konzentrierter, friedfertiger, freundlicher – und leistungsfähiger!

Damit das funktioniert, empfiehlt der Digitaltrainer, dass die ganze Familie mitmacht. „Keiner in der Familie nutzt abends nach dem Zähneputzen noch digitale Geräte – und morgens vor dem Zähneputzen auch nicht!“ Die Handys könnten in dieser Zeit etwa in ein Familienladegerät kommen, das an einem zentralen Punkt in der Wohnung steht.

🧭​ Die netzpolitische Perspektive: Aktuell kreist die Debatte in Politik und Nachrichtenmedien vor allem um Handys in der Schule und um soziale Medien. Es geht um Gesetze und Kontrollen. Wie eine Familie nachts mit ihren Handys umgeht, hat damit zunächst wenig zu tun. Das Beispiel zeigt aber: Jugendmedienschutz wird mit Gesetzen und Schulverboten allein nicht funktionieren. Man muss alles in den Blick nehmen, was Kinder mit ihren Handys machen. Wenn es um Schlafmangel geht, ist auch die Debatte um einen späteren Schulbeginn relevant, der einem gesunden Schlafrhythmus näher käme.

2. Messenger-Gruppen mit Kindern explodieren

WhatsApp-Sticker mit süßen Katzen
Dieses Paket mit WhatsApp-Stickern verzeichnet mehr als 2,8 Millionen Downloads. - Alle Rechte vorbehalten Screenshot: getstickerpack.com

🚧 Das Problem: Schon wenn die Schüler*innen einer Klasse nur miteinander einen Messenger nutzen, ist Jugendmedienschutz gefragt. Wolff berichtet von sprudelnden Nachrichten im Klassenchat, oftmals Sticker und Emojis. Hunderte Nachrichten pro Tag in fünften und sechsten Klassen, Tausende in siebten und achten Klassen, auch in der Nacht. „Selbst wenn wir Erwachsenen eine solche Nachrichtenflut innerhalb weniger Stunden nicht kennen – tut es so gut wie jeder Siebtklässler!“, schreibt Wolff.

Der meistgenutzte Messenger sei WhatsApp. „Ich habe noch keine Schule kennengelernt, bei der die Klassenchats am Ende nicht doch im Wesentlichen über WhatsApp gelaufen sind“, schreibt Wolff. Durch Klassenchats entstehe ein „nie endender 24-Stunden-Schultag“. Ab dem ersten Klassenchat werde WhatsApp „gefühlt sozial so unverzichtbar, dass nahezu alle Kinder unbedingt ein Smartphone haben wollen. Aus ihrer Sicht: müssen.“

Die Beschreibungen des Digitaltrainers zeigen: Klassenchats sind wie ein belebter Schulhof, aber die Große Pause auf diesem virtuellen Hof dauert den ganzen Tag. Und es sind meist keine Erwachsenen in Sicht. „Meiner ganz persönlichen, sehr groben Einschätzung nach findet etwa 70 Prozent des Cybermobbings an deutschen Schulen auf WhatsaApp statt“, warnt Wolff. Die letzten, die davon etwas mitbekämen, seien oft die Eltern.

Er rät deshalb zum engen Kontakt zwischen Eltern und Kindern, und zwar von Anfang an. „Erlauben Sie Ihrem Kind WhatsApp nur, wenn Sie bei Bedarf mitlesen dürfen“, schreibt er. Zum Beispiel könne man sagen:

Ich werde das nicht tun, um dich zu kontrollieren, sondern um dich zu schützen, weil ich als dein Elternteil auch im Internet verantwortlich für dich bin, solange du noch ein Kind bist. Ich werde dir aber immer vorher Bescheid sagen, immer mit dir gemeinsam reinsehen – und niemals alleine.

Das hätte sogar einen Effekt auf den ganzen Klassenchat. „Wenn in einer Klasse bekannt ist, dass es Eltern gibt, die ab und zu mal in den Klassenchat reinsehen, tauchen wundersamerweise von vornherein weder brutale Sachen dort auf – noch gruselige, eklige, nackige oder politisch zweifelhafte!“, schreibt Wolff.

🧭​ Die netzpolitische Perspektive: Die politische und mediale Debatte um Jugendmedienschutz beschreibt oftmals Gefahren von Außen, etwa durch schädliche Inhalte oder Kontaktaufnahme durch Fremde. Die damit verbundene Hoffnung ist, dass sich die meisten Gefahren durch Abschottung der Kinder mit technischen Mitteln abwenden lässt.

Dabei geriet zuletzt in den Hintergrund, was Kinder und Jugendliche erleben, wenn sie schlicht untereinander online kommunizieren. Wie der genutzte Messenger heißt oder welche Altersfreigabe er hat, ist dafür zweitrangig. Für dieses konkrete Szenario sind vor allem Eltern oder Aufsichtspersonen gefragt.

3. Kinder testen mit Gewalt und Horror ihre Grenzen

🚧 Das Problem: Ob aus Neugier oder Gruppendruck, als Mutprobe oder durch den Reiz des Verbotenen – Kinder suchen und finden mit dem Smartphone Inhalte für Erwachsene, etwa Horror und Grusel. „Gewaltdarstellungen sind auf Kinder-Smartphones unvermeidbar“, hält Digitaltrainer Wolff fest. Er schreibt:

In den 3. und 4. Klassen heben bei der Frage: ‚Habt ihr schon einmal etwas so Grausames, Blutiges oder Brutales gesehen, dass ihr nicht mehr schlafen konntet?‘, fast immer alle Kinder, die bereits ein eigenes Smartphone besitzen, die Hand.

Wer danach sucht, finde solche Videos auch auf YouTube und TikTok. Hinzu kommen Websites mit Sitz im Ausland, die gezielt verstörende Inhalte verbreiten. „Kinder, die WhatsApp auch in größeren Gruppen wie Klassenchats nutzen, können jederzeit Links für extrem brutale, grausame oder gruselige Videos geschickt bekommen“, warnt Wolff.

Der Digitaltrainer empfiehlt etwa YouTube nur in Hörweite der Eltern zu schauen. Allerdings rät Wolff auch: „Bereiten Sie Ihr Kind auf das Unvermeidliche vor“. Eltern sollten vorher über die vielen „schlimmen“ Sachen sprechen, die es gebe. „Dann ist Ihr Kind vorbereitet und weiß, dass Sie im Falle eines Falles ein kompetenter Ansprechpartner sind!“

🧭​ Die netzpolitische Perspektive: In Politik und Nachrichtenmedien werden vor allem Maßnahmen wie Filter und Alterskontrollen diskutiert. Sie sollen es Kindern schwerer machen, potenziell schädliche Inhalte zu finden. Dabei wird unterschätzt, wie gezielt Kinder solche Inhalte suchen, weil die Anreize dafür so stark sind, etwa Neugier und Gruppendruck. Deshalb muss Teil der Lösung sein, möglichst viele Kinder für das – wie Wolff es nennt – „Unvermeidbare“ zu rüsten.

4. Wo „für Kinder“ draufsteht, ist nicht „für Kinder“ drin

Eine animierte Figur wird zum Zombie und wirkt entsetzt.
Screenshot eines Videos, das wir auf YouTube Kids gefunden haben. Eine Figur wird zum Zombie, betrachtet entsetzt ihre kreidebleichen Hände und wimmert, während ihre Augen unkontrolliert umherrollen. Altersstufe: bis 4 Jahre. - Alle Rechte vorbehalten Screenshot: YouTube Kids

🚧 Das Problem: Online-Angebote mit Labels wie „ab 0 Jahren“ oder „ab 6 Jahren“ sind trügerisch. So würden zunächst kinderfreundliche Spielen oftmals nicht kinderfreundliche Werbeclips anzeigen, schreibt Wolff, darunter rassistische Werbung. „Hunderttausende Spiele-Apps spülen täglich millionenfach minderwertigen Mist auf die Bildschirme unserer Kinder“, kritisiert er.

Ein Knackpunkt ist die schiere Masse an Inhalten, wie aus dem Buch hervorgeht – und der mangelnde Wille, das angemessen zu prüfen. Zum Beispiel würden sogar auf einer dezidiert für Kinder vermarkteten Plattform wie YouTube Kids Inhalte landen, die nicht für Kinder geeignet sind. Das konnte netzpolitik.org mühelos bestätigen: Das oben abgebildete Zombie-Grusel-Video erschien über Empfehlungen auf YouTube Kids, selbst bei der niedrigsten Altersstufe bis 4 Jahre.

Möglich ist so etwas, weil große Plattformen die Massen an neuen Inhalten oftmals nur flüchtig prüfen, etwa anhand von Stichworten, auch wenn Uploads als kindgerecht gekennzeichnet wurden. Das ist kein Vergleich zur sorgfältigen, händischen Kuratierung von Sendungen, die etwa im klassischen Kinderfernsehen zu sehen sind.

🧭​ Die netzpolitische Perspektive: Schon jetzt gibt es Rechtsgrundlagen, die Plattformen zur Risikominderung für Minderjährige verpflichten, etwa das Gesetz über digitale Dienste (DSA). Das könnte etwa über Empfehlungssysteme oder Inhaltsmoderation passieren. Das Gesetz ist allerdings recht neu; die dazu gehörigen Aufsichtsbehörden nehmen erst langsam ihre Arbeit auf. Weil sorgfältiger Umgang mit hochgeladenen Inhalten teuer ist, dürften sich Online-Konzerne gegen alles wehren, das Geld kostet.

5. Die Sogwirkung optimierter Feeds ist unwiderstehlich

🚧 Das Problem: Werbefinanzierte Plattformen wie TikTok, Instagram oder YouTube haben ein Interesse daran, die Aufmerksamkeit ihrer Nutzer*innen zu binden. Mehr Nutzungszeit bedeutet mehr Werbung und mehr Geld. Inhalte, Features, Oberflächen und Algorithmen werden dahingehend optimiert. Digitaltrainer Wolff vergleicht etwa TikTok mit einem „Trommelfeuer der Sensationen“.

Mit Blick auf YouTube schreibt der Autor:

Stellen Sie sich aus Kindersicht einen Bildschirm mit einer Million Programmen vor, auf dem ganz einfach immer was Spannendes und Lustiges läuft! Und das Beste: Man kann diesen Bildschirm auch noch in die Hose stecken und dann heimlich auf dem Klo oder im Bett weitergucken!

Umso stärker sind die Anreize für Kinder und Jugendliche, das Gerät möglichst intensiv zu nutzen. Eltern rät Wolff: „Schaffen Sie Alternativen für Ihr Kind!“, also Aktivitäten, bei denen digitale Geräte stören.

🧭​ Die netzpolitische Perspektive: Die enorme Sogwirkung algorithmisch sortierter Feeds hat die EU-Kommission bereits auf dem Schirm, etwa in den Leitlinien zum Schutz von Minderjährigen auf Basis des Gesetzes über digitale Dienste (DSA). Demnach müssen Dienste Maßnahmen ergreifen, um Risiken zu mindern, zum Beispiel: kein unendliches Scrollen in einem Feed; keine Push-Benachrichtigungen, entschärfte Empfehlungssysteme. Auch in diesem Fall sind also Werkzeuge für Aufsichtsbehörden vorhanden, aber die Durchsetzung rollt erst an. Tech-Konzerne werden ihre finanziellen Interessen schützen wollen und sich dagegen wehren.

Die EU-Kommission sieht den Widerstand kommen. „Wenn es um die Sicherheit unserer Kinder im Internet geht, glaubt Europa an Eltern, nicht an Gewinne“, behauptete jüngst Kommissionspräsidentin Ursula von der Leyen (CDU) in ihrer Rede zur Lage der Union, in der sie vor allem Alterskontrollen befürwortete. In anderen Bereichen wie Datenschutz oder KI-Regulierung gibt es immer wieder Beispiele dafür, dass sich Lobby-Interessen am Ende doch durchsetzen.

6. Handy-Spiele nutzen alle Tricks, um an Taschengeld zu kommen

Video-Uploads auf YouTube zu BrawlStars
Viele Kinder lieben Brawl Stars. Auf YouTube heizen Brawl-Stars-Influencer zusätzlich den Kommerz an. - Alle Rechte vorbehalten Screenshot: YouTube/ LukasBS

🚧 Das Problem: Begeisterte Kinder und Jugendliche lassen bei Anbietern von Smartphone-Spielen die Kassen klingeln. Per In-App-Kauf können Nutzer*innen zum Beispiel häufiger gewinnen oder seltene, virtuelle Gegenstände erwerben. Das ist für Kinder und Jugendliche nicht nur verlockend, weil es Spaß macht, sondern auch, weil es soziale Anerkennung bringt. „Vor allem für die Jungs wird es sehr schnell sehr kompetitiv, weil alle anderen immer sehen können, wie viel und wie gut man in letzter Zeit so gespielt hat“, schreibt Digitaltrainer Wolff.

Wenn sie dürfen oder können, machen manche Kinder ihr Lieblingsspiel „zum absoluten Lebensmittelpunkt“, schreibt Wolff. „Es gibt dann nichts anderes mehr auf der Welt als Brawl Stars (sehr beliebt in den Klassen 3 bis 7) oder Fortnite (meist ab den 5. Klassen aufwärts).“ Bereits Grundschulkinder würden Hunderte Euro für Smartphone-Games ausgeben.

Dabei würden Anbieter an allerlei Tricks nutzen, damit Kinder das Handy nicht mehr weglegen wollen und möglichst viel Geld ausgeben. Zum Beispiel Glücksspiel-ähnliche Lootboxen, also virtuelle Geschenkkartons, die man für echtes Geld kaufen muss. Meist ist nichts Interessantes drin, selten aber schon. Hinzu kommen manipulative Aufforderungen wie „Schnell dieses Special-Angebot kaufen: NUR HEUTE gibt es noch 45 Extra-Diamanten zum Preis von 10“, schreibt Wolff.

Die Gaming-Branche ist inzwischen das größte Segment der Unterhaltungsindustrie, noch vor Musik oder Filmen. Ein Teil der Einnahmen dürfte von Eltern kommen, die damit ihre Kinder glücklich machen wollen – oder einfach nur ruhigstellen. Wolff schlussfolgert:

Wir haben zugelassen, dass eine völlig unregulierte milliardenschwere Industrie mit allen Psycho-Tricks der Welt den Wunsch unserer Kinder nach Anerkennung industriell monetarisiert und täglich millionenfach aberntet – und haben noch nicht einmal begriffen, dass und wie das passiert.

🧭​ Die netzpolitische Perspektive: Abzocke und Manipulation durch Handy-Spiele ist in der öffentlichen Debatte um Jugendmedienschutz selten Thema. Dabei schadet das auch erwachsenen Gamer*innen. Mühen beispielsweise zur Regulierung von Lootboxen gibt es seit Jahren, allerdings mit wenig Erfolg. Zumindest im Gesetz über digitale Dienste (DSA) gibt es Ansätze, manipulative Designs bei Diensten einzudämmen.

Wie groß ist wohl der politische Wille, am Finanzierungsmodell einer Milliardenindustrie wie der Gaming-Branche zu rütteln? Eine Gelegenheit hätte die EU-Kommission: Mit dem geplanten Digital Fairness Act will sie Lücken im Online-Verbraucherschutz schließen.

7. Kinder haben Angst vor der Reaktion ihrer Eltern

🚧 Das Problem: „Millionen Kinder der Welt verschweigen eisern, was ihnen online tags und nachts so begegnet“, schreibt Digitaltrainer Wolff. „Die Eltern wiederum leben fröhlich vor sich hin und glauben, dass es bei der Internetnutzung ihrer Kinder keine wesentlichen Probleme gäbe“.

Der Grund für das Schweigen ist Wolff zufolge simpel: Kinder wollen ihr Smartphone behalten. Sie befürchten, dass Eltern ihnen das Gerät wegnehmen, wenn sie erfahren, welche schlimmen Dinge damit passiert sind. Wegnehmen aber ist aus Sicht der Kinder und Jugendlichen „die gefühlt härteste Strafe im digitalen Zeitalter“.

Wolff rückt hier etwas in den Mittelpunkt, das in Debatte um Jugendmedienschutz selten zur Sprache kommt: Vertrauen. „Denn nur wenn Ihr Kind Ihnen vertrauen kann, wird es sich eines Tages an Sie wenden – wenn es dagegen Angst vor Strafen oder Handy-Verbot hat, so gut wie nie“, schreibt Wolff. Deshalb appelliert er eindringlich an Eltern: „Teilen Sie Ihrem Kind möglichst frühzeitig (am besten schon bei der Handy-Übergabe) mit, dass Sie ihm das Smartphone wegen Inhalten aus dem Internet nicht wegnehmen werden.“

🧭​ Die netzpolitische Perspektive: Maßnahmen zum Jugendmedienschutz werden oftmals mit Blick auf die verschiedenen Grundrechte von Kindern und Jugendlichen diskutiert, etwa den Schutz vor entwicklungsbeeinträchtigenden Inhalten, Teilhabe, Privatsphäre und Datenschutz. Kaum diskutiert wird aber, wie sich das Vertrauensverhältnis zwischen Kindern und ihren Aufsichtspersonen bewahren und stärken lässt.

Relevant ist das gerade mit Blick auf das derzeit vieldiskutierte Social-Media-Verbot für Minderjährige. Ein solches Verbot könnte bewirken, dass Kinder die verbotenen Dienste heimlich weiternutzen – und entsprechend noch höhere Hürden sehen, sich bei Problemen vertrauensvoll an Erwachsene zu wenden. Immerhin müssten sie dann zugeben, dass sie etwas Verbotenes gemacht haben. Maßnahmen zum Jugendmedienschutz müssten sich daran messen lassen, was sie für das Vertrauen zwischen Kindern und Eltern bedeuten.

8. Digitale Medienerziehung ist harte Arbeit

🚧 Das Problem: Es gibt keine einfache technische Lösung für Jugendmedienschutz. „Stellen Sie sich darauf ein, dass die Einhaltung von Medienzeiten eine Ihrer zentralen Erziehungsaufgaben in den nächsten Jahren sein wird“, schreibt Digitaltrainer Wolff. „Es wird anstrengend, nervig und jeden Tag erneut ermüdend sein. Sie werden schreien, Ihr Kind wird weinen und/oder Sie hassen. Und es wird sich lohnen – alleine schon, weil es keine Alternative gibt!“

Zum Beispiel sollten sich Eltern ausführlich die Zeit für einen Mediennutzungsvertrag nehmen, bevor sie ihrem Kind ein Handy geben, rät Wolff. Vorlagen für dieses oftmals mehrseitige Dokument gibt es online. „Ja, einen Mediennutzungsvertrag auszuarbeiten ist aufwendig, mühsam und anstrengend“, schreibt er. „Aber: Wenn Sie keine klaren Regeln haben, wird es in den nächsten Jahren garantiert noch aufwendiger, mühsamer und anstrengender!“

🧭​ Die netzpolitische Perspektive: Weinende Kinder, die ihre schreienden Eltern hassen – solche Bilder zeichnen Politiker*innen nicht, wenn sie etwa Alterskontrollen fordern. Wer will sich schon gern sagen lassen, dass etwas „aufwendig, mühsam und anstrengend“ wird? Stattdessen stehen technische Maßnahmen im netzpolitischen Fokus, und zwar solche, die Sorgenfreiheit versprechen. Gegen sexualisierte Gewalt soll die Chatkontrolle helfen, also die Massenüberwachung vertraulicher Kommunikation. Gegen schädliche Inhalte sollen Alterskontrollen helfen, also das massenhafte Abfragen von Ausweisdaten und biometrischen Daten.

Aus dem Blick gerät dabei die zentrale Rolle von Eltern und Aufsichtspersonen. Hier fällt häufig das Argument, man könne den ohnehin überlasteten Eltern nicht noch mehr zumuten. Doch auch hier gibt es politische Ansätze. Wie viel möchte der Staat tun, um Eltern mehr Zeit und Energie für ihre Kinder zu gewähren – etwa durch mehr Kindergeld oder Regelungen für flexiblere Arbeitszeiten? Im Vergleich dazu sind Gesetze für mehr Überwachung und Kontrolle im Netz billig zu haben – und leider oft wertlos.

Und jetzt? Ein Ausblick

Auch Digitaltrainer Wolff nennt in seinem Buch konkrete, politische Ideen. „Was aus meiner Sicht alle Schulen baldmöglichst einführen sollten, ist ein ‚echtes‘ Smartphone-Verbot“, schreibt er. Genau das wird gerade kontrovers diskutiert – unter anderem das Kinderhilfswerk und der Bundeselternrat sind gegen pauschale Verbote. Stattdessen sollten Schüler*innen, Lehrer*innen und Eltern gemeinsame Regeln entwickeln.

Weiter plädiert Wolff in seinem Buch für eine verpflichtende Altersverifikation bei Social-Media-Plattformen. Fachleute aus den Bereichen Kinderschutz und digitale Grundrechte sehen das allerdings kritisch. Die Kritik reicht von der Warnung, dass Alterskontrollen allenfalls ein Baustein sein können bis hin zur generellen Ablehnung. Ein Problem: Solche Kontrollsysteme stellen nur eine trügerische Sicherheit her; zugleich schaffen sie neue Gefahren für Minderjährige und für Erwachsene, die sich massenhaft online verifizieren müssten.

Schließlich spricht sich Wolff für ein Schulfach „Digitalität“ aus. Zu viele Eltern würden sich dem Thema Medienkompetenz verweigern; die Erziehungsaufgabe bliebe an den Schulen hängen. Einen Blick auf Schulen hat auch die Wissenschaftsakademie Leopoldina in einem aktuellen Diskussionspapier geworfen. Demnach fehle es nicht an Materialien, sondern an Fachpersonal, Zeit und Fortbildungsmöglichkeiten.

Die Suche nach netzpolitischen Lösungen ist ein Thema für sich. „Allein mit dem Handy“ geht hier nicht in die Tiefe. Stattdessen überzeugt das Buch durch eine umfassende Problembeschreibung. Das gelingt, weil der Autor immer wieder die Perspektive einbringt, die er von den Kindern und Jugendlichen gelernt hat. Zum Beispiel, dass man auf das Thema Spaß nie verzichten sollte:

Wenn Sie mit Kindern und/ oder Jugendlichen über Smartphones und das Internet sprechen und dabei nicht auch über Spaß reden, hören sie Ihnen schon nach kürzester Zeit überhaupt nicht mehr zu!


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Berliner Datenmarktplatz „Datarade“: Das gefährliche Geschäft mit Standortdaten geht weiter

Von: Sebastian Meineck · Ingo Dachwitz

Vor einem Jahr erhielten wir einen Datensatz mit Milliarden Handy-Standortdaten aus Deutschland, vermittelt über einen Berliner Datenmarktplatz. Politiker*innen warnten vor einer Gefahr für die nationale Sicherheit. Neue Recherchen zeigen, wie der Marktplatz dem Geschäft weiter eine Plattform bietet.

Ein Einkaufskorb mit Standortdaten darin. Eine Hand greift danach.
Angepriesen. (Symbolbild) – Korb: Pixabay; Nebel: Vecteezy; Montage: netzpolitik.org

Exakte Standortdaten von Millionen Handys weltweit lassen sich einfach online kaufen. Datenhändler verschleudern sie sogar als Gratis-Kostprobe. Bereits diese kostenlosen Datensätze sind so umfangreich, dass sich damit Massenüberwachung betreiben lässt. Das haben unsere bisherigen Recherchen zu den Databroker Files mit dem Bayerischen Rundfunk gezeigt. Aus den Daten lassen sich teils detaillierte Bewegungsprofile ablesen, sogar von Soldat*innen oder Politiker*innen.

Wer Kontakt zu Händlern, also Databrokern sucht, wird auf dem Online-Marktplatz eines Berliner Unternehmens fündig: Datarade.ai. Der Marktplatz verkauft die Daten zwar nicht selbst, verkuppelt aber Anbieter und Interessierte. Das funktioniert ähnlich wie Amazon, nur eben für Datensätze. Für erfolgreiche Deals streicht der Marktplatz eine Provision ein.

Vermittelt über Datarade haben nicht nur wir sensible Handy-Standortdaten von Databrokern erhalten, sondern auch Journalist*innen aus den Niederlanden, der Schweiz und Belgien, und zwar unabhängig voneinander. Das hat im Jahr 2023 geklappt, im Jahr 2024 – und trotz der kritischen Berichterstattung in zahlreichen Medien war es auch noch 2025 möglich.

Das Problem: Der Handel mit derart detaillierten Handy-Standortdaten ist nach Einschätzung von Fachleuten nicht mit der Datenschutzgrundverordnung (DSGVO) vereinbar. Zudem haben Bundestagsabgeordnete wie Konstantin von Notz (Grüne) oder Roderich Kiesewetter (CDU) bereits vergangenes Jahr vor einer Gefahr für die nationale Sicherheit gewarnt.

Datarade wollte „alle zumutbaren Anstrengungen“ unternehmen

Und was tut Datarade? Noch vor gut einem Jahr hatte uns der Berliner Marktplatz mitgeteilt, man nehme die von unseren Recherchen ausgelösten, öffentlichen Bedenken „sehr ernst“. Die Angebote auf der Plattform prüfe das Unternehmen zwar nicht einzeln. „Eine Verpflichtung zur proaktiven Sichtung sämtlicher Inhalte auf mögliche Rechtsverletzungen ist weder praktisch möglich noch gesetzlich geboten.“ Dennoch unternehme Datarade „alle zumutbaren Anstrengungen, um rechtswidrige Inhalte auf der Plattform von Vornherein zu verhindern“.

Ein Jahr später haben wir uns nochmal auf dem Marktplatz umgeschaut. Unsere neue Recherche weckt Zweifel daran, dass Datarade „alle zumutbaren Anstrengungen“ unternimmt. So preiste Datarade in einem eigenen, redaktionellen Beitrag selbst Handy-Standortdaten an, schrieb über die daraus ablesbaren, sehr genauen Bewegungsmuster – und empfahl passende Händler. Als wir per Presseanfrage mehr zu der Seite erfahren wollten, wurde sie offline genommen.

Bereits 2024 warnte die damals kurz vor ihrem Amtsantritt stehende Bundesdatenschutzbeauftragte, Louisa Specht-Riemenschneider, vor einer Regulierungslücke. Auch die zuständige Berliner Datenschutzbeauftragte sah ein Problem: Solange ein Marktplatz die Daten nicht selbst verarbeitet, sondern nur Kontakte zwischen Käufern und Verkäufern herstellt, habe sie keine Handhabe. Verantwortlich nach der DSGVO sei nur jemand, der selbst auch Daten verarbeitet.

Unter Datenschützer*innen gibt es in dieser Frage keine Einigkeit. Das Netzwerk Datenschutzexpertise etwa kam in einem Gutachten aus dem Frühjahr 2025 zu dem Schluss, dass die DSGVO hier sehr wohl anwendbar sei. Um verantwortlich zu sein, müsse ein Datenmarktplatz nicht notwendigerweise selbst in Besitz der Daten sein. Oft sei der Handel mit personenbezogenen Daten sogar strafbar, weshalb nicht nur Datenschutzbehörden, sondern auch Staatsanwaltschaften handeln müssten.

Passiert ist so etwas bisher nicht. Auf Datarade preisen Händler weiterhin ihre Handy-Standortdaten an. In Datarade selbst steckt sogar Geld vom deutschen Staat, und zwar mehr als bisher angenommen. Dazu später mehr.

Auf Anfrage entfernte Datarade Angebote für Handystandortdaten

Nach unseren Veröffentlichungen im Jahr 2024 hatte Datarade ein Angebot für Handystandortdaten des US-Datenhändler Datastream Group offline genommen. Hierzu schrieb das Unternehmen: „Vorsorglich haben wir die betreffenden Inhalte des Datenanbieters in Bezug auf Standortdaten von unserer Plattform entfernt, bis weitere Erkenntnisse in der Angelegenheit vorliegen.“

Davon unberührt waren jedoch ähnliche Angebote von anderen Datenhändlern. Auch nach Veröffentlichung der Recherchen präsentierte Datarade Angebote von ähnlichen Datensätzen. Suchte man etwa Anfang September dieses Jahres auf Datarade nach Angeboten mit Geo-Koordinaten und mobilen Werbe-IDs, erhielt man rund 50 Ergebnisse. Grenzte man die Suche weiter ein auf Daten aus Deutschland, waren es noch 15 Treffer.

Über ein Online-Formular können Nutzer*innen verdächtige Inhalte melden. Genau das haben wir ausprobiert. Für eine solche Meldung müssen Nutzer*innen Namen und E-Mail-Adresse angeben. Um das Ergebnis nicht zu verfälschen, hat ein Kollege ohne erkennbare Verbindung zu netzpolitik.org diese Meldungen vorgenommen. Es handelte sich um insgesamt fünf Angebote von Handystandortdaten aus Deutschland oder der EU. Das Ergebnis: Die Angebote waren weniger als zwei Wochen nach Eingang der Meldungen offline.

Auf Presseanfrage teilt Datarade mit: „Die Produkt-Listungen wurden vorsorglich offline genommen, um den Hinweisen nachzugehen.“ Man gebe den Anbietern nun die Möglichkeit, Stellung zu beziehen.

So preist Datarade selbst Handy-Standortdaten an

Hatte Datarade vor unseren Meldungen wirklich keine Kenntnis über diese Angebote? Zumindest einen Überblick dürfte Datarade gehabt haben. Es gab nämlich die bereits erwähnte von Datarade selbst bereitgestellte Infoseite mit dem Titel „Was sind Handy-Standortdaten“ (im Original: „What is Mobile Location Data?“), die nach unserer Presseanfrage offline genommen wurde.

Auf dieser Seite beschrieb ein Datarade-Mitarbeiter im Detail, wie solche Datensätze aufgebaut sind: mit GPS-Koordinaten und individueller Werbe-ID, der sogenannten MAID („mobile advertising ID“). Vorschaufenster auf der Seite präsentieren mehrere passende Angebote von Datenhändlern, etwa als „Ausgewählte Datensets“. Anhand kleiner Flaggen-Emojis in den Angeboten ließ sich ablesen, woher die Daten kommen, auch mehrere Deutschland-Flaggen waren zu sehen.

Übersetzt aus dem Englischen stand auf der Infoseite, viele Datensätze böten eine hohe GPS-Genauigkeit, „wodurch sichergestellt wird, dass die von Ihnen erhaltenen Daten den realen Standorten und Bewegungsmustern sehr genau entsprechen“. Einige Datensätze würden sogar eine Präzision von unter 19 Metern erreichen, „was besonders nützlich sein kann, wenn Sie sehr detaillierte Einblicke benötigen“.

An einer anderen Stelle der Infoseite hieß es: „Manche Menschen fühlen sich möglicherweise unwohl dabei, wenn ihre Standortdaten gesammelt und für kommerzielle Zwecke verwendet werden.“ Das ist korrekt, wie die Reaktionen auf unsere Recherchen zeigen. Eine Betroffene sagte zum Beispiel im Gespräch mit netzpolitik.org:

Von mir wurden mehrere Standortdaten in meinem Kiez erfasst. Das ganze macht mich etwas sprachlos und schockiert mich. Ich hätte mir nicht vorstellen können, dass das in diesem Ausmaß möglich ist.

Und der Bundestagsabgeordnete Konstantin von Notz (Grüne) sagte 2024 mit Blick auf den Handel mit Handy-Standortdaten: „Diese Daten dürfen in der Form nicht erhoben und dann auch nicht verkauft werden.“ Dass etwas passieren müsse, stehe für ihn völlig außer Frage. „In diesem konkreten Fall widerspricht das den Sicherheitsinteressen der Bundesrepublik Deutschland.“

Warum Handel mit Standortdaten fast immer DSGVO-widrig ist

Auf potenzielle Bedenken beim Handel von Handy-Standortdaten ging die Datarade-Infoseite selbst ein. Dort hieß es auf Englisch:

Es gibt mehrere verbreitete Missverständnisse über mobile Standortdaten, darunter die Annahme, dass sie immer genau seien und dass man damit Personen ohne deren Wissen oder Zustimmung verfolgen könne. In Wirklichkeit kann die Genauigkeit mobiler Standortdaten je nach Qualität der Datenquelle und der verwendeten Technologie variieren. Darüber hinaus ist das Sammeln und Nutzen von Standortdaten ohne Zustimmung sowohl illegal als auch unethisch.

Drei Aspekte an diesem Zitat verdienen besondere Aufmerksamkeit: Es ist erstens korrekt, dass Handy-Standortdaten nicht immer genau sind. Unsere Recherchen haben gezeigt, dass Händler auch ungenaue Standortdaten verbreiten.

Es ist zweitens allerdings kein „Missverständnis“, dass sich mit diesen Daten „Personen ohne deren Wissen oder Zustimmung verfolgen“ lassen. Gemeinsam mit unseren Recherche-Partnern konnten wir in mehreren Fällen sogar Angehörige von Geheimdiensten und Regierungen vom Arbeitsplatz bis hin zu ihren Privatwohnungen tracken. Die Kolleg*innen aus Norwegen konnten sogar einen verdutzten Grindr-Nutzer zuhause besuchen, der nicht geoutet werden wollte.

Mehrere Betroffene sagten uns im Gespräch, ihnen sei nicht bewusst, einer solchen Art von Tracking zugestimmt zu haben. Zum Beispiel Hedi aus Bayern, die sagte:

Es ist beklemmend, wenn ich mir das so anschaue; die Punkte, wo ich war. Das geht niemandem was an. Und ich habe das ja nicht freigegeben.

Drittens ist der Handel mit Standortdaten nach Ansicht von Datenschutzbehörden und anderen Fachleuten oftmals selbst mit Einwilligung nicht von der DSGVO gedeckt. So werden die Daten zum einen oft angeblich nur für Werbezwecke erhoben; der Handel stellt also eine verbotene Änderung des Verarbeitungszwecks dar. Zum anderen fehlt es an Transparenz, denn Menschen müssten bei der Einwilligung umfassend informiert werden, an wen Händler Daten weitergeben. Deshalb sind die Einwilligungen oft unwirksam.

Datarade – geschickte Geschäfte im Graubereich

Hinzu kommt, dass sich aus Standortdaten oft sensible Informationen ableiten lassen, zum Beispiel über Besuche in spezialisierten Kliniken, bei Parteien und Gewerkschaften oder in religiösen Gebäuden. Solche Informationen sind durch die DSGVO besonders geschützt.

Die Beobachtungen auf dem Marktplatz Datarade werfen Fragen auf. Wieso hat die Plattform auf einer selbst verfassten Infoseite Angebote mit GPS-Daten angepriesen, die realen „Bewegungsmustern sehr genau entsprechen“ – nahm solche Angebote allerdings nach der Meldung durch einen Nutzer wieder offline?

Wir haben Datarade per Presseanfrage auf die Infoseite angesprochen. Wenig später war sie offline. „Wir nehmen Ihren Hinweis zum Anlass, die Kategorie-Seite redaktionell zu überprüfen und vorsorglich offline zu nehmen“, teilt das Unternehmen mit.

Diese Anstrengungen unternimmt Datarade nach eigenen Angaben

Datarade legt Wert darauf, zu betonen, selbst kein Datenanbieter zu sein, „sondern ein Verzeichnis von Datenanbietern und deren Produktkatalogen“. Weiter schreibt die Pressestelle auf unsere Fragen: „Datarade verurteilt jedweden rechtswidrigen Handel mit Daten und setzt sich für einen rechtskonformen Austausch von Daten ein.“

Demnach dürften sich auf Datarade nur registrierte Unternehmen anmelden. Anbieter würden sich vertraglich dazu verpflichten, nur rechtskonforme „Inhalte auf Datarade zu veröffentlichen“. Sie würden „angehalten“, ihre Datenschutz-Richtlinien zu verlinken und die Konformität mit Datenschutzbestimmungen zu bestätigen. Auf jeder Produktseite gebe es einen Link zum Melden von Inhalten; den Meldungen gehe man dem Digitale-Dienste-Gesetz entsprechend nach.

Wir wollten wissen, in welchem Ausmaß Datarade am mutmaßlich illegalen Geschäft mit Handy-Standortdaten mitverdient. Genauer gesagt: Wie viel Provision Datarade in den letzten drei Jahren durch über den Marktplatz vermittelte Deals mit Handy-Standortdaten erhalten hat. Diese Frage hat uns das Unternehmen nicht beantwortet. Stattdessen verwies die Pressestelle auf den allgemein gehaltenen Jahresabschluss, nach dem wir nicht gefragt hatten.

Zum Zeitpunkt der Veröffentlichung dieser Recherche gibt es auf Datarade noch immer mehrere Angebote für Handy-Standortdaten, die mit individuellen Werbe-IDs verknüpft sind. Sie lassen sich kinderleicht über die Suchfunktion auf der Plattform finden. Damit Datarade sie offline nimmt, müsste sie wohl erst jemand von außerhalb aktiv melden – und den Marktplatz regelmäßig auf neue Angebote prüfen.

Wir erinnern uns: Datarade unternimmt nach eigener Aussage „alle zumutbaren Anstrengungen, um rechtswidrige Inhalte auf der Plattform von Vornherein zu verhindern“.

So will Datarade neue Händler auf den Marktplatz locken

Im Zuge unserer Recherchen hatten wir uns auch selbst als potenzieller Anbieter für Ortsdaten bei Datarade registriert. Dafür haben wir eine E-Mail-Adresse mit Pseudonym genutzt – und nichts weiter unternommen. Seitdem erhalten wir regelmäßig E-Mails von Datarade. Daraus lässt sich ableiten, welche Mühen die Plattform unternimmt, um aktiv neue Datenhändler für sich zu gewinnen.

Mehrfach versuchte Datarade etwa, ein persönliches Gespräch mit uns – dem vermeintlich neuen Händler – zu vereinbaren. „Lass mich wissen, wenn du Daten zum Verkauf hast, dann können wir darüber nachdenken, sie auf den größten Datenmarktplätzen zu monetarisieren“, hieß es auf Englisch.

Es folgten weitere E-Mails von Datarade. Darunter eine, die versuchte, uns mit der Aussicht auf Umsatz zu locken. Demnach sollten wir lernen, wie ein anderer Anbieter von Standortdaten „Kunden in neuen Märkten erreicht hat“. Das Marktvolumen, also der Umsatz aller Akteur*innen am Markt, liege demnach bei 93 Millionen Euro.

Auch Tutorials erreichten uns. Sie handelten davon, wie wir unser Angebot für Datarade optimieren können. Demnach sollten wir unseren Produktkatalog per ChatGPT ausformulieren lassen. Einen passenden Prompt lieferte die Plattform gleich mit. Auf unserem Anbieterprofil sollte der Hinweis auf DSGVO-Compliance nicht fehlen, riet ein anderes Tutorial.

In den Datenmarktplatz floss mehr Steuergeld als bisher angenommen

Bereits 2024 konnten wir berichten, dass in Datarade auch Steuergeld steckt. Inzwischen wissen wir: Es ist noch mehr Geld als bisher bekannt.

Zunächst hatte der Datenmarktplatz im Jahr 2019 ein Investment in Höhe von einer Million Euro aus dem „High-Tech Gründerfonds“ (HTGF) erhalten. Das ist ein zentrales Instrument der deutschen Start-up-Förderung. Mehr als die Hälfte des 320 Millionen Euro schweren Fonds stammt vom Bundeswirtschaftsministerium, 170 Millionen Euro.

Darüber hinaus schoss der HTGF allerdings vier Jahre später weitere knapp 500.000 Euro in das Unternehmen. Der Anlass war eine Runde zur Anschlussfinanzierung. Das geht aus einer Antwort des Wirtschaftsministeriums auf eine parlamentarische Anfrage der damaligen Linken-Abgeordneten Martina Renner aus dem Jahr 2024 hervor.

Abgeordnete kritisieren Staatsgeld für Datenmarktplatz

Wir haben das Dokument mit einer Anfrage nach dem Informationsfreiheitsgesetz (IFG) erhalten, jedoch zunächst in einer fast vollständig geschwärzten Variante. Das Wirtschaftsministerium hatte die Antwort des damaligen Staatssekretärs als „Verschlusssache – Nur für den Dienstgebrauch“ eingestuft. Erst nachdem wir Widerspruch gegen die Entscheidung eingelegt hatten, gab das Ministerium die Antwort für die Öffentlichkeit frei.

Das Ministerium betont darin erneut, dass es „auf die Investmententscheidungen des HTGF keinen Einfluss“ nehme. Jedoch seien „Investitionen in Unternehmen, die Aktivitäten in Verbindung mit Cybercrime verfolgen“, gemäß „der Ausschlussliste des HTGF ausgeschlossen.“ Als solche könne das Geschäftsmodell von Datarade nicht betrachtet werden, da die Plattform lediglich Kontakte zwischen Datenanbietern und Interessierten herstelle. „Das Zustandekommen eines Vertrags und der Austausch von Daten läuft grundsätzlich vollständig außerhalb der Plattform.“

SPD sieht „erheblichen Handlungsbedarf“, CDU bleibt unkonkret

Wie viel Verantwortung sollen Datenmarktplätze dafür tragen, wenn Datenhändler dort die Standortdaten von Millionen Menschen verschleudern? Einen Vorschlag hierzu hatte die heutige Bundesdatenschutzbeauftragte bereits im vergangen Jahr: Der deutsche Gesetzgeber könnte die Reform des Bundesdatenschutzgesetzes nutzen, um das Geschäft von Datenmarktplätzen zu regeln. Die Reform war zunächst für 2024 geplant gewesen, fiel aber dem vorzeitigen Aus der Ampel-Koalition zum Opfer.

Auch die neue Koalition aus Union und SPD will den Datenschutz reformieren. Im Fokus stand zwar bisher ein Rückbau von Regulierung – aber gerade bei Datenmarktplätzen sehen Politiker*innen mehrerer Parteien Probleme.

„Auch wenn im Koalitionsvertrag keine konkrete Aussage dazu vereinbart wurde, so sehen wir mit Blick auf die Databroker-Files-Recherchen nicht allein aus datenschutzrechtlicher Sicht, sondern auch aus sicherheitspolitischer Perspektive erheblichen Handlungsbedarf“, schreibt uns etwa Johannes Schätzl, der digitalpolitische Sprecher der SPD-Fraktion im Bundestag. Er werde „diese Thematik in den anstehenden Verhandlungen selbstverständlich auch ansprechen und konkrete Vorschläge einbringen“. Es sei allerdings noch offen, ob es in der Koalition eine Zustimmung für entsprechende Gesetzesänderungen gibt.

Der Koalitionspartner, die Union, hält sich auf Anfrage von netzpoiltik.org bedeckt. Ralph Brinkhaus, Sprecher für Digitalisierung und Staatsmodernisierung, lässt auf unsere sechs Fragen zur anstehenden Datenschutzreform lediglich verlauten: „Wir arbeiten an den von Ihnen genannten Punkten.“

Grüne und Linke machen Druck

Die Grünen-Digitalpolitiker Lukas Benner und Konstantin von Notz sehen im fehlenden Plan der Regierungskoalition beim Datenhandel ein Beispiel für deren Datenschutzpolitik. Während Union und SPD sich „verfassungsrechtlich hochumstrittene Vorhaben“ wie die Wiedereinführung der Vorratsdatenspeicherung vorgenommen hätten, fehle auf ihrer Agenda die Lösung der „anhaltenden und zunehmenden Problematik der Databroker“.

Die grüne Bundestagsfraktion halte „eine gesetzliche Einschränkung dieser Praktiken für dringend geboten – übrigens auch mit Blick auf den Schutz unserer Sicherheitsbehörden und ihrer Mitarbeiterinnen und Mitarbeiter“. Das Innenministerium müsse sich endlich der Thematik widmen.

Grundsätzlicher wird bei dem Thema Donata Vogtschmidt, digitalpolitische Sprecherin der Linkspartei. Sie wolle „Geschäftsmodellen, die auf personalisierter Onlinewerbung basieren, insgesamt den Kampf ansagen“. Vogtschmidts Vorschlag, um das Problem an der Wurzel zu lösen: Im Gesetz über digitale Dienste (DSA) der Europäischen Union ist bereits ein Verbot personalisierter Werbung für Minderjährige vorgesehen. Dieses Verbot sollte auf alle Nutzenden ausgeweitet werden, denn „so ließe sich kommerzieller Datenhandel wirklich eindämmen“.

Unterdessen könnte auch die EU aktiv werden. Sie will mit dem kommenden Digital Fairness Act Lücken für Verbraucher*innen im Netz schließen. Bis 24. Oktober können Interessierte Ideen einreichen, in welchen Bereichen sie Handlungsbedarf sehen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Datenschutzbehörde greift ein: DeepSeek fliegt aus den App Stores

Von: Chris Köver

Der chinesische KI-Chatbot DeepSeek übermittelt Nutzer*innendaten nach China. Die Berliner Datenschutzbehörde geht jetzt gegen den Anbieter vor. Apple und Google sollen DeepSeek aus ihren Stores entfernen.

Smartphone mit geöffnetem Apple-App-Store auf dem Screen
Raus aus den App-Stores, aber weiter verfügbar: KI-Chatbot DeepSeek – Alle Rechte vorbehalten IMAGO / Rüdiger Wölk

Der KI-Chatbot DeepSeek wird in Deutschland verboten. Die Berliner Datenschutzaufsicht hat die chinesische App als rechtswidrig bewertet, weil sie Daten ihrer Nutzer*innen nach China übermittelt. Damit verstößt sie gegen die Datenschutzregeln der EU (DSGVO). Apple und Google sollen die Anwendung nun aus ihren App-Marktplätzen entfernen. Auf anderen Wegen, etwa über den Browser oder heruntergeladen über die Seite des Unternehmens, ließe sich der Chatbot allerdings weiterhin nutzen.

DeepSeek habe gegenüber ihrer Behörde nicht überzeugend nachweisen können, dass Daten deutscher Nutzer*innen in China auf einem der EU gleichwertigen Niveau geschützt sind, sagt die Berliner Datenschutzbeauftragte Meike Kamp.

In China haben Behörden weitreichende Zugriffsrechte auf personenbezogene Daten, die auf den Servern chinesischer Unternehmen lagern.

Ehemals Chartspitze, jetzt auf Verbotsliste

DeepSeek hatte nach der Vorstellung Anfang des Jahres für Furore gesorgt, weil die Leistungen des Modells hinter dem Chatbot an die von Marktführern wie ChatGPT von OpenAI heranreichten – für viele Beobachter*innen kam das überraschend. Zugleich soll das Training des Modells vergleichsweise günstig und mit weniger Rechenleistung stattgefunden haben, berichtete etwa die New York Times. Das brachte die Börsen durcheinander.

Die App gehört zu den beliebtesten KI-Anwendungen weltweit. Auch in Deutschland trendete sie zwischenzeitlich weit oben in den Download-Charts von Apple und Google. Nutzer*innen können mit der kostenlosen App chatten, Bilder hochladen oder sie für die Suche im Netz einsetzen.

Behörden warnten vor der App

Bedenken zum Umgang mit Nutzer*innendaten gab es von Anfang an. Denn alle gesammelten Daten – von Texteingaben und hochgeladenen Dateien bis zu den Informationen zum Standort und dem benutzten Gerät – übermittelt das Unternehmen nach China.

„Auch Tastatureingaben innerhalb der App können womöglich mitgelesen werden, bevor sie abgeschickt werden“, warnte das Bundesamt für Sicherheit in der Informationstechnik (BSI). Außerdem werde die Art der Tastatureingaben gespeichert, heißt es. Anhand der Art, wie Menschen tippen, lassen sich Nutzer*innen wiedererkennen.

Auch die Aufsichtsbehörden für Datenschutz hatten DeepSeek im Blick. Mehrere Landesbehörden gingen parallel gegen das Unternehmen vor. Die Gründe: Weitergabe der Daten und andere mutmaßliche Verstöße gegen die DSGVO. Das Unternehmen hatte etwa keinen gesetzlichen Vertreter in der EU benannt. In Abstimmung mit anderen Aufsichtsbehörden ist es jetzt die Behörde aus Berlin, die Maßnahmen ergreift.

Erst Aufforderung, dann Verbot

Die Behörde hatte nach eigenen Angaben DeepSeek Anfang Mai zunächst aufgefordert, die Übermittlung der Daten nach China einzustellen – oder die App eigenständig aus den Stores zu entfernen. Nachdem das Unternehmen nicht reagierte, folgte demnach heute die Meldung an Apple und Google. Dabei machte die Behörde von einer Regelung im Gesetz über digitale Dienste (Digital Services Act, DSA) Gebrauch, die Betreiber*innen von Plattformen dazu verpflichtet, Meldewege für illegale Inhalte zur Verfügung zu stellen.

Apple und Google müssen die Meldung laut DSA nun prüfen und über die Umsetzung entscheiden. Sie gelten in der EU als „sehr große Online-Plattformen“ und unterliegen damit besonders strikten Auflagen. So müssen sie ihnen gemeldete rechtswidrige Inhalte zügig entfernen, sonst drohen ihnen selbst Strafen in der EU.

Die Behörde hätte gegen DeepSeek auch ein Bußgeld verhängen können. Das lasse sich gegen Unternehmen aus Drittstaaten allerdings nicht vollstrecken, sagt Datenschutzbeauftragte Meike Kamp. Auch gegen die Webseite des Unternehmens könne die Behörde nicht vorgehen, weil der Host-Anbieter nicht bekannt sei.

In Italien ist DeepSeek bereits aus den App Stores verschwunden, nachdem die italienische Datenschutzaufsicht GPDP die App ins Visier genommen hatte. Australien hat die Nutzung der App auf Geräten der Regierung untersagt. In Südkorea wiederum ist die App nach einer zeitweisen Sperre wieder verfügbar, nachdem die Betreiber nachgebessert hatten.

Auch andere chinesische Apps haben Nutzer*innendaten an Server in China übermittelt, darunter die erfolgreichste: TikTok. Das Unternehmen hat jedoch im Gegensatz zu DeepSeek einen Sitz in der EU und fällt in die Zuständigkeit der irischen Datenschutzaufsicht, die jüngst gegen TikTok eine Millionenstrafe veranlasst hat.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Zollkrieg mit den USA: Trump will EU-Digitalgesetze aufweichen

Von: Tomas Rudl

Die EU-Kommission könnte einem Medienbericht zufolge die Durchsetzung europäischer Digitalgesetze vorerst aussetzen, um Donald Trump im Handelskrieg zu besänftigen. Das stößt im EU-Parlament auf starken Widerstand.

Abstürzende Aktuenkurse auf einem Smartphone-Display.
Der weiterhin ungeklärte Zollstreit zwischen den USA und der EU sorgt weiterhin für Unruhe. – Alle Rechte vorbehalten IMAGO / MiS

Im vom US-Präsidenten Donald Trump angezettelten Handelsstreit könnte die Durchsetzung des Digital Markets Act (DMA) für US-Unternehmen wie Alphabet, Meta oder Apple auf Eis gelegt werden, berichtet das Wall Street Journal (€). Dem Exklusiv-Bericht zufolge zirkuliert im Büro des US-Handelsbeauftragten der Entwurf eines „Abkommens über gegenseitigen Handel“ zwischen den USA und der EU. Ob die EU-Verhandler:innen dem Abkommen in dieser Form zustimmen werden, bleibt vorerst unklar.

Laut WSJ erfasst das geplante Abkommen eine ganze Reihe von Handelsbereichen, neben dem Digitalsektor unter anderem CO2-Grenzabgaben, Schiffbau oder die Beschaffung von Rüstungsgütern. Weiter ausgesetzt werden könnte demnach auch eine EU-Verordnung über entwaldungsfreie Lieferketten, die Ende des Jahres in Kraft treten soll. Dem Bericht zufolge könnten die USA und die EU in einen „Dialog“ über die Implementation des DMA treten. Zwischenzeitlich sollte die Durchsetzung ruhen, so das WSJ.

Tauziehen im Handelsstreit

Die heiklen Verhandlungen zwischen den USA und der EU laufen überwiegend hinter verschlossenen Türen, seit Donald Trump im April die Einfuhren praktisch aller Länder der Welt mit Strafzollen belegt hatte. Für Importe aus der EU sah die ursprüngliche US-Ankündigung einen pauschalen Zollsatz von 20 Prozent vor. Später polterte Trump in sozialen Medien und erhöhte die Drohung mit Verweis auf „unfaire und ungerechtfertigte Klagen gegen US-amerikanische Unternehmen“ auf 50 Prozent.

Bislang sind die angedrohten Zölle weitgehend ausgesetzt. In Kraft sind jedoch etwa Abgaben auf Stahl- und Aluminiumimporte in Höhe von 50 Prozent sowie pauschale Aufschläge von 25 Prozent auf Autoimporte. Außerdem gilt ein Mindestzollsatz von 10 Prozent, der sich der Nachrichtenagentur Reuters zufolge kaum wegverhandeln lassen wird. Die zuletzt genannte Frist für einen Abschluss der Verhandlungen ist der 9. Juli.

Strafen und Auflagen gegen US-Digitalriesen

Ein besonderer Dorn im Auge der „America First“-Administration sind die relativ jungen EU-Digitalgesetze, der Digital Services Act (DSA) und der Digital Markets Act (DMA). Beide Gesetze sollen die Rechte von Nutzer:innen im Internet stärken und die Übermacht insbesondere großer Digital-Konzerne abschwächen. Viele dieser Unternehmen stammen aus den USA und sind davon entsprechend stärker betroffen als kleinere Wettbewerber, etwa aus der EU.

Zuletzt hat die EU-Kommission erstmals millionenschwere Wettbewerbsstrafen sowie Auflagen für Apple und Meta verhängt, denen sie Verstöße gegen den DMA vorwirft. Für Unverständnis auf der anderen Seite des Atlantiks sorgen zudem regelmäßige Auseinandersetzungen rund um die Datenschutz-Grundverordnung (DSGVO).

Derweil sehen US-Republikaner die im DSA verankerten Mindestvorgaben zu Inhaltemoderation durch die Bank als unzulässige Einschränkung der Meinungsfreiheit. Für weitere Verstimmung könnten außerdem nationale Vorstöße einzelner EU-Länder in puncto Digitalsteuer sorgen, darunter der jüngste Vorschlag des deutschen Kulturstaatsministers Wolfram Weimer.

EU-Parlament stellt sich gegen Aufweichung von Gesetzen

Ein in den Raum gestelltes Einknicken der EU-Kommission kommt beim EU-Parlament nicht gut an. „Bei aller Flexibilität und Verhandlungsbereitschaft seitens der EU muss weiterhin klipp und klar sein, dass unsere Gesetze oder eine Aufweichung unserer Regeln nicht Teil des Warenkorbes für die Verhandlungen sein dürfen“, sagt der SPD-Europaabgeordnete Bernd Lange, Vorsitzender des Handelsausschusses im EU-Parlament, in einer Pressemitteilung.

Dies gelte für den DMA genauso wie für andere Regelungen, betont Lange. „Hier darf nicht einmal mit dem Feuer gespielt werden. Da darf es keine Abstriche geben“, so der niedersächsische Abgeordnete. Es stehe nicht zur Disposition, „unsere EU-Gesetze und unsere Autonomie und Recht zu regulieren“.

In einer heutigen Anhörung habe die EU-Kommission die „Rolle, Einbindung und Bedeutung des Europäischen Parlaments bei den transatlantischen Handelsbeziehungen“ noch einmal bekräftigt. „Wenn es zu einem Abkommen kommt, dann haben wir im Europäischen Parlament das letzte Wort. Ob das Herrn Trump passt oder nicht“, gibt sich Lange kämpferisch.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Exklusiv: NATO-Zentrum will mit Facebook-Daten forschen dürfen

Von: Alexander Fanta
Die NATO und die EU
Die NATO kooperiert eng mit den EU-Staaten – auch beim Thema Desinformation – Alle Rechte vorbehalten IMAGO / photothek

In der Ostukraine braut sich neue Konfrontation mit Russland zusammen. Der Konflikt wird dabei auch in sozialen Netzwerken ausgetragen, durch gezielte Falschinformation und Irreführung – so lautet zumindest der Vorwurf der US-Regierung und des Europäischen Auswärtigen Dienstes gegen die russische Regierung. Vorwürfe, Russland und China setzten gezielt Desinformation ein, sind schon seit Jahren aus Brüssel und Washington zu hören.

Die Vorwürfe machen deutlich, dass Social Media immer stärker zum Schauplatz moderner Kriegsführung gerät. Und wer diese Sichtweise teilt, für den ist die Informationsgewinnung über Propaganda der Gegenseite eine strategische Notwendigkeit.

Eine Datenpipeline für die Informationsgewinnung verspricht eine neue EU-Verordnung: Das Digitale-Dienste-Gesetz soll vorschreiben, dass große Plattformen wie Facebook und YouTube rasche Schritte gegen illegale Inhalte setzen müssen. Bei Werbung im Netz müsse nachvollziehbar sein, wer werbe und welche Zielgruppe angesprochen werde. Um diese und weitere Auflagen kontrollieren zu können, sollen Plattformen Forscher:innen Zugang zu ihren Daten gewähren.

Derzeit starten in Brüssel Verhandlungen zwischen Kommission, Rat und EU-Parlament über einen endgültigen Gesetzestext. Dabei könnte eine tief im Text versteckte Definition zum Streitpunkt werden: Denn in ihrem Gesetzesvorschlag hat die EU-Kommission den Datenzugang für die Forschung stark beschränkt. Konkret Zugriff haben sollen nur Forscher:innen wissenschaftlicher Institutionen, die wirtschaftlich unabhängig seien.

„Datenzugang für Organisationen wie unsere nicht verhindern“

Diese enge Definition verärgert NATO-Kreise. Das zeigt eine schriftliche Protestnote der NATO-Einrichtung Stratcom Centre of Excellence an die EU-Staaten, die netzpolitik.org veröffentlicht. In dem Schreiben verweist das Zentrum auf eigene Forschungsarbeit in sozialen Medien. Ein Stratcom-Bericht aus 2019 habe etwa gezeigt, dass Facebook, Instagram, Twitter und YouTube nicht genug gegen manipulative Auftritte in ihren Netzwerken unternähmen. Die meisten Fake-Profile würden mit Hilfe aus Russland betrieben.

Die Untersuchungen des NATO-Zentrums könnten durch das Digitale-Dienste-Gesetz der EU erheblich erleichtert werden, heißt es in dem Schreiben aus April 2021. „Leider sehen wir, dass der derzeitige Wortlaut von Artikel 31 eine solche Arbeit verhindern dürfte.“ Das Zentrum wäre daher „dankbar“, wenn der Artikel angepasst werden könnte, „um den Datenzugang für die Forschung durch Organisationen wie unsere nicht zu verhindern“.

Das Stratcom Centre of Excellence wurde 2014 von Deutschland und sechs weiteren NATO-Staaten gegründet. Es wird inzwischen von 14 Mitgliedern des Militärbündnisses finanziell unterstützt. Formell untersteht seine Arbeit nicht dem NATO-Oberkommando, das Zentrum ist allerdings als Dienststelle des Bündnisses eingerichtet und liefert der NATO strategische Analysen, Konzepte und bietet Fortbildungen für ziviles und militärisches Personal. Ziel ist es dabei auch, Strategien für das Entwickeln von „Gegenerzählungen“ zu russischen Propaganda-Narrativen zu entwerfen.

Als Fürsprecher des NATO-Zentrums im Rat der EU-Staaten tritt Lettland auf, in dessen Hauptstadt Riga das Zentrum seinen Sitz hat. Das „Recht auf Informationsgewinnung für Forschungszwecke sollte nicht auf wissenschaftliches Personal beschränkt sein“, forderten lettische Diplomat:innen unter Verweis auf den Brief. Das zeigt ein Verhandlungsdokument, dass wir ebenfalls veröffentlichen. Die Dokumente stammen aus einer Informationsfreiheitsanfrage von netzpolitik.org beim Rat der EU-Staaten.

Dass die EU-Staaten eng mit der NATO kooperieren, ist nicht ungewöhnlich. Fast alle EU-Länder sind auch NATO-Mitglieder, in den vergangenen Jahren wurde die Zusammenarbeit stetig vertieft. Etwa vereinbarte der Rat der EU mit dem Militärbündnis bereits 2016, gemeinsame Analysekapazitäten beim Aufspüren von Desinformation aufzubauen. Unterstützung dafür gibt es auch im EU-Parlament, wo ein eigens eingerichteter Ausschuss vor der Gefahr „fremder Einflussnahme“ warnt und sogar Sanktionsmöglichkeiten gegen die Verbreitung von Desinformation fordert.

Allerdings gibt es daran beständig Kritik. EU-Abgeordnete der Linksfraktion kritisieren „das Lobbying von transatlantischen und NATO-Thinktanks“. Deren Einfluss stelle eine ernste Bedrohung für politische Positionen dar, die sich international für Frieden und soziale Gerechtigkeit einsetzten, sagt etwa die irische EU-Abgeordnete Clare Daly. Eine von der Linksfraktion finanzierte Studie über „Rhetorik und Realität von Desinformation in der Europäischen Union“ sieht die Arbeit des NATO-Zentrums in Riga als Teil einer langjährigen Strategie zu Beeinflussung der öffentlichen Meinung.

Definition entzweit Rat und Parlament

Doch trotz der Kritik von links könnte der Wunsch der NATO-Einrichtung durchaus in Erfüllung gehen. Im November 2021 einigten sich die EU-Staaten auf eine gemeinsame Position zum Digitale-Dienste-Gesetz. Darin fordert der Rat die Ausweitung der Zugangsberechtigten nach Artikel 31. Nicht bloß wissenschaftliche Forscher:innen sollten Daten der großen Plattformen bekommen. Stattdessen sollte die Definition einer „Forschungseinrichtung“ aus Artikel 2 der Urheberrechtsrichtlinie herangezogen werden. Darunter fällt „eine Hochschule einschließlich ihrer Bibliotheken, ein Forschungsinstitut oder eine sonstige Einrichtung, deren vorrangiges Ziel die wissenschaftliche Forschung oder die Lehrtätigkeit – auch in Verbindung mit wissenschaftlicher Forschung – ist“. Diese Definition könnte auch das NATO-Zentrum einschließen.

Widerstand gegen diese breite Definition kommt hingegen aus dem EU-Parlament. Dieses weitet in seiner Version von Artikel 31 des Digitale-Dienste-Gesetzes den Zugang von wissenschaftlichen Institutionen explizit auch auf zivilgesellschaftliche Organisationen aus. Forscher:innen, die Datenzugang erhalten, müssten allerdings frei von kommerziellen Interessen sein, ihre Finanzierungsquellen offenlegen und „unabhängig von jeder Regierung, Verwaltung und anderen staatlichen Körperschaften sein“, mit Ausnahme von öffentlich finanzierten Forschungseinrichtungen. Ein Streit zwischen Rat und Parlament in der Definitionsfrage scheint programmiert.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

  • Es gibt keine weiteren Artikel
❌