🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
✇netzpolitik.org

Argentinien: Per Dekret in die dunkle Vergangenheit

Von: Gastbeitrag · Nina Galla

Der argentinische Präsident Javier Milei baut die Demokratie ab und die Online-Überwachung aus. Jetzt hat die Regierung per Dekret buchstäblich über Nacht den Geheimdienst in eine Super-Überwachungsbehörde umgewandelt. Journalist*innen und Aktivist*innen sind alarmiert.

Demonstrierende in Buenos Aires, in einem Spiegel spiegeln sich Polizist*innen
Immer wieder kommt es in Argentinien bei Demonstrationen zu willkürlichen Verhaftungen und Repressionen. – Alle Rechte vorbehalten IMAGO / ZUMA Press Wire

Die Feierstimmung über das neue Jahr hielt in Argentinien gerade einmal einen Tag an. Am 2. Januar wurde bekannt, dass die Regierung Milei zwei Tage zuvor in den letzten Minuten des alten Jahres das Notstandsdekret 941/2025 erlassen hatte. Das Dekret erweitert die Befugnisse des argentinischen Geheimdienst SIDE (Secretaría de Inteligencia del Estado) deutlich.

Demnach können ab sofort alle Aktivitäten des SIDE „verdeckt“ erfolgen. Agent*innen können zudem Verhaftungen ohne Haftbefehl vornehmen, zur Unterstützung kann der SIDE die Armee für Inlandseinsätze anfordern und Personenregister-Behörden müssen Daten an den Geheimdienst herausgeben.

Das Vorgehen weckt Erinnerungen an die argentinische Militärdiktatur. Argentinien hatte sich jahrelang vorbildlich darum bemüht, die Diktatur aufzuarbeiten, Milei dreht das Rad nun wieder zurück. „Dieses Dekret führt zur bisher gravierendsten Veränderung, da den Geheimdiensten seit der zivil-militärischen Diktatur keine derartigen Befugnisse eingeräumt wurden“, zeigt sich Beatriz Busaniche von der Stiftung Vía Libre besorgt.

Auch die Organisation La Coordinadora Contra la Represión Policial e Institucional (CORREPI) erinnert die Maßnahme „an die schlimmsten Praktiken der dunkelsten Periode unserer Geschichte, der zivil-militärischen Diktatur von 1976-1983“, wie sie auf Instagram schreibt.

Inlandsspionage gegen Regierungskritiker*innen

SIDE verteidigt die Notwendigkeit der Reform auf X mit Verweis auf „die aktuellen globalen Herausforderungen und die neue Rolle, die die Argentinische Republik unter der Führung von Präsident Javier G. Milei auf der Weltbühne einnimmt“. Laut der Stellungnahme des Geheimdienstes, die auch die Tageszeitung Pagina 12 veröffentlichte, streben SIDE und Mileis Regierung „ein modernes, professionelles und effizientes nationales Nachrichtendienstsystem [an], das den höchsten demokratischen und republikanischen Standards entspricht.“

Diesem Ziel seien laut Regierung auch jene Teile der Reform verpflichtet, die den Umbau weiterer Behörden vorsehen. Die Regierung brüstet sich, damit der staatlichen Verfolgung von Journalist*innen und Bürger*innen ein Ende zu setzen.

Die Bürgerrechtsorganisation Centro de Estudios Legales y Sociales (CELS) kritisiert, dass es genau anders herum sei: Durch den Wechsel des Schwerpunkts des SIDE vom Schutz der nationalen Sicherheit auf Spionageabwehr insbesondere im Inland erlaube die Reform die Verfolgung von Aktivist*innen, Journalist*innen, Indigenen und anderen Regierungskritiker*innen überhaupt erst.

Diese Schlussfolgerung zieht auch Via Libre. Zudem erschwere der komplexer werdende Zuschnitt der Behörden und Sekretariate eine Kontrolle des Geheimdienstes, beklagt Busaniche.

Wie Javier Milei die Zivilgesellschaft systematisch schwächt

Die Reform steht für die wachsende Repression und Überwachung durch die argentinische Regierung seit dem Amtsantritt Mileis im Dezember 2023.

Der rechts-libertäre Politiker trat als Außenseiter zu Wahl an und kam nur durch die Unterstützung rechter Parteien an die Macht. Seither hat seine Regierung die Zivilgesellschaft in Argentinien systematisch geschwächt.

So schränkte die Regierung gleich zu Beginn das Recht auf öffentlichen Straßenprotest stark ein („Ley Antipiquetes“, zu Deutsch: Kundgebungsverbot). Es folgten Gesetze, die vordergründig den Drogenhandel bremsen sollen, dabei jedoch auch Aktivisti treffen („Ley Antimafia“) sowie eine Reform der Online-Überwachung („Ley Ciberpatrullaje“). Außerdem erhielt die Polizei eine neue „KI-Einheit“, die Unidad de Inteligencia Artificial Aplicada a la Seguridad, UIAAS.

Zivilgesellschaft ist unvorbereitet

Die Zivilgesellschaft Argentiniens ist insbesondere auf die zunehmende Online-Überwachung nicht ausreichend vorbereitet. Weil es keine Netzneutralität gibt, sind die Meta-Plattformen WhatsApp und Instagram weit verbreitet, Signal ist hingegen kaum bekannt, Mastodon schon gar nicht.

Zwar gibt es Nichtregierungsorganisationen, die Aufklärung zu digitalen Themen betreiben. Doch NGOs wie Via Libre, Asociación por los Derechos Civiles (ADC) oder Observatorio de Derecho Informático Argentino (ODIA) sind zu klein, um hier wirklich Einfluss geltend machen zu können.

Andere Organisationen wie CELS und Amnesty International Argentina sind zwar größer, haben jedoch alle Hände voll damit zu tun, die fortwährenden Attacken aus der Casa Rosada, dem Regierungssitz in Buenos Aires, gegen die Bevölkerung abzuwehren, Klagen einzureichen und Gerichtsprozesse zu führen. Dabei können sie durchaus Erfolge vorweisen. So erzielten CELS und andere Organisationen im vergangenen Jahr einen juristischen Sieg, als ein Bundesverwaltungsgericht das Kundgebungsverbot nach zwei Jahren für verfassungswidrig erklärte.

Gesichtserkennung wird ausgeweitet

Zivilgesellschaftliche Klagen führten im Jahr 2023 auch zu einem Verbot von Gesichtserkennung im öffentlichen Raum (Sistema de Reconocimiento Facial de Prófugos, SRFP). Allerdings gilt dieses Verbot nur für die damalige Anwendung in der argentinischen Hauptstadt Buenos Aires. In anderen Städten kommt die Gesichtserkennung weitgehend ungehindert zum Einsatz.

Auf der Karte „Surveillance under Surveillance“ vom Chaos Computer Club Hamburg sind die Orte von Kamera-Überwachung weltweit kartografiert, auch argentinische Städte sind darunter. Wie viele Kameras es genau in Argentinien gibt und welche davon Gesichtserkennung einsetzen, ist unbekannt. Verschiedene Organisationen kommen dabei zu unterschiedlichen Einschätzungen.

Und laut der „SurveillanceWatch“ operieren in Argentinien aktuell 25 internationale Unternehmen der Überwachungs-Industrie. Unter ihnen sind Unternehmen wie Cellebrite, Clearview AI und Hikvision, deren Anwendungen in anderen Ländern für massive Kritik sorgen. In Buenos Aires wird die Gesichtserkennung im öffentlichen Raum wahrscheinlich schon bald wieder angewandt, die dortige Staatsanwaltschaft hat im vergangenen Jahr Clearview-Lizenzen eingekauft.

Tausende Opfer durch Polizeigewalt

Die zunehmende Überwachung ist für die meisten Menschen in Argentinien nicht das größte Problem. Sie sind vielmehr damit beschäftigt, gegen die alltägliche Polizeigewalt sowie die Kürzungen im Gesundheits- und Bildungswesen zu kämpfen. Und auch die hohe Arbeitslosigkeit und steigenden Lebenshaltungskosten lassen die staatliche Überwachung und Repression in den Hintergrund rücken. „Sie verhaften uns sowieso, wenn sie wollen“, lautet der Tenor der politisch Aktiven.

Tatsächlich kommt es bei Demonstrationen regelmäßig zu willkürlichen Verhaftungen. Die Personen werden zwar meist schnell wieder freigelassen, harmlos ist der Kontakt zur argentinischen Polizei aber keineswegs.

Immer wieder erschießen Polizist*innen Menschen. Im Sommer 2025 töteten Beamt*innen in Buenos Aires ein siebenjähriges Kind; zuletzt kamen in den Tagen nach Weihnachten zwei Personen ums Leben. CORREPI zählt seit Ende 2023 mehr als 1.000 Tote und 1.500 Verletzte – inklusive Pressevertreter*innen – als Opfer staatlicher Gewalt.

Für 2024 hat CORREPI errechnet, dass die Stadtpolizei von Buenos Aires wegen ihrer Schusswaffeneinsätze zu den tödlichsten in ganz Argentinien zählt. Eine Polizeieinheit, mit der übrigens die Bayerische Landespolizei kooperiert, ohne das verwerflich zu finden.

Opposition will Dekret abwehren

Durch die Reform der Regierung Milei wird die Überwachung, die Repression und die Gewalt im Land weiter zunehmen. Die neue KI-Einheit UIAAS untersteht zwar dem Sicherheitsministerium und die Gesichtserkennung steht auf der Agenda der Staatsanwaltschaft der Hauptstadt. Doch es muss davon ausgegangen werden, dass es auch Verknüpfungen zur SIDE geben wird.

Manuel Tufró, Direktor für Justiz und Sicherheit bei CELS, ist wenig optimistisch, dass Parlament, Justiz und Zivilgesellschaft Transparenz herstellen können: „Es wird äußerst schwierig sein, die eingesetzten Werkzeuge der Gesichtserkennung, Spyware, KI und Techniken wie der Cyber-Patrouille zu ermitteln“, sagt Tufró, „da der Erlass festgelegt hat, dass alle Aktivitäten im Zusammenhang mit der SIDE ‚verdeckt‘ erfolgen müssen.“

Die parlamentarische Opposition will das jüngste Dekret zur Geheimdienst-Reform im Kongress abwehren. Wann und ob ihr das gelingt, ist allerdings offen. Nach der Zwischenwahl im Oktober ist sie geschwächt. Zugleich verfügt aber auch Milei über keine eigene Mehrheit im Kongress. Außerdem ist Sommerpause in Argentinien, der Kongress tagt erst wieder im März.

Am vergangenen Montag haben daher einige Abgeordnete eine gerichtliche Intervention beantragt. Sie fordern, dass das Dekret früher für verfassungswidrig erklärt wird, und ersuchen eine einstweilige Verfügung zu seiner sofortigen Aussetzung.

Internationale Aufmerksamkeit könnte diesem Widerstand guttun, damit dieses Dekret nicht wie das Kundgebungsverbot zwei Jahre in Kraft bleibt, bevor es dann gerichtlich annulliert wird.

Nina Galla ist Pressesprecherin für AlgorithmWatch in Berlin. In ihrer Freizeit beschäftigt sie sich mit den Auswirkungen von KI in der Schule und schreibt seit 2025 über die digital-politische Entwicklung in Argentinien.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Umfrage zu Rechenzentren: Die Mehrheit folgt dem Hype nicht

Von: Gastbeitrag · Julian Bothe

Die Bundesregierung will Deutschland zur „KI-Nation“ machen, die EU verfolgt eine „AI-First“-Mentalität. Eine Umfrage in mehreren europäischen Ländern zeigt nun, dass die Mehrheit der Befragten diesen Hype nicht mitträgt. Ihr bereitet vor allem der wachsende Strom- und Wasserverbrauch Sorge. Und sie wünscht sich eine strengere Regulierung.

Schornsteine vor bewölktem Himmel aus denen Rauchwolken quillen
Fossile Energien erfahren eine Renaissance – dank ressourcenhungriger KI. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Janusz Walczak

Ich öffne mein Bahn-Ticket. “Dieses Dokument scheint lang zu sein. Spare Zeit und lies eine Zusammenfassung”, empfiehlt mir prompt mein PDF-Reader. Ein Paradebeispiel dafür, wie immer mehr Anwendungen den Nutzer*innen KI-Tools aufdrängen, in den meisten Fällen, ohne dass sich ein Nutzen daraus ergibt.

Weltweit versuchen Regierungen und große IT-Firmen, sich im KI-Wettbewerb zu überbieten. Dabei benötigen die zugrunde liegenden Systeme immer mehr Rechenleistung, für die irgendwo Computer laufen müssen, die Strom und Wasser verbrauchen. Doch während das Thema Rechenzentren längst in der politischen Debatte und bei Fachleuten angekommen ist, wusste man bislang kaum etwas darüber, wie die Bevölkerung diese Entwicklung einschätzt.

Porträtfoto von Julian Bothe
Julian Bothe, Senior Policy Manager bei der gemeinnützigen NGO AlgorithmWatch - Alle Rechte vorbehalten AlgorithmWatch

Aus diesem Grund hat AlgorithmWatch in mehreren europäischen Ländern eine repräsentative Umfrage zu Rechenzentren und ihren Auswirkungen durchführen lassen. Gemeinsam mit internationalen Partnerorganisationen wie der spanischen Initiative Tu Nube Seca mi Rio, Friends of the Earth Ireland und der europäischen Klimaschutzallianz Beyond Fossil Fuels wurden Menschen in Deutschland, der Schweiz, Spanien, Irland und dem Vereinigen Königreich befragt.

Wunsch nach mehr Transparenz und mehr Regulierung

Die Ergebnisse sind überraschend deutlich: In allen beteiligten Ländern spricht sich jeweils eine große Mehrheit der Befragten für eine stärkere Regulierung und mehr Transparenz von Rechenzentren aus. In einigen Ländern ist die Zustimmung dabei besonders hoch, so zum Beispiel in Spanien und Irland. Dort ist der Wasser- beziehungsweise Stromverbrauch der KI- und Cloud-Fabriken schon länger Gegenstand öffentlicher Diskussionen und Proteste. Denn sowohl im grünen Irland als auch im trockenen Spanien wirken sich die Rechenzentren bereits spürbar auf Energiepreise und Wasserverfügbarkeit aus. In Spanien befürchten knapp 90 Prozent der Befragten, dass der Wasserverbrauch der Einrichtungen ihre eigene Versorgung beeinträchtigen könnten.

Auch beim Blick auf die Gesamtergebnisse sprechen die Zahlen eine eindeutige Sprache: Drei Viertel der Befragten aller Länder sorgen sich, dass der Wasserverbrauch die umliegenden Ökosysteme beeinträchtigen könnte. Fast genauso viele befürchten Auswirkungen auf den eigenen Wasserverbrauch und immerhin nahezu zwei Drittel denken, dass der Energieverbrauch von Rechenzentren bereits heute einen relevanten Anteil des Stromverbrauchs in den jeweiligen Ländern ausmacht.

Groß ist aber nicht nur der Anteil derer, die sich Sorgen machen, sondern auch die Unterstützung für politische Forderungen, die Betreiber stärker in die Verantwortung nehmen. Mehr als sieben von zehn Befragten wollen, dass der Bau neuer Rechenzentren nur dann erlaubt ist, wenn der zusätzliche Strombedarf durch zusätzliche Kapazitäten an erneuerbaren Energien gedeckt wird. Ebenso viele wollen klare Kriterien, nach denen Energie verteilt wird – wobei die Befragten Rechenzentren und KI-Modelle konsequent als unwichtig bewerten.

Bei der Verteilung der Energie sollten gemäß der Umfrage vor allem die Sektoren priorisiert werden, die erneuerbare Energien zur Umstellung auf eine klimafreundliche Produktion benötigen. Rechenzentren gehören nicht dazu – ihr Stromverbrauch entsteht ja gerade zusätzlich. Häufig werden diese aktuell direkt mit Strom aus fossilen Brennstoffen betrieben. Vielerorts werden sogar Gaskraftwerke neu errichtet, um den Bedarf zu decken. Aber selbst wenn neue Rechenzentren mit erneuerbaren Energien betrieben werden, wie es in Deutschland ab 2027 für größere Einrichtungen vorgeschrieben ist, fehlt ohne weiteren Ausbau diese Energie dann in anderen Sektoren und verlangsamt dort die Dekarbonisierung. Ob direkt oder indirekt: Der Strombedarf für Rechenzentren und KI-Anwendungen gefährdet die Klimaziele.

Verbräuche steigen an, verlässliche Zahlen fehlen

Der Blick auf die Zahlen zeigt: Die in der Umfrage deutlich werdenden Sorgen sind mehr als berechtigt. In Irland verbrauchen Rechenzentren mittlerweile 22 Prozent des gesamten Stroms und tragen erheblich zu den teils enormen Strompreissteigerungen bei. Auch in Deutschland entfallen aktuell mehr als vier Prozent des gesamten Stromverbrauchs auf Rechenzentren. Schätzungen zufolge sind es in Frankfurt am Main bereits jetzt 40 Prozent des Stromverbrauchs, in Dublin sogar 80 Prozent. In der gesamten EU sind es mehr als drei Prozent – Tendenz stark steigend.

Hinzu kommt das für die Kühlung benötigte Wasser: In Spanien werden die größten KI-Fabriken ausgerechnet in den trockensten Regionen gebaut. Auch in Deutschland könnte laut einer Studie der Gesellschaft für Informatik der Wasserverbrauch von Rechenzentren zu Problemen führen – beispielsweise im Rhein-Main-Gebiet und in Brandenburg.

Während die Politik und Betreiberunternehmen offensiv für einen starken Ausbau von Rechenzentren und KI-Infrastruktur werben, mehren sich die Proteste der lokalen Bevölkerung. In Deutschland konzentrieren sich diese bislang vor allem auf Frankfurt und Umgebung. In Irland oder Spanien, wo bereits länger protestiert wird, sind die Bürgerinitiativen weiter verbreitet und dauerhafter organisiert, beispielsweise in der Initiative Tu Nube Seca Mi Rio – “Deine Cloud trocknet meinen Fluss aus”.

Vielerorts ist die mangelnde Transparenz ein großes Problem. Selbst offizielle Stellen müssen größtenteils auf Schätzungen zurückgreifen, wie viel Wasser und Strom die Rechenzentren tatsächlich verbrauchen. Sind valide Daten vorhanden, bleiben diese meist geheim. Zwar sollen Betreiber größerer Rechenzentren die Verbräuche mittlerweile an nationale Stellen wie dem deutschen Energieeffizienzregister für Rechenzentren und die EU melden – aber auch diese Daten werden nur aggregiert veröffentlicht. Hinzu kommt der Unwillen der Betreiber, diese Informationen bereitzustellen. Ein aktueller Bericht der Europäischen Kommission schätzt für das Jahr 2024, dass nur gut ein Drittel aller Rechenzentren in der gesamten EU dies tun. Selbst die Gesamtzahl aller Rechenzentren kann sie dabei nur mutmaßen.

Ein ähnliches Bild zeigt sich auch in Deutschland

In der Bundesrepublik wird der Strom- und Wasserverbrauch von Rechenzentren erst in der jüngsten Zeit stärker thematisiert. Hier liegt der Anteil der Menschen, die sich Sorgen machen, noch etwas niedriger als in anderen europäischen Ländern. Die Betonung liegt hier auf dem „noch“, denn auch in Deutschland nimmt die Zahl der Rechenzentren stark zu – und soll nach dem Willen der Bundesregierung noch stärker wachsen.

Wie drastisch die Entwicklungen sind, zeigen beispielsweise die Zahlen der Bundesnetzagentur. Diese hatte erst vor kurzem die Schätzungen bezüglich des zukünftigen Stromverbrauchs stark nach oben korrigiert: Die im April 2025 veröffentlichten Szenarien gehen davon aus, dass bis zum Jahr 2037 Rechenzentren 78 bis 116 Terawattstunde (TWh) Strom verbrauchen – doppelt bis viermal so viel, wie es die ursprünglichen Abfragen ergeben hatten. Zur Einordnung: Der gesamte Bruttostromverbrauch lag in Deutschland im Jahr 2023 bei gut 550 TWh.

Da die Bundesnetzagentur nur die Rechenzentren berücksichtigt, die sich aktuell in der Planung befinden, könnten die tatsächlichen Zahlen sogar noch weiter ansteigen. Damit würde der Gesamtbedarf der Rechenzentren 2037 nicht nur bis zu 10 Prozent des deutschen Stromverbrauchs betragen. Der Zuwachs an Rechenzentren sorgt vor allem dafür, dass große Mengen Strom zusätzlich bereitgestellt werden müssen, dass fossile Kraftwerke länger laufen und dass wahrscheinlich auch die Strompreise steigen.

Angesichts dieser Zahlen überraschen die Umfrageergebnisse in Deutschland nicht: Auch hier unterstützen zwei Drittel der Befragten die Auflage, dass Rechenzentren nur gebaut werden dürfen, wenn dafür entsprechend auch weitere Kapazitäten erneuerbarer Energien geschaffen werden. Mehr als drei Viertel der Befragten fordern, dass Betreiber von Rechenzentren ihren Energieverbrauch (76 Prozent), ihre Energiequellen (77 Prozent) und ihre Umweltauswirkungen (81 Prozent) offenlegen.

Die Umfrageergebnisse offenbaren damit auch eine Kluft zwischen der Mehrheitsmeinung in der Bevölkerung und dem Kurs der Bundesregierung. Digitalminister Karsten Wildberger (CDU) hatte erst Ende September gegenüber der Süddeutschen Zeitung angegeben, dass es für ihn “erst einmal primär um das Rechnen” gehe und Nachhaltigkeit demgegenüber nachrangig sei. Die Mehrheit der Befragten sieht das offensichtlich anders.

Und noch eines wird deutlich: Es reicht nicht aus, nur etwas an der Effizienz zu schrauben oder die Nutzung der Abwärme zu optimieren. Angesichts der Größe des erwarteten Wachstums muss es auch darum gehen, den Verbrauch von Rechenzentren absolut zu begrenzen – und dort, wo er unvermeidbar ist, durch zusätzliche erneuerbare Energien zu decken.

KI-Hype begrenzen – Rechenzentren nachhaltig gestalten

Rechenzentren sind zweifelsfrei wichtige Infrastrukturen und werden in Zukunft weiter an Bedeutung gewinnen. Umso wichtiger ist es, diese Infrastruktur nachhaltig zu gestalten und die Fehler der Vergangenheit nicht zu wiederholen. Dazu gehört auch die Frage: Wie viele solcher Rechenzentren brauchen wir eigentlich? Welche der neuerdings überall eingebauten KI-Anwendungen haben einen gesellschaftlichen Nutzen – und welche nicht?

Wie auch in anderen Bereichen darf sich die Debatte um den nachhaltigen Einsatz von KI nicht in erster Linie auf der Ebene von individuellen Konsum- beziehungsweise Nutzungsentscheidungen abspielen. Es braucht vielmehr eine politische Diskussion und Regulierung.

Aktuell wird einem bei jeder noch so kleinen PDF-Datei eine algorithmische Zusammenfassung aufgedrängt, führt jede Google-Anfrage zum Aufruf von Sprachmodellen und soll auch die staatliche Verwaltung nach dem Willen der Bundesregierung an so vielen Stellen wie möglich KI-Systeme benutzen. Hier bringt es wenig, nur an das Individuum zu appellieren. Stattdessen braucht es politische Entscheidungen, die sowohl bei KI-Systemen als auch bei Rechenzentren die ökologischen Folgen mitdenken. Statt der „KI-Nation“, zu der sich Deutschland laut dem Koalitionsvertrag entwickeln soll, braucht es – wenn man schon von Nation sprechen will – eine „KI-sensible Nation“, die neben dem Nutzen auch die Nebenwirkungen und häufig leeren Versprechungen solcher Anwendungen im Auge behält.

Mein Bahnticket jedenfalls drucke ich mir weder aus, noch lasse ich es mir zusammenfassen. Gar nicht so selten ist der Nicht-Einsatz von KI nämlich ihr bester Einsatz.

Julian Bothe ist als Senior Policy Manager bei der gemeinnützigen NGO AlgorithmWatch verantwortlich für das Thema „KI und Klimaschutz“. An der Schnittstelle von Digital- und Energiepolitik arbeitet er daran, den Ressourcenverbrauch und den Klimaschaden des aktuellen KI-Booms in Grenzen zu halten. Promoviert hat er zur Akzeptanz der Energiewende.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Online-Investmentplattformen: Die Spur eines Millionenbetrugs

Von: Gastbeitrag · Saša Dragojlo · Maxence Peigne · Nico Schmidt

Sie versprechen ihren Opfern das große Geld, doch dann ist alles weg: Vermeintliche Online-Investmentplattformen betrügen Menschen um Millionen. Den Drahtziehern auf die Schliche zu kommen, ist schwierig. Eine Recherche hat neue Informationen zu einem Betrugsnetzwerk aufgedeckt.

Collage, zu sehen sind Trading-Kurse, Krypto-Coins und Menschen.
Schnell reich mit Online-Investmentplattformen? – Alle Rechte vorbehalten Spoovio für Investigate Europe

Im Sommer 2020 klickte Anna Leitner auf eine Online-Anzeige. Die erweckte den Anschein, als würde Red-Bull-Gründer Dietrich Mateschitz ein bislang kaum bekanntes, aber garantiert sicheres Investment-Geheimnis verraten. Die Sekretärin einer Grazer Hochschule folgte dem Link, registrierte sich auf einer Plattform namens PrimeOT und bekam wenige Tage später eine Mail von ihrem vermeintlichen persönlichen Finanzberater.

Schnell wurde der Kontakt vertraulich. Der Mann habe von seinen Wochenenden mit Frau und Kindern erzählt, erinnert sich Leitner heute. Bereits Anfang September 2020, kurz nach dem ersten Telefonat, forderte er sie zur ersten Überweisung auf: 10.000 Euro.

In den Monaten darauf gab der Berater vor, für Leitner das Geld in Kryptowährungen zu investieren. Zunächst wuchsen die Gewinne und mit ihnen die Einsätze. „Es ging schnell darum, ob ich nicht noch mehr Geld auftreiben könnte“, sagt Leitner. In den wenigen Monaten bis zum Jahreswechsel 2021 hatte sie fast 30.000 Euro überwiesen.

Was Leitner damals nicht wusste: Dietrich Mateschitz warb nicht wirklich für das Investment, und ihr angeblicher Finanzberater war keiner. Er arbeitete nicht für eine seriöse Plattform, sondern mutmaßlich für ein Callcenter auf dem Balkan und war so Teil einer millionenschweren Betrugsmasche. Und sie war längst nicht das einzige Opfer.

„Ich besorge dir drei Häuser in Spanien“

Ob PrimeOT oder anders, die Namen der einzelnen Portale wechseln, auch wenn einige von ihnen aus dem gleichen Netzwerk stammen. Gemeinsam ist ihnen die Masche, mit der sie Menschen hereinlegen: Zunächst ködern die Betrüger neue Opfer mit Google- oder Meta-Anzeigen. Nach der Registrierung beginnt sofort der Druck.

Ende 2017 klickte Malcolm, ein teilpensionierter Manager aus der Ölindustrie im Nordosten Englands, auf eine Google-Anzeige von Greenfields Capital. Nach einer ersten Investition von 500 Pfund rief ihn am nächsten Tag ein Broker an, und drängte ihn, 34.000 Pfund einzuzahlen.

„Er versprach mir, das Geld innerhalb einer Woche zu verdoppeln und die Gewinne direkt in mein Bankkonto zu zahlen“, erinnert sich Malcolm. „Natürlich kam nichts zurück.“ Alarmiert durch seinen plötzlichen Verlust, schaute sich Malcolm die Firma genauer an. Bald erkannte er, dass die Londoner Adresse auf der Website gefälscht war.

John, ein 64-jähriger Bauunternehmer aus Schottland, stieß 2018 auf eine Anzeige für FX Trade Market. Die Website prahlte mit angeblicher Unterstützung der britischen Version der Fernsehshow Höhle der Löwen, Dragon’s Den.

Der Broker, der ihn anrief, war charmant und glaubwürdig, erinnert sich John. Von dem Geld wollte er eigentlich ein Haus in Spanien kaufen. Heute erzählt John: „Er sagte mir: Ich besorge dir drei Häuser in Spanien.“ Zwischen 2018 und 2019 überwies er 25.000 Pfund und überzeugte sogar seine Tochter zu investieren. Online wuchs sein Portfolio scheinbar auf 130.000 Pfund. Doch eines Tages war alles verschwunden. „Als ich niemanden mehr erreichen konnte, hat mich das Jahre meines Lebens gekostet.“

Razzia im Callcenter

In Belgrad, keine 500 Kilometer von Graz entfernt, wirkte das Callcenter Olympus Prime eher wie ein florierendes Tech-Start-up. Untergebracht in einem modernen Gebäude in einem aufstrebenden Geschäftsviertel von Belgrad, teilte sich die Firma die Adresse mit einem chinesischen Kulturzentrum und einem gehobenen Hotel. Doch als die serbische Polizei an einem regnerischen Morgen im Januar 2023 die Räume des Callcenters betrat, stieß sie auf die Schaltzentrale eines internationalen Betrugsnetzwerks.

„Die Büros sahen vollkommen normal aus, wie in jedem gewöhnlichen Unternehmen, viele Schreibtische, Stühle und Computer“, sagt der Leiter der Abteilung High-Tech-Kriminalität der serbischen Staatsanwaltschaft, Boris Majlat. Ihn überraschte auch, dass sich die rund 50 Mitarbeiter nicht rührten, obwohl bewaffnete Beamten die Räume durchsuchten. Tatsächlich waren sie auf solche Situationen vorbereitet worden: In einem bei der Razzia beschlagnahmten Trainingsvideo erklärten Manager ihren Angestellten, wie sie sich bei einer Polizeikontrolle verhalten sollten. „Sagen Sie, sie bieten nur Schulungsmaterial an“, hieß es, „nicht mehr.“

Die Razzia war Teil eines sogenannten Aktionstages von Europol. Unter Leitung der Staatsanwaltschaft Stuttgart und des Landeskriminalamts Baden-Württemberg durchsuchten Beamte mehr als 20 Standorte in Serbien, Bulgarien und Zypern. Neben Olympus Prime stürmten Ermittler allein in Belgrad drei weitere Callcenter. Von dort aus kontaktierten Callcenter-Agenten ihre Opfer mutmaßlich überall in Europa. Mit falschen Namen, Identitäten und einstudierten Verkaufsargumenten soll sich die Mitarbeiter als Broker ausgegeben haben, um Vertrauen aufzubauen und den Opfern ihr Geld abzunehmen. Fast 300 Personen wurden festgenommen.

Investment-Betrüger bringen Jahr für Jahr alleine in Deutschland Opfer um mehr als eine Milliarde Euro, schätzt ein führender Ermittler im Gespräch mit Investigate Europe. In Österreich ist die Masche mit den vermeintlichen Online-Investmentplattformen inzwischen das größte Betrugsphänomen. Jedes Jahr verlieren Österreicherinnen und Österreicher wie Anna Leitner so einen hohen Millionenbetrag.

Alleine das Netzwerk, in deren Callcenter die Beamten Anfang 2023 stürmten, soll laut dem LKA Baden-Württemberg weltweit über 70.000 Menschen getäuscht haben, darunter 2.000 Menschen in Deutschland. Die Täter sollen dabei schätzungsweise 250 Millionen Euro mit Anlagebetrug wie dem vermeintlichen Krypto-Handel eingestrichen haben, fast 50 Millionen davon in Europa.

In Belgrad hat die Staatsanwaltschaft nun 21 Personen angeklagt für ihre Beteiligung an dem Betrugsnetzwerk. Das Gericht muss die Anklage noch annehmen. Die mutmaßlichen Drahtzieher blieben für die Behörden bislang im Dunkeln.

Diese Recherche von Investigate Europe und des Balkan Investigative Reporting Network (BIRN), die auch bei netzpolitik.org erscheint, zeigt, wie der Geschäftsmann Eliran Oved und seine Frau Liat Kourtz Oved aus Tel Aviv über ein Geflecht von Briefkastenfirmen und Strohmännern mutmaßlich im Zentrum des Netzwerks stehen.

Die Spur der Oveds

Auf Social Media wirken die Oveds wie eine erfolgreiche Familie: Sie posten Fotos von exotischen Urlauben und Kostümpartys. Eliran Oved besitzt zugleich den israelischen Fußballverein Bnei Yehuda. Kürzlich zeichnete der israelische Präsident Oved sogar aus für das soziale Engagement seines Klubs.

Doch hinter dieser Fassade läuft offenbar ein lukratives Geschäft jenseits der Stadien und Preisverleihungen. Oved ist wegen Geldwäsche vorbestraft und betrieb eine illegale Glücksspiel-Website. Dafür saß er ein Jahr im Gefängnis. Diese Recherche zeigt, wie er und seine Frau mit den mutmaßlichen Scam-Callcentern verbunden sind. Über sechs Monate wertete das Recherche-Team Dutzende Handelsregister-Dokumente aus und legte die geschäftlichen Verbindungen der Oveds zum mutmaßlichen Millionenbetrug offen. Eliran Oved und Liat Kourtz Oved selbst ließen eine umfangreiche Anfrage zu den Vorwürfen unbeantwortet.

Das im Januar 2023 gestürmte Callcenter, Olympus Prime, gehört einem engen Vertrauten der Oveds. Auch die drei weiteren durchsuchten Callcenter lassen sich mit dem Paar in Verbindung bringen. Von den Büros aus sollen die Callcenter-Agenten Produkte von Marken angeboten haben, deren Spur zu den Oveds und ihren Geschäftspartnern führt.

Zu diesen Trading-Plattform-Marken gehören FXVC, Greenfields Capital und PrimeOT, jene Plattform, auf der die Grazer Sekretärin Anna Leitner knapp 30.000 Euro investierte. Inzwischen sind alle Webseiten offline.

Aus den Callcentern, die in Verbindung zum Oved-Netzwerk stehen, sollen Mitarbeiter Menschen in Deutschland, der Schweiz, Großbritannien und Irland betreut haben, aber auch Menschen in Kanada und Australien. Investigate Europe und BIRN liegt eine Opferliste vor, die bei der Durchsuchung bei Olympus Prime sichergestellt worden ist. Darauf sind Verluste einzelner mutmaßlicher Opfer vermerkt, von wenigen hundert bis hin zu mehr als einer Million Euro.

Leeds United, Strohmänner und Sponsorenverträge

Einer der bekanntesten Betrugsmarken, FXVC, wurde 2020 sogar offizieller Partner des britischen Fußballklubs Leeds United. Dokumente, die Investigate Europe und BIRN vorliegen, legen nahe, dass FXVC aus den Räumen von Olympus Prime betrieben wurde. Der Premier-League-Deal verschaffte riesige Sichtbarkeit im britischen Markt: Das Logo prangte im Stadion, Millionen Zuschauer sahen es wöchentlich. Im April 2021 entzog die britische Finanzaufsicht FCA FXVC schließlich die Lizenz wegen „irreführender Finanzwerbung“.

Auf dem Papier gehörte FXVC einer zypriotischen Holding, die vorgeblich von Strohmännern geleitet wurde. Tatsächlich findet sich in den Bilanzen ein anderer Name als ultimativ wirtschaftlich Berechtigte: Kourtz Oved. Dieses Muster zeigte sich immer wieder. Offiziell gehören diverse Unternehmen Geschäftspartnern der Oveds. Doch gesteuert wurden diese offenbar von dem Paar.

Zu den wichtigsten Strohmännern gehörten der zypriotische Ex-Fußballer Nikos A., die bulgarische Anwältin Vera A. und Miloš R., ein Serbe mit bulgarischem Pass. Keine dieser Personen antwortete auf Anfragen zu den Vorwürfen. R. ist derzeit in Serbien wegen des Verdachts auf Geldwäsche angeklagt. Zusammen führten die drei als Direktoren fünf Oved-Firmen und hielten Anteile an 14 weiteren Unternehmen des Netzwerks.

Belgrader Vertriebsbüros

Im Gegensatz zu ihren Opfern sollen die Callcenter-Broker in Belgrad satt verdient haben. Verglichen mit dem serbischen Durchschnittsgehalt von rund 900 Euro im Monat gehörten die Mitarbeiter mit ihren Grundgehältern und Boni zu den Topverdienern des Landes. Manche kassierten monatliche Provisionen von 60.000 bis 80.000 Euro.

Im Olympus-Prime-Callcenter sollen fünf Teams rund um die Uhr gearbeitet haben, aufgeteilt nach Sprache und Region. Das deutschsprachige Team „Panzer“ soll sich um Opfer in Deutschland, Österreich und der Schweiz gekümmert haben, andere Teams kümmerten sich um Skandinavien und den englischsprachigen Raum. Interne Chats, die die Polizei sicherstellte, zeigen die Verachtung gegenüber den Kunden: „Idioten“, hieß es in einem Chat. Als ein Opfer 40.000 Euro investieren wollte, schrieb ein Kollege: „Super, schnapp’s dir!“

Die Mitarbeiter sollen länderspezifische Decknamen wie „Jack Weiss“ oder „James Eastwood“ genutzt haben. Ihre Kunden lockten sie offenbar zunächst mit kleinen, scheinbar realen Gewinnen, dann drängte sie diese zu immer höheren Einzahlungen.

Die serbische Staatsanwaltschaft beschreibt Olympus Prime als ein hierarchisches Unternehmen. An der Spitze sollen israelische Manager gestanden haben, das Tagesgeschäft leiteten serbische Führungskräfte, am Telefon arbeiteten lokale Agenten. Offizieller Eigentümer: Nikos A., der Ex-Fußballer und Strohmann der Oveds.

„Wir haben es nicht mit Amateuren zu tun. Das ist organisierte Kriminalität. Wenn wir nicht reagieren, verlagern sie den Standort einfach und machen weiter“, warnt der serbische Staatsanwalt Boris Majlat, der in dem Fall ermittelt.

„Wenn wir nichts tun, ziehen sie einfach weiter“

Trotz der Festnahmen Anfang 2023 sind viele Schlüsselfiguren noch immer auf freiem Fuß. Majlat sagt: „Wir haben es mit transnationalem, krypto-basiertem Betrug zu tun, aber die Gerichte behandeln es wie einen normalen Fall.“ Er fordert spezialisierte Einheiten. „Ohne diese können wir nicht gewinnen.“

Seit 2019 leitet der Bamberger Staatsanwalt Nino Goldbeck eine Ermittlungsstelle für den Investment-Betrug. Über die Arbeit sagt er, „Wenn wir ein Callcenter mit 200 Beschäftigten durchsuchen, landet davon nur ein Bruchteil in Haft“. Gründe dafür seien Ressourcenknappheit, Priorisierungsfragen sowie unterschiedliche Rechtsrahmen. Die Bamberger Ermittler ließen seit 2019 europaweit 15 Durchsuchungen durchführen. Bisher wurden ungefähr 80 Personen abschließend rechtskräftig verurteilt.

In Serbien laufen die Ermittlungen weiter. Mit führenden Verdächtigen im Ausland und vielen Jurisdiktionen sei es aber extrem schwer, Recht durchzusetzen. Zu den Oveds selbst wollte die Staatsanwaltschaft „keinen Kommentar“ abgeben.

In Deutschland hat inzwischen die Generalstaatsanwaltschaft in Karlsruhe das Verfahren an sich gezogen. Fünf Jahre nach den mutmaßlichen Taten und mehr als zwei Jahre nach den Durchsuchungen in Serbien, Bulgarien und Zypern hat diese noch immer keine Anklage erhoben. Die zuständigen Staatsanwälte äußern sich zu dem laufenden Verfahren nicht.

Gegen die Oveds und deren mutmaßliche Strohmänner wurde bisher keine Anklage erhoben wegen Straftaten im Zusammenhang mit dem serbischen Callcenter-Betrug, der in diesem Artikel geschildert wird.

Viele Opfer kämpfen noch immer mit den Folgen. Manche wollten gar nicht reden, aus Angst, erneut ins Visier zu geraten. Andere sagten, die Erinnerungen seien zu schmerzhaft. Auch Anna Leitner fällt es nicht leicht, darüber zu sprechen, wie sie ihr Erspartes über die vermeintliche Investment-Plattform PrimeOT verlor.

„Die haben mich rausgeschmissen“

Binnen vier Monaten hatte Leitner fast 30.000 Euro investiert. Im Januar 2021 erkannte sie, dass sie in eine Betrugsmasche geraten war. Da war es zu spät. „Ich wollte mein Geld ausgezahlt bekommen“, erinnert sich Leitner heute. Doch ihr vermeintlicher Finanzberater habe nur Ausreden präsentiert. In einer E-Mail bat sie ihn um ein Gespräch. Doch der Mann, der bis dahin auch mal von seiner Familie geplaudert hatte, meldete sich nicht mehr. Kurz darauf konnte Leitner sich nicht mehr auf der Investment-Webseite einloggen. Heute sagt sie: „Die haben mich rausgeschmissen.“

„Dann wurde mir klar, dass ich Scheiße gebaut habe“, sagt Leitner. Mit einer Berliner Anwaltskanzlei versuchte sie im März 2021, ihr Geld zurückzuholen. Doch alle Bemühungen liefen ins Leere. Im Herbst 2023 schrieb ihr Anwalt, dass „trotz unserer Bemühungen, Beschwerde und Übersendung weiterer Ermittlungsansätze“ die Staatsanwaltschaft Graz „die Ermittlungen gegen die PrimeOT eingestellt hat“. Auf Nachfrage bestätigt die Staatsanwaltschaft Graz die Einstellung des Verfahrens.

Trotz allem expandieren die Oveds unterdessen weiter. Unlängst brachten sie über eine Offshore-Gesellschaft neue Marken auf den Markt: Klips.com und 50K.trade.

Dieser Artikel ist der erste Teil der Recherche „Scam Europe“, die vom Balkan Investigative Network (BIRN) geleitet wurde sowie von Investigate Europe, einem Journalistenteam, das länderübergreifend arbeitet. Die Recherche wird gemeinsam mit Medienpartnern in acht Ländern veröffentlicht, darunter auch Altreconomia, Balkan Insight, EU Observer, The Irish Times, La Libre, Público sowie Der Standard. Dieses Projekt wurde unterstützt von IJ4EU (Investigative Journalism for Europe).


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Datenschutz und KI: Schluss mit der Zögerlichkeit!

Von: Gastbeitrag · Paulina Jo Pesch

Die Folgen des KI-Hypes für den Datenschutz sind schwer absehbar. Im Fall von Metas KI-Training zögern Aufsichtsbehörden, das Oberlandesgericht Köln gab dem Konzern sogar – fürs Erste – grünes Licht. Jura-Professorin Paulina Jo Pesch zeigt Schwächen des Urteils auf und fordert eine entschiedenere Durchsetzung der Datenschutzvorgaben.

Ein altmodisch aussehendes Treppenhaus von oben. Es windet sich in Spiralen nach unten.
Abwärtsspirale: Das Treppenhaus im Oberlandesgericht Köln CC-BY-SA 4.0 1971markus

Hinter weitverbreiteten KI-Anwendungen stehen generative Sprach- und Bildmodelle, die mit riesigen Datenmengen gefüttert werden, auch mit personenbezogenen Daten. Das Problem: Teile der Trainingsdaten, darunter personenbezogene, lassen sich aus vielen der Modelle extrahieren. Unter welchen Umständen sich ein Modell zu viel „merkt“ und wie sich das verhindern lässt, ist bislang wenig erforscht. Zugleich werden Extrahierungsmethoden immer besser. Anbieter*innen können bislang nicht verhindern, dass Modelle personenbezogene Trainingsdaten ausgeben. Auch Chatbots können personenbezogene Daten von anderen verraten.

Außerdem „halluzinieren“ die Modelle. Sie generieren also falsche Informationen, die nicht in den Trainingsdaten enthalten sind. Weil KI-Unternehmen diese nicht offenlegen, können Forscher*innen nicht zuverlässig messen, wann ein Modell Informationen erfindet und wann es unrichtige Trainingsdaten wiedergibt. Zuverlässige Methoden zur Vermeidung von Halluzinationen gibt es bisher nicht.

Werden personenbezogene Daten aus einem Modell extrahiert, kann für Betroffene gerade die Kombination aus „Erinnerung“ und „Halluzination“ gefährlich sein. Ein mit personenbezogenen Daten trainiertes Modell generiert unter Umständen Falschinformationen über sie. Gerade bei öffentlichen Modellen besteht das Risiko, dass Nutzer*innen diese Informationen unkritisch weiterverbreiten.

Meta fragt lieber nicht um Erlaubnis

Mit Llama (Large Language Model Meta AI) ist auch Meta an dem KI-Rennen beteiligt. Meta nutzt Llama für eigene KI-Funktionen wie Transkriptions- oder Suchfeatures auf Instagram, Facebook und WhatsApp sowie für Chatbots oder in KI-Brillen, die das Unternehmen anbietet. Außerdem stellt Meta seine Modelle anderen zur Nutzung bereit. So können etwa Forscher*innen die Modelle testen oder Unternehmen auf Basis von Llama KI-Dienstleistungen oder -Produkte anbieten.

Im Juni 2024 informierte Meta die Nutzer*innen von Instagram und Facebook über eine Aktualisierung seiner Datenschutzrichtlinie. Diese Aktualisierung ließ Metas Vorhaben erkennen, seine KI-Modelle mit Nutzer*innendaten zu trainieren. Die Nutzer*innen konnten dem zwar widersprechen, die Widerspruchsmöglichkeit war jedoch schwer auffindbar.

Nachdem Datenschutzorganisationen wie noyb Meta scharf kritisierten, veröffentlichte der Konzern noch gleichen Monat weitere Informationen zum geplanten Training. Demnach beabsichtigte der Konzern, nur noch öffentliche Daten für das Training zu verwenden. Kurz darauf verkündete Meta, die irische Datenschutzbehörde verzögere das Training in der EU. Im April 2025 verkündete der Konzern dann den baldigen Trainingsstart.

Was trainiert Meta eigentlich mit welchen Daten?

Inzwischen hat der Konzern damit begonnen, seine KI mit den Daten europäischer Nutzer*innen zu trainieren. Unklar ist weiterhin, welche Daten dafür genau genutzt werden. Meta stellt im Vergleich zu anderen KI-Unternehmen zwar mehr Informationen über das Training mit Social-Media-Daten bereit. Diese Informationen haben sich aber immer wieder verändert und lassen Fragen offen.

Das betrifft insbesondere den Umgang mit sensiblen Daten. Bei Llama handelt es sich um ein multimodales Sprachmodell, das neben Texten auch Bilder, Videos und Tondateien verarbeitet. Der für das Training genutzte Social-Media-Content umfasst damit etwa auch Fotos der Nutzer*innen. Metas Datenschutzinformationen verweisen auf öffentliche Inhalte wie Beiträge, Kommentare und Audiospuren.

Inzwischen heißt es in den Datenschutzinformationen, dass auch Daten von Drittpartner*innen und KI-Interaktionen für die KI-Entwicklung genutzt würden. Als Beispiele für KI-Interaktionen nennt Meta Nachrichten, die Nutzer*innen oder andere Personen von der KI erhalten, mit ihr teilen oder an diese senden.

Diese Angaben schließen private Sprachnachrichten und Transkriptionen nicht aus. Metas Umschreibung passt auch auf Chatverläufe mit Chatbots. Solche Chatverläufe können besonders sensible Daten enthalten, wenn etwa Chatbots für intime Gespräche zu mentaler Gesundheit oder parasoziale romantische Beziehungen genutzt werden.

Verbraucherzentrale scheitert vor Gericht

Um den Beginn des Trainings zu verhindern, hat die Verbraucherzentrale Nordrhein-Westfalen im Mai 2025 einen Eilantrag beim Oberlandesgericht (OLG) Köln gestellt. Sie argumentierte insbesondere, dass Meta das Training nicht auf eine wirksame Rechtsgrundlage stützen könne, ist mit dem Eilantrag jedoch gescheitert. Das Urteil und Einblicke in die mündliche Verhandlung in Köln offenbaren erhebliche Mängel.

Meta hatte sich entschieden, keine Einwilligungen einzuholen, sondern beruft sich auf ein berechtigtes Interesse an der Nutzung der Daten für KI-Training. Die Verbraucherzentrale hält das für unzureichend, doch das Gericht folgt Metas Argumentation in seinem Urteil. Nach der Datenschutzgrundverordnung (DSGVO) können berechtigte Interessen die Verarbeitung personenbezogener Daten rechtfertigen, solange die Interessen Betroffener nicht schwerer wiegen. Dabei müssen diese der Datenverarbeitung aber widersprechen können.

Die Verbraucherzentrale NRW hat darauf hingewiesen, dass nicht alle Betroffenen widersprechen können. Facebook- und Instagram-Beiträge enthalten zuhauf personenbezogene Daten von Nicht-Nutzer*innen. Die Widerspruchsfunktion steht aber nur Nutzer*innen offen. Das Gericht ignoriert diesen Einwand. Zudem behauptet es ohne Begründung und trotz gegenteiliger Hinweise, Meta erfülle die Anforderungen der DSGVO an den Schutz von Minderjährigen.

Das Gericht halluziniert niedrige Risiken herbei

Berechtigte Interessen geben außerdem keine Rechtsgrundlage für Verarbeitungen her, die für Betroffene zu riskant sind. Das OLG Köln behauptet, die Risiken für Nutzer*innen seien gering. Dabei legt das Urteil nahe, dass die Richter*innen nicht verstanden haben, was Meta trainiert. Das Wort „Llama“ taucht im gesamten Urteil nicht auf. Auch beschreibt das Gericht keine Anwendungsszenarien.

Auf diese kommt es aber entscheidend an. Ein Transkriptionsfeature gibt wahrscheinlich keine extrahierbaren Daten aus. Aus Llama selbst werden jedoch sicher Daten extrahiert. Forscher*innen wenden Extrahierungsmethoden auf alle bekannten Modelle an. Je nachdem, welche Arten von Daten wie gut extrahierbar sind, könnte es dabei versehentlich auch zu Datenlecks kommen.

Gerichte prüfen in Eilverfahren die Rechtslage nur „kursorisch“, also nicht im Detail. Das OLG Köln reiht dabei aber mit großem Selbstbewusstsein Behauptungen aneinander, die aus Sicht der Datenschutzforschung haltlos sind. Selbst wenn Metas Training transparent genug wäre, fehlt es an tragfähigen Forschungsergebnissen für die Einschätzung des Gerichts.

Ein grober Fehler des Urteils betrifft besondere Kategorien personenbezogener Daten. Das sind sensible Daten, die die DSGVO besonders schützt, zum Beispiel Daten über Race, religiöse Anschauungen oder sexuelle Orientierungen. Social-Media-Daten enthalten viele solcher Daten. Besondere Kategorien personenbezogener Daten dürfen nicht auf Basis berechtigter Interessen verarbeitet werden, sondern nur unter strengeren Voraussetzungen, in vielen Fällen nur aufgrund von Einwilligungen. Das OLG Köln stört sich daran nicht.

Stattdessen behauptet das Gericht, dass die Anwendung der besonderen Schutzanforderungen nicht geboten sei. Das Urteil stellt hier wieder auf ein nicht weiter begründetes geringes Risiko ab. Dabei kommt es gerade im Bereich des maschinellen Lernens leicht zu unbemerkten Modellbias, also zu systematischen Fehleinschätzungen, die zum Beispiel zu rassistischer Diskriminierung führen. Besondere Kategorien personenbezogener Daten bergen dabei potenziell besonders hohe Risiken.

Bedenkliche Informationslage

Bedenklich ist zudem die Informationslage, auf die sich das Gericht stützt. In diesem Fall sind das vor allem die Angaben von Meta selbst. Das ist in einem Eilverfahren an sich nicht zu beanstanden – weil es schnell gehen muss, gelten geringere Beweisanforderungen. Gerichte arbeiten daher mit eidesstattlichen Versicherungen, formellen Erklärungen der Parteien. Um Falschangaben vorzubeugen, sind falsche eidesstattliche Versicherungen nach dem Strafgesetzbuch strafbar.

Das Urteil stellt entscheidend auf eidesstattliche Versicherungen von Metas Produktmanager für generative KI ab. Zwei in der mündlichen Verhandlung in Köln anwesende Personen berichten allerdings, dass die Versicherungen nie formgerecht abgegeben worden sind. (Die Autorin hat von zwei in der Verhandlung in Köln anwesenden Personen Informationen zum Ablauf der mündlichen Verhandlung und dabei getroffenen Aussagen des Gerichts erhalten. Eine der Personen ist seitens der klagenden Verbraucherzentrale am Verfahren beteiligt, die andere Person hat den Prozess beobachtet, ohne daran beteiligt zu sein.)

Eidesstattliche Versicherungen müssen mündlich oder im Original mit händischer Unterschrift abgegeben werden. Selbst wenn die Erklärungen von Meta formgerecht wären, hätte sich das OLG Köln besser nicht darauf verlassen. Es gibt zwar keine Anzeichen dafür, dass diese Falschangaben enthalten. Durch das deutsche Strafgesetzbuch wäre deren Richtigkeit aber nicht abgesichert: Falls der in Kalifornien ansässige Manager nicht einreisen will, hätten Falschangaben keine strafrechtlichen Folgen für ihn.

Zudem legt das Urteil nahe, dass Metas Erklärungen inhaltlich dünn sind. Sie bestätigen etwa das Funktionieren der Widerspruchsfunktion. Eine Pressemitteilung der für Meta zuständigen irischen Datenschutzbehörde (Data Protection Commission, DPC) zeigt jedoch, dass die Behörde Meta zur Nachbesserung der Widerspruchsfunktion aufgefordert hat. Es bleibt somit zweifelhaft, ob Widersprüche in der Vergangenheit einfach genug möglich waren und funktioniert haben.

Datenschutzbehörden lassen Meta erst mal machen

Auch die Pressemitteilung der irischen Datenschutzbehörde und der Umgang des Gerichts damit verdienen besondere Aufmerksamkeit. Die für ihre Nachsicht gegenüber Datenkonzernen bekannte Behörde hat die Pressemitteilung am Vorabend der mündlichen Verhandlung in Köln veröffentlicht. Sollte die Behörde sich etwa mit Meta abgestimmt und so das Verfahren beeinflusst haben?

Das OLG Köln hat nach Berichten Anwesender schon in der mündlichen Verhandlung signalisiert, der Rechtsauffassung der irischen Behörde wahrscheinlich folgen zu müssen, warum auch immer das Gericht sich an deren Einschätzung auch nur lose gebunden fühlt. Das ist nicht nur im Hinblick auf die Gewaltenteilung bedenklich. Die Pressemitteilung enthält auch keinerlei Rechtsauffassung zur Frage nach der Datenschutzkonformität, der das Gericht folgen könnte. Sie enthält schlicht gar keine rechtliche Einschätzung. Es heißt lediglich, Meta habe in Absprache mit der Behörde Maßnahmen zur Verbesserung des Datenschutzes ergriffen und verfolge die Umsetzung weiter.

Aus der Pressemitteilung wird ersichtlich, dass die irische Behörde Meta nur beraten hat. Das war dem OLG Köln auch von Metas Hauptaufsichtsbehörde in Deutschland, dem Hamburger Datenschutzbeauftragten, bekannt. Im Urteil heißt es ausdrücklich, die Behörde habe Meta das Training „bislang“ nicht untersagt und beobachte derzeit die Folgen der Trainings.

Der Hamburger Datenschutzbeauftragte hatte im Juli 2024 die Datenschutzauswirkungen des Trainings generativer Sprachmodelle noch unterschätzt. Nach Berichten aus der mündlichen Verhandlung hat er angesichts seiner Einblicke in Metas Training diese Auffassung zurückgenommen, erhebliche Datenschutzbedenken geäußert und zunächst sogar ein eigenes Verfahren gegen Meta angekündigt. Außerdem berichtete er, dass die irische Behörde plane, ein Verletzungsverfahren im Oktober einzuleiten. Das spricht dafür, dass europäische Datenschutzbehörden von Verstößen wissen, Meta aber zunächst gewähren lassen.

Wider den KI-Hype

Die Bedeutung des Kölner Verfahrens weist über Meta und über Deutschland hinaus. Das Urteil und die Vorgänge im Prozess legen nahe, dass europäische Gerichte und Aufsichtsbehörden bei KI dem Ansatz „Abwarten und Teetrinken“ folgen. Es lässt sich nur spekulieren, welche Rollen hier der Druck des KI-Hypes, Innovationspläne der EU oder auch blanke Naivität spielen.

Dabei macht die DSGVO nicht nur klare Vorgaben an KI-Unternehmen, sondern bietet diesen auch ausreichende Möglichkeiten, sich an die Vorgaben zu halten. Demnach müssen KI-Unternehmen die Datenschutzkonformität ihrer Vorhaben begründet nachweisen. Sie dürfen ihre Modelle trainieren und testen – allerdings nur zu reinen Forschungszwecken und ohne die KI in der Praxis einzusetzen – und damit blind auf die Menschheit loszulassen. Gerichte und Aufsichtsbehörden sollten diese Vorgaben durchsetzen, anstatt sich dem KI-Hype zu beugen.

Prof. Dr. Paulina Jo Pesch ist Juniorprofessorin für Bürgerliches Recht sowie das Recht der Digitalisierung, des Datenschutzes und der Künstlichen Intelligenz am Institut für Recht und Technik der Friedrich-Alexander-Universität Erlangen-Nürnberg. Sie koordiniert das vom Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) geförderte interdisziplinäre Forschungsprojekt SMARD-GOV, das Datenschutzaspekte großer Sprachmodelle erforscht.

Eine englischsprachige Langfassung der Analyse des Verfahrens sowie eines weiteren Verfahrens beim OLG Schleswig-Holstein ist im CR-online blog erschienen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

KI im Krieg: „Wir brauchen mehr kritische Debatten und zivilgesellschaftliches Engagement“

Von: Gastbeitrag · Erika Dornbusch

Autonome Waffensysteme treffen zunehmend eigenständig Entscheidungen. Nicht zuletzt der Ukrainekrieg dient dabei als Experimentierfeld für militärische KI-Systeme. Welche Folgen das hat und welche Regulierung es braucht, erläutert der Technikforscher Jens Hälterlein im Gespräch mit netzpolitik.org.

Bundesverteidigungsminister Boris Pistorius (SPD) besucht das Cyber Innovation Hub. Im Vordergrund Technik für die Drohnenabwehr.
Auch beim “ Cyber Innovation Hub“ der Bundeswehr geht es um KI, hier zur Drohnenabwehr. – Alle Rechte vorbehalten IMAGO / Mike Schmidt

Drohnen, die von sogenannter Künstlicher Intelligenz gesteuert werden, gewinnen an Bedeutung. Gerade der Ukrainekrieg dient als Testfeld für neue militärische KI-Anwendungen. Sie ermöglichen nicht nur technologische Fortschritte, sondern werfen auch grundlegende ethische und geopolitische Fragen auf.

Jens Hälterlein ist Technik- und Wissenschaftsforscher an der Universität Paderborn. Er forscht im Projekt Meaningful Human Control zur Regulierung autonomer Waffensysteme. Ein Fokus seiner Arbeit liegt auf Drohnenschwärmen und bestehenden Ansätzen zur ethischen Regulierung KI-basierter Militärtechnologien. Wir haben mit ihm über die Auswirkungen von KI-Anwendungen im Krieg gesprochen.

netzpolitik.org: In Ihrer Forschung beschäftigen sie sich intensiv mit der Entwicklung und dem Einsatz von KI im militärischen Kontext. Der Ukrainekrieg wird zunehmend als „Experimentierfeld“ für militärische KI-Anwendungen beschrieben. Wie schauen Sie auf diese Entwicklung?

Jens Hälterlein: Der Krieg in der Ukraine ermöglicht es – wie im Prinzip jeder Krieg –, neue militärische Entwicklungen unter realen Einsatzbedingungen zu testen. Für die Entwicklung militärischer KI-Anwendungen besteht ein weiterer Vorteil darin, dass auf den Schlachtfeldern der Ukraine große Mengen an Trainingsdaten erzeugt werden. Sie sind für maschinelle Lernprozesse notwendig. Daraus ergeben sich ganz neue Möglichkeiten. Die Ukraine wurde daher auch als „Living Lab“ für militärische KI bezeichnet, also eine Art „Reallabor“.

Nicht ohne Grund hat das US-amerikanische Unternehmen Palantir seine Datenanalyse-Software gleich zu Beginn des Krieges der Ukraine angeboten. Obwohl diese Software zuvor nur für wirtschaftliche und polizeiliche Analysen genutzt wurde, stellte sie schon nach kurzer Zeit ein zentrales Element für die Entscheidungsfindungsprozesse des ukrainischen Militärs dar.

Daten verhelfen der KI zum Druchbruch

netzpolitik.org: Zu Beginn des Ukrainekrieges spielten KI-Systeme bei Drohnen offenbar eine eher unterstützende Rolle. Das verändert sich aus Ihrer Sicht. Können Sie die technologischen Fortschritte und ihre Bedeutung genauer erläutern?

Jens Hälterlein: Am Anfang des Ukrainekrieges wurden die eingesetzten Drohnen noch größtenteils ferngesteuert. KI hat nur in einigen sogenannten „nicht-kritischen“ Funktionen eine Rolle gespielt, beispielsweise im Sinne eines Autopiloten. Das ändert sich derzeit aber anscheinend. Sowohl die Systeme ukrainischer Start-ups als auch die dort eingesetzten westlichen Systeme entsprechen zunehmend dem, was in der internationalen Debatte als tödliche Autonome Waffensysteme (LAWS) bezeichnet wird. Damit sind Systeme gemeint, die kritische Funktionen – also Zielfindung, Zielauswahl und Angriff – ohne menschliches Zutun vollziehen können.

Die in diesen Waffensystemen verwendeten Hardwarekomponenten und Algorithmen sind im Prinzip nicht neu. Aber lange Zeit wurden militärische Innovationen in diesem Bereich durch einen Mangel an Daten ausgebremst. Das ist vergleichbar mit der Entwicklung von Gesichtserkennungssystemen, die erst durch die massenhafte Verfügbarkeit von gelabelten Fotos in sozialen Medien einen Durchbruch erfahren haben.

netzpolitik.org: Über die russischen Systeme, wie etwa die neue Variante der Lancet-Kamikaze-Drohne, ist weit weniger bekannt.

Jens Hälterlein: Im Prinzip sind wir bei allen Kriegsparteien auf die Aussagen von Militärs und Waffenherstellern angewiesen. Und die sind natürlich grundsätzlich mit Vorsicht zu genießen, ganz gleich, ob es sich um westliche oder nicht-westliche Akteure handelt. Seit dem Krieg ist unsere Informationslage zu russischen Systemen allerdings noch eingeschränkter als zuvor. Aber da eine russische KI beziehungsweise eine russische KI-basierte Kampfdrohne grundsätzlich ähnlich funktioniert wie eine US-amerikanische oder eine deutsche sollten auch der jeweilige Kontext ähnlich sein. Auch auf russischer Seite werden diese Waffensysteme daher wohl autonomer werden. Und mit diesem Anspruch wird ja auch das neue Modell der Lancet-Drohne beworben.

Blindes Vertrauen

netzpolitik.org: Wenn militärische KI-Systeme und Autonome Waffensysteme in einem Konflikt wie in der Ukraine getestet werden, wirft dies ethische oder politische Fragen auf. Welche sind das aus Ihrer Sicht?

Jens Hälterlein: Es gibt zahlreiche Probleme. Zum einen ist militärische KI – wie jede KI – notorisch fehleranfällig und vorurteilsbehaftet. Fehler und Vorurteile können hier aber tödliche Folgen haben. Ein System könnte etwa Zivilisten als Kombattanten identifizieren, weil es Daten fehlinterpretiert oder weil es für die Unterscheidung relevante Faktoren übersieht.

Zum anderen droht es durch den Einsatz hochkomplexer Systeme zu einer Verantwortungsdiffusion zu kommen. Formal muss zwar immer ein Mensch als Letztinstanz zustimmen, wenn es zur Tötung von Menschen kommen kann. Allerdings können Bediener*innen nicht im Detail nachvollziehen, wie ein KI-basiertes System seinen Output erzeugt hat. Gleichzeitig kommen sie nicht umhin, auf dessen Basis Entscheidungen zu treffen, und das meist unter Zeitdruck. Auch deshalb könnten sie dazu tendieren, dem Output der Systeme nahezu blind zu vertrauen, was sie angesichts der Fehleranfälligkeit dieser Systeme jedoch keineswegs tun sollten.

Kriegstreiber KI

netzpolitik.org: Ein weiteres Risiko ist die globale Verbreitung dieser Technologien. Wie realistisch ist es, dass in Zukunft immer mehr Staaten autonome Waffensysteme einsetzen – möglicherweise auch im Globalen Süden?

Jens Hälterlein: Drohnen sind wesentlich preisgünstiger als Kampfjets. Gerade kleine Drohnen mit relativ kurzer Flugzeit und geringer Nutzlast sind nicht teuer. In der Ukraine werden sogar kommerzielle Modelle, die wenige hundert Euro kosten, verwendet. Sie werden quasi „in Heimarbeit“ mit Granaten und anderen Kampfmitteln bestückt.

Teuer wird es vor allem dann, wenn besondere Softwarekomponenten entwickelt werden. Aber auch diese Kosten sind kaum mit den Gesamtkosten für die Entwicklung der F-35 oder des Future Combat Air Systems vergleichbar. Es ist also davon auszugehen, dass Finanzen einen zunehmend geringen Faktor bei der globalen Verbreitung KI-basierter Militärtechnologien darstellen. Das türkische Unternehmen Baykar hat beispielsweise seine KI-Kampfdrohe Bayraktar TB2 eben nicht nur in die Ukraine exportiert, sondern auch in zahlreiche afrikanische und asiatische Staaten, wo sie bereits in mehreren Kriegen zum Einsatz gekommen ist.

Unzureichende Regulierung

netzpolitik.org: Mit Blick auf die politische Regulierung von autonomen Waffensystemen und KI-Drohnen sagen Sie, dass wir zunehmend vor vollendete Tatsachen gestellt werden. Gibt es überhaupt noch Chancen auf international verbindliche Regeln?

Jens Hälterlein: Da sehe ich leider wenig Grund zu Optimismus. Im Rahmen der UN-Rüstungskontrolle gibt es seit mehr als zehn Jahren Bemühungen, verbindliche Regulierungen für LAW zu erwirken – bisher ohne Erfolg. Und zwar in erster Linie deshalb, weil solche Regulierungen nicht im Interesse der Nationen liegen, die LAWS entwickeln, einsetzen oder es in Zukunft beabsichtigen. Das sind neben den militärischen Großmächten USA, Großbritannien, Russland und China auch militärische Exportnationen wie Israel, die Türkei und Deutschland.

Deutschland hat sich zwar zusammen mit Frankreich für ein Verbot sogenannter vollautonomer Waffensystemen ausgesprochen. Gleichzeitig aber soll der Einsatz von sogenannten teilautonomen Waffensystemen erlaubt sein. Wenn aber für deren Einstufung bereits ausreichen soll, dass ein Mensch dem Output des Systems final zustimmen muss, halte ich diesen Ansatz aus den genannten Gründen für ungenügend.

Ethik ist kein Ersatz für Recht

netzpolitik.org: Was muss aus Ihrer Sicht passieren, um die unkontrollierte Verbreitung und den Missbrauch solcher Technologien noch zu verhindern?

Jens Hälterlein: Eine Patentlösung habe ich leider nicht. Es benötigt mehr kritische Debatten und zivilgesellschaftliches Engagement. Außerdem müssen wir stärker die Perspektiven der Opfer solcher Technologien in den Blick nehmen. Aber letzten Endes dürften die gegenwärtige globale Polarisierung und Militarisierung ein Klima erzeugen, in dem für Waffenkontrolle wenig Raum ist. Das sehen wir derzeit auch im Bereich der Regulierung von Atomwaffen.

Was aus meiner Perspektive definitiv keine ausreichende Lösung darstellt, ist die Ethik. Mittlerweile gibt es in eine ganze Reihe von Militärstrategien – vor allem westlicher Staaten -, die ein freiwilliges Bekenntnis zum Leitbild eines verantwortungsvollen, erklärbaren und verlässlichen Einsatzes von KI vorsehen. Es ist aber weiterhin unklar, wie die ethischen Prinzipien im Kontext von LAWS eingehalten sowie umgesetzt und kontrolliert werden können.

Vor allem aber sollte Ethik nicht an die Stelle des Rechts treten. Genau diese Gefahr besteht aber. Wir sehen aktuell eine Delegitimierung etablierter internationaler Rechtsnormen seitens westlicher Staaten. Gleichzeitig beziehen sie sich auf Konzepte wie die „regelbasierte internationale Ordnung“, die sich je nach Interessenlage mit Inhalt füllen lassen. In diesem Kontext sollten wir auch die Rhetorik einer „Responsible AI in the Military Domain“ verstehen. Ethik wirkt hier eher ermöglichend als einschränkend.

Erika Dornbusch hat Politikwissenschaften studiert, einige Monate in Syrien gelebt und dort hauptsächlich über den IS geschrieben. Zurzeit arbeitet sie im Bevölkerungsschutz, kommt mit Ordnung jedoch schlechter als mit Chaos zurecht.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

30 Jahre online: Wie das Internet den Journalismus verändert hat

Von: Gastbeitrag · Jann-Luca Künßberg

Von Suchmaschinen über soziale Medien bis zu KI: Technische Entwicklungen haben den Journalismus im Netz immer wieder verändert und ihm Reichweite als zentrale Zielgröße aufgezwungen. Die Geschichte der Online-Medien muss deshalb auch als Geschichte vom Verlust der journalistischen Autonomie begriffen werden.

Ein altmodischer Maus-Cursor vor schwarzem Hintergrund
Klicks wurden zur wichtigsten Währung im Online-Journalismus – Gemeinfrei-ähnlich freigegeben durch unsplash.com Liam Briese

Derzeit häufen sich die 30. Geburtstage von Online-Auftritten überregionaler Traditionsmedien. Mit amüsierten Rückblicken auf steinzeitlich anmutende Technik, auf das kleine und eher kuriose Publikum oder die Frage, wer zuerst da war, feiern sie ihr Jubiläum in zahlreichen Texten. Was bei den Erzählungen außen vor bleibt: wie das Internet die Funktionsweise der Massenmedien selbst verändert hat.

Das Netz als Spielwiese und Geschäftsgelegenheit

Als sich das Internet mit Beginn der 1990er Jahre zunehmend kommerzialisiert, ist der Zeitgeist geprägt von Visionen der Entstaatlichung, die sich auch in die Konstruktion des digitalen Raumes einschreiben. Ohne Staat aber, das übersehen die Pionier*innen damals, kann niemand verhindern, dass Großunternehmen den Cyberspace kolonisieren. Das Internet ist schnell nicht mehr Versammlungsort einer Gegenkultur, sondern wird zur Geschäftsgelegenheit.

Die grenzenlose Kommodifizierung ist für viele Zeitgenossen kaum vorherzusehen – dafür bietet der neue Raum zu viele Möglichkeiten. Die deutschen Medien jedenfalls treten mit einem anderen Gefühl den Weg ins Netz an: Sie begeben sich auf eine Spielwiese. Die liegt in einer Gemeinde, der sogenannten Netzgemeinde. Dort ist es zwar nicht so beschaulich wie es heute klingt, in den frühen Foren geht es schon hoch her. Für die Journalist*innen ist sie aber vor allem ein Experimentierfeld, die Grenzen der eigenen Arbeit zu öffnen.

Anders als in der Rückschau oft behauptet, wird in dieser Frühphase des Online-Journalismus durchaus über dessen Finanzierung nachgedacht. Der erste „Spiegel Online“-Chef Uly Foerster etwa erzählt im Interview, dass er damals in der eigenen Anzeigenabteilung und bei Agenturen hausieren ging, um die Möglichkeiten von Internetwerbung auszuloten. Und Dirk Kuhlmann fragt in einer Studienarbeit für die TU Berlin 1995/96 die Zahlungsbereitschaft der ersten Online-Leser*innen der „taz“ ab – mit dem Ergebnis, dass jedenfalls ein Teil der Befragten bereit wäre, ein Abonnement zu beziehen und dafür zu bezahlen.

Der Zeitgeist ist aber ein anderer: Das kommerzielle Internet finanziert sich nicht über Abos, sondern über Werbung. Manch früher US-Onlinedienst wie etwa der Webhoster Tripod spielt sie schon damals passend zu Interessen und persönlichen Merkmalen aus. Weil aber selbst demografisch genaue Daten nur bedingt Rückschlüsse auf individuelle Konsuminteressen zulassen, funktioniert dieses Modell bereits in den 90ern vor allem mittels eines Faktors, die das Internet bis heute prägt: maximale Reichweite.

Wer den Dotcom-Boom überlebte, backte kleine Brötchen

Die Geschäftsgelegenheit Internet nimmt als Dotcom-Boom schnell Fahrt auf. In den späten 90ern provozierten bis dato oft unbekannte Unternehmen mit neuartigen Geschäftsideen immer höhere Gewinnerwartungen bei Anlegern und nährten teilweise mit kriminellen Konzepten eine Börsenblase. Ohne diese Phase lässt sich die Geschichte des Online-Journalismus nicht erzählen.

Zwar profitieren deutsche Medienunternehmen kaum von dem Hype – Werbekunden in Deutschland sind noch nicht auf das neue Anzeigenumfeld eingestellt, nur wenige Online-Medien verdienen wirklich Geld. Trotzdem zieht der Niedergang des Dotcom-Booms sie mit in den Abgrund. Nach dem Platzen der Blase im März 2000 geraten viele Medien unter Druck. Der Internet-Werbemarkt bricht vorübergehend ein und in den gerade erst aufgebauten Online-Redaktionen wird gekürzt. Der Online-Dienst Heise schreibt 2010 rückblickend: „Wer überlebte, backte fortan kleine Brötchen im Web 1.0.“

„Spiegel Online“ aber hat Glück: Kurz vor dem Crash habe er noch personell aufstocken können, erzählt Mathias Müller von Blumencron, der ab 2000 Chefredakteur des Nachrichtenportals ist. Die Zeit nach der geplatzten Blase sei der Redaktion aber „wie eine Ewigkeit vorgekommen“. Es habe nahezu keine Online-Werbung gegeben und große Skepsis in den Verlagen. Kurzum: Die Weiterentwicklung stockte.

Der 11. September und seine Folgen

Eine nachhaltige Depression bleibt dennoch aus. Zu schnell habe sich die Technologie weiterentwickelt, erinnert sich der Journalist Detlef Borchers im Gespräch. Aus den Nischeninteressen Computer und Internet wird ein Lifestyle-Thema, der digitale Raum entwickelt sich bald zum Massenphänomen. Der kollektive Schock, sofern er überhaupt so zu bezeichnen ist, weicht einer gemeinschaftlichen Euphorie über die neue Technik.

Als Durchbruch für den Online-Journalismus muss allerdings ein anderer Krisenmoment gelten: Die Terroranschläge auf das World Trade Center am 11. September. „Ab 2001 reichte es nicht mehr, nur die Tagesschau zu gucken“, so Borchers. In dieser Zeit stellt Google – gerade Marktführer geworden, bis dahin aber keineswegs die dominante Suchmaschine – manuelle Linklisten zu wichtigen Nachrichtenportalen auf seine Homepage. Auf der Startseite finden sich damals Verweise zu Medien aus aller Welt.

Zwar sind deren Web-Auftritte wie Radio und TV teilweise immer noch zu langsam, doch das Publikum ist jetzt da. In Kommentaren zum 30. Geburtstag von „Spiegel Online“ bezeichnen viele Leser*innen die Terroranschläge als Erweckungsmoment. In einem Rückblick von „welt.de“ heißt es: „Das Interesse der Nutzer an aktualisierten Nachrichten ließ in den folgenden Tagen und Monaten nicht nach.“

Bei vielen Medien gehen aber zeitweise die Server in die Knie, sie sind auf den Ansturm der Besucher*innen nicht vorbereitet. Möglicherweise ist dies mitentscheidend dafür, dass Suchmaschinen sich zur ersten Anlaufstelle für Informationen im Netz entwickeln können. Journalist Detlef Borchers jedenfalls macht die Anschläge auf das World Trade Center für den Aufstieg der heute größten Suchmaschine verantwortlich: Google habe damals besser reagiert als viele Zeitungen. Die Suchmaschine blieb in dieser entscheidenden Situation immer erreichbar und machte sich so zum gern genutzten Startfenster für das Web.

Google und Online-Journalismus wären beide als Erfolgsmodell ohne den jeweils anderen zwar vorstellbar, die Geschichte hat sie aber aneinander gebunden. Das erste Mal seit der Mondlandung entstand in der sogenannten westlichen Welt ein Informationsbedürfnis, das von einem Augenblick auf den anderen von einer bis dahin kaum verbreiteten Technologie erfüllt werden konnte: damals war es das Fernsehen, für 9/11 ist es das Internet.

Das Diktat der Suchmaschine

Trotz des wachsenden Publikums läuft das Online-Geschäft der Medien nach dem Dotcom-Crash noch einige Zeit schlecht. Ein wesentlicher Grund ist die Werbeflaute: Noch im Jahr 2000 sagt eine Studie des Prognos-Instituts Netto-Werbeeinnahmen von 944 Millionen Euro auf dem Online-Werbemarkt voraus, real sind es dann nur 246 Millionen – eine Fehlermarge von 380 Prozent.

2003 beginnt es aber zumindest bei „Spiegel Online“ aufwärts zu gehen. Ab da, so erinnert es der damalige Chef Blumencron, habe die Werbeindustrie das Netz entdeckt. Natürlich seien die Online-Geschichten nicht so tief recherchiert gewesen wie jene der Printausgabe. Für das auf Papier nur wöchentlich erscheinende Nachrichtenmagazin ist das tagesaktuelle Geschäft im Netz ohnehin Neuland. „Vieles waren aufgehübschte Agenturmeldungen mit einigen eigenen Gedanken und schnellen Rechercheergebnissen“, so Blumencron. Mit der Zeit habe sich aber eine Mischung aus Geschwindigkeit und zunehmender Hintergrundberichterstattung entwickelt.

Die Tageszeitungsverlage spiegeln da im Netz noch hauptsächlich ihr Programm aus dem Druckprodukt. Ein Glücksfall für „Spiegel Online“, meint Blumencron: „Wir dachten immer: Wie wird uns wohl geschehen, wenn die ihre Redaktionen auf die Digitalplattformen bringen? Dann würden wir untergehen, weil wir gar nicht so schnell analysieren und kommentieren können wie die. Das haben die aber glücklicherweise alle nicht gemacht, weil sie nicht an das Internet geglaubt haben, fünf, sechs, sieben Jahre lang.“ Das sei das große Geschenk der deutschen Zeitungsverleger an den Magazin-Gründer Rudolf Augstein gewesen.

Mehr noch als Augsteins Medienhaus profitiert aber Google. Über die Suchmaschine lassen sich Reichweiten realisieren, die mit einem gedruckten Magazin kaum vorstellbar wären. Dies verspricht dem Verlag neue Erfolge, gibt dem US-Konzern aber zunehmend Macht darüber, wie publiziert wird: Bei „Spiegel Online“ beobachtet die Redaktion, dass 15 bis 20 Prozent der Leserschaft über Google kommt und will den Effekt verstärken. Das funktioniert damals schon mit einer gewissen Boulevardisierung, also etwa der Verwendung emotionalisierender Reizwörter, und mit Überschriften und Text-Snippets, die an die Erfordernisse der Suchmaschine angepasst sind. Zwischen verschiedenen Nachrichtenportalen entsteht ein Wettbewerb um die besten Plätze in den Suchergebnissen, der eine fortlaufende Verschärfung dieser Methoden verlangt.

Google war am geschicktesten

„Das war auch ein bisschen schizophren, aber so ist es nunmal gewesen“, sagt Blumencron. Was er meint: Mit dieser Denkweise bekommt Googles Geschäftsmodell Auftrieb, weil die Online-Redaktionen mehr oder weniger alle diesen Weg gehen und den Mechanismen der Suchmaschine weiter entgegenkommen. Letztlich geht das auf Kosten der Verlage, die sich online zunehmend vom Gutdünken des Konzerns abhängig machen und der Suchmaschine gleichzeitig mit ihren wertvollen Inhalten Nutzer*innen und Klicks auf eigene Werbeanzeigen bescheren. Blumencron sagt aber auch: „Google hat es einfach am geschicktesten gemacht. Ein Internet, in dem sich zunehmend Chaos ausbreitete, wäre ohne Findemechanismus Chaos geblieben.“

Im Jahr 2004 nutzen 74 Prozent der Deutschen Suchmaschinen als wichtigsten Zugang zu Informationen im Netz, Google hält bereits 70 Prozent Marktanteil – eine Monopolstellung, die im Printgeschäft undenkbar wäre. Noch 2005 sieht das Bundeskartellamt in Google aber keinen relevanten Werbemarktakteur und traut dem Internet keine bedeutende Rolle im Mediengeschäft zu, erinnert sich Springer-Chef Mathias Döpfner Jahre später in einem Artikel. Google kann seine Vormachtstellung in der Folge weiter ausbauen.

2009 sagt der damalige CEO Eric Schmidt in bemerkenswert selbstbewussten Worten: „Wir haben entschieden, dass Reichweite der Wert ist, den wir unseren Partnern zur Verfügung stellen.“ Eine folgenschwere Entscheidung für den Journalismus. Neben dem Werbemarkt funktioniert nun also auch die Distribution der Inhalte nach dem Muster „Hauptsache mehr!“. In dem von Blumencron als widersprüchlich beschriebenen Denkmuster, den Verlockungen einer messbar wachsenden Leser*innenschaft zu erliegen, verschiebt sich das Verständnis der Redaktionen darüber, was relevant ist. Lässt sich Erfolg in Zahlen ausdrücken, rücken qualitative Kriterien im hektischen Tagesgeschäft schnell in den Hintergrund – deren Analyse ist schließlich ungleich aufwendiger.

Man könnte wohl von einer metrischen Deformation des kritischen Geistes sprechen, die sich seither in der Arbeitsweise von Journalist*innen vollzieht. Denn diese Rationalität folgt keiner journalistischen Maxime, sondern dem Geschäftsmodell der Suchmaschine.

Reichweite als zentrale Maxime im Social Web

Diese Logik setzt sich auch im zweiten, dem sogenannten Social Web fort. Den Medien erscheint es aber erst einmal wieder als neuer Möglichkeitsraum. Im Interview formuliert der frühere „Bild“-Chefredakteur Kai Diekmann den damals geltenden Branchenkonsens, neue Technologien gelte es zu umarmen. Bei einem Expertengespräch zur „Zukunft des Qualitätsjournalismus“ im Kulturausschusses des Bundestags Anfang 2011 hält es Katharina Borchert, zu jener Zeit Geschäftsführerin von Spiegel Online, für „extrem wichtig“, nicht auf die großen Player wie Google und Facebook zu schimpfen, „sondern ganz im Gegenteil sich Gedanken zu machen, wie wir alle von ihnen profitieren können, denn die meisten von uns profitieren im großen Ausmaß bereits davon.“

Tatsächlich sorgen die Begegnungsmöglichkeiten mit dem Publikum im Web 2.0 anfangs auch für Lichtstreife. Der Ton aber, das berichten Pionier*innen des Social Media-Journalismus, ist vor allem auf Facebook rau. Schnell ist klar: Seriös moderieren lässt sich das nicht. Dazu kommen sich verändernde Voraussetzungen bei den Plattformen: Die Algorithmen werden komplexer und bewirtschaften zunehmend Affekte.

Wieder stellt sich die Frage, wie eigentlich Geld mit diesen neuen Kanälen verdient werden könnte. Die Redaktionen müssen teils selbst nach Argumenten suchen. Wesentlich ist dabei wieder der Traffic – also die Zahl der Rezipient*innen, die über einen Link auf der Plattform auf die Nachrichtenseite kommen. Die Reichweiten-Logik verstetigt sich: Viel hilft viel und ist sowieso fast die einzige Möglichkeit, im Internet Geld zu verdienen.

Journalistische Inhalte müssen dafür an eine zunehmend affektgetriebene Unterhaltungslogik angepasst werden, um in der Mechanik der Algorithmen bestehen zu können – zuerst in der Themenauswahl, dann ihrer Darstellung und schließlich rückwirkend im Denken der Redaktionen, deren Aufgabe es ist, erfolgreich im Sinne von weitreichend diese Kanäle zu bespielen.

„In den sozialen Medien kommt es zu mehr Wechselwirkungen, Journalist*innen lernen über das erhaltene Feedback zu ihren Postings auch, welche Inhalte sich auf der Plattform leichter popularisieren“, beschrieben es kürzlich die Kommunikationswissenschaftler Jonas Schützeneder und Christian Nuernbergk. Wenn der Erfolg in Reichweite gemessen wird, dann wird die dazu passende Auswahl der Inhalte zweckrational – wer will schon nicht erfolgreich sein?

Auch das Publikum wird quantifiziert

Während die Redaktionen sich den fortlaufend verändernden sozialen Netzwerken anzupassen versuchen, ficht Springer-CEO Döpfner, der damals auch Präsident des Zeitungsverlegerverbandes ist, im Frühjahr 2014 ein Distanzduell mit Google-Verwaltungsrat Eric Schmidt: „Wir haben Angst vor Google“, schreibt er damals. „Ich muss das einmal so klar sagen, denn es traut sich kaum einer meiner Kollegen, dies öffentlich zu tun.“

Freiwillige Selbstunterwerfung könne nicht das letzte Wort der Alten Welt gewesen sein, so Döpfner, immerhin selbst Milliardär und Lenker eines global operierenden Konzerns. Wie Blumencron für den Spiegel beschreibt auch er das Verhältnis zu dem Tech-Konzern als schizophren: Leser*innen hätten das jedenfalls so interpretiert, weil Springer Google für die eigene Vermarktung nutze und gleichzeitig verklage. Niemand in der Verlagsbranche könne ohne Google auskommen, so Döpfner.

Reichweite hat sich da längst plattformübergreifend als zentrale Erfolgsgröße durchgesetzt. Am Ende sei der Traffic für den Spiegel nicht über das journalistisch attraktive Twitter, sondern über das journalistisch unerquickliche Facebook gekommen, erinnert Maike Haselmann, die erste Social Media-Redakteurin des „Spiegel“.

In klassischen Printredaktionen stößt die Transformation mit ihren metrischen Analysemöglichkeiten auf Widerstände. Es liegt schließlich eine intellektuelle Abwertung darin: Der Erfolg von Beiträgen bemisst sich nicht mehr in Reaktionen aus der Politik oder in der inhaltlichen Auseinandersetzung in Leser*innenbriefen, sondern in Zahlen, die wenig Deutung zulassen. In einem Berufsbild, das sich über die Qualität der eigenen Deutungskraft definiert, muss das beinahe notwendig befremden.

Auch die Rückmeldung des Publikums wird quantifiziert: Statt den Leser*innen intensiver zu begegnen, wie es das Web 2.0 versprach, wird deren menschliche Regung (oder Erregung) als Reaktion auf einen Beitrag neutralisiert, weil ihre quantitative Messung nichts über den emotionalen Aggregatzustand der Rezeption aussagt. Ein Text könnte große Reichweite gerade deshalb erzielt haben, weil er besonders schlecht ist.

Die Angst der Medien, abgehängt zu werden

Als im Oktober 2022 mit ChatGPT das erste große Sprachmodell für die breite Öffentlichkeit an den Start geht und der Anbieter OpenAI die Konkurrenz überrumpelt, wird der Hype in Massenmedien genährt. Im „Spiegel“ heißt es: „Aber OpenAI ist schneller. Einige sagen: schneller und fahrlässiger, denn ChatGPT spuckt jede Menge Unsinn aus. Binnen weniger Monate nutzen hundert Millionen Menschen ChatGPT. Die Flasche ist geöffnet. Hype ist eine Untertreibung für das, was nun folgt.“

Wieder entsteht das Gefühl einer Spielwiese, in den Verlagen und Redaktionen wird überlegt, wie man sich die Technologie nützlich machen könnte. Das ist weniger naiv als in den 90ern und auch vom Web 2.0 will man gelernt haben. Aus der Erfahrung aber, das Internet schon mal verpasst zu haben, hat sich in vielen Medienhäusern die Angst festgesetzt, sie könnten den Anschluss verlieren. Die Tech-Konzerne wissen darum und spielen mit dieser Sorge. Sie bewerben ihre neuen Produkte gezielt und bauen mit ihren Erzählungen Druck auf, neue Entwicklungen nicht zu verpassen. Befragungen von Medienwissenschaftler*innen zeigen: Dieser Druck kommt in den Redaktionen an.

Zehn Jahre nach seinem Brief an Eric Schmidt schreibt Mathias Döpfner, weshalb er Google nicht mehr fürchte: Bis auf Weiteres habe der Konzern auf ganzer Linie gewonnen. Weil der Springer-Chef – dem es natürlich immer und gerade auch um das eigene Geschäft geht – in seinem Text von 2014 über die Abhängigkeit journalistischer Medien von der Suchmaschine schreibt, bedeutet diese Niederlage auch: Selbstbestimmung ist verloren gegangen. Andere sprechen von einem Zwang zur Unterwerfung.

Google verändert derweil die Erzählung der Reichweite als Wert für die Partner in etwas Feindseligeres. Vor dem Hintergrund des Urheberrechtsstreits mit den Medien veröffentlicht der Konzern im März 2025 einen Report über ein Experiment in Europa. Einem Teil der Nutzer*innen sind in der Suche keine Inhalte von Qualitätsmedien mehr ausgespielt wurden, um so deren Wert für das eigene Geschäft zu taxieren. Wenig überraschend kommt Google zu dem vorteilhaften Ergebnis, dass sich für die Suchmaschine wenig bis nichts ändere, wenn man keine Nachrichteninhalte mehr findet.

Die Botschaft ist klar: Es gibt nichts zu verteilen, wenn Google selbst nichts mit journalistischen Inhalten verdient. Was im Bericht zur Randnotiz verkommt: Die Anfragen bei Google News – also nach hochwertigen journalistischen Informationen – sind im untersuchten Zeitraum deutlich angestiegen.

KI-Zusammenfassungen ersetzen Suchergebnisse

Währenddessen vollzieht sich gerade ein Paradigmenwechsel, der das Ende vom Wert der Reichweite einläutet: KI-Zusammenfassungen ersetzen Suchergebnisse. Damit schwindet der Anlass, die Suchmaschine überhaupt noch zu verlassen. Viele Verlage berichten von einbrechendem Traffic. Nachrichtensuchen nimmt Google bislang zwar der neuen Funktion aus; was eine Nachrichtensuche ist, entscheidet der Konzern aber selbst.

Diese Entwicklung ist seit etwa zwei Jahren abzusehen gewesen. Neue Ideen für die künftige Finanzierung des Online-Journalismus gibt es aber noch nicht. Das zentrale Muster wiederholt sich: Vor allem Google hat viel Geld damit verdient, in der Nachrichtensuche journalistische Inhalte zu verteilen. Die KI-Anbieter versuchen das nun, indem sie ihre Modelle damit trainieren. In der analogen Welt würde man wohl von Hehlerei sprechen.

Zwar haben die Verlage mit Bezahlschranken ein weiteres Standbein entwickelt, das sie ein wenig vor diesen Entwicklungen schützt. Es reicht aber nicht, um auf die Plattformen verzichten zu können. Das gilt insbesondere für Regional- und Lokaltitel. Selbst große Traditionshäuser wie die Rheinische Post oder die Stuttgarter Zeitung verharren mit etwa 25.000 respektive 10.000 Online-Abos seit längerem bei einer Zahl, die ihr Überleben nicht sichern kann.

Schon 1982 schrieb Medienwissenschaftler Siegfried Weischenberg: „Für den Journalismus ist die Technik konstituierend. Der Beruf entstand auf der Grundlage von technisch-ökonomischen Umwälzungen.“ Solche Umwälzungen bringen schließlich herausragende Informationsbedürfnisse hervor, die Gesellschaften als ganze betreffen. Daraus ergibt sich aber ein Spannungsfeld für den Journalismus. Weil er selbst betroffen ist, fehlt ihm bisweilen die kritische Distanz in der Bewertung neuer Technologien. Und während er sie mit Hypes groß macht, fällt er ihnen zum Opfer.


Jann-Luca Künßberg ist Journalist und Autor. Er hat für Medien wie die taz, T-Online und den Südkurier geschrieben und für verschiedene Anstalten des öffentlich-rechtlichen Rundfunks gearbeitet.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

AI Act: Wie die Ausnahmen in der KI-Verordnung landeten

Anfang Februar 2025 gelten die ersten Regel aus dem AI Act. Das Gesetz soll die Gefahren sogenannter Künstlicher Intelligenz eindämmen. Tatsächlich enthält es zahlreiche Ausnahmen. Vor allem Frankreich verhandelte Schlupflöcher mit potenziell weitreichenden Folgen für Europas Grundrechte.

Fotomontage, u.a. mit Emmanuel Macron, einer Überwachungskamera und einer EU-Flagge
Frankreich spielte bei den Ausnahmen im AI Act eine zentrale Rolle. – Alle Rechte vorbehalten Spoovio/Georgina Choleva für Investigate Europe

Dieser Artikel wurde von dem Journalistenteam Investigate Europe recherchiert, das aus Reporterinnen und Reportern aus elf europäischen Staaten besteht. Die Recherche wird gemeinsam mit Medienpartnern wie Disclose (Frankreich), EU Observer (Belgien), Il Fatto Quotidiano (Italien), InfoLibre (Spanien), Publico (Portugal) und Efsyn (Griechenland) veröffentlicht.

Ab dem 2. Februar 2025 sind KI-Systeme, die ein unannehmbares Risiko darstellen, in der EU verboten. Das ist im AI Act, der europäischen KI-Verordnung, geregelt. Die ersten dieser Regeln werden bald gültig, bei anderen dauert es noch etwas. Aber der AI Act enthält Ausnahmen und Schlupflöcher. Deshalb dürfen etwa Strafverfolgungsbehörden weiter Gesichtserkennung auf Videoüberwachungsbilder anwenden und an der Grenze dürfen automatisiert die mutmaßlichen Emotionen von Geflüchteten ermittelt werden. Das sind nur einige der Punkte, die die EU-Staaten in den europäischen AI Act hineinverhandelt haben. Dabei sollte das Gesetz eigentlich die zahlreichen Grundrechtsbedenken beim Einsatz von KI-Systemen ausräumen.

Grund für die Ausnahmen ist unter anderem die geheime Lobbyarbeit Frankreichs und anderer EU-Staaten. Das zeigen interne Dokumente aus den Verhandlungen, die Investigate Europe vorliegen. Sie zeichnen ein Bild von Gesprächen, in denen es den Mitgliedstaaten gelang, den Gesetzestext zu verwässern und damit Polizei und Grenzschützern die Möglichkeit zu geben, Bürgerinnen und Bürger heimlich zu überwachen.

Ausnahmen für die „nationale Sicherheit“

„Eine Reihe von bürokratischen Schlupflöchern führt dazu, dass der AI Act nicht das Gesetz zum Schutz der Menschenrechte ist, auf das viele gehofft hatten“, sagt die Direktorin der Brüsseler Nichtregierungsorganisation Equinox, Sarah Chander, die sich gegen rassistische Diskriminierung einsetzt. „In Wirklichkeit ist der AI Act ein industriefreundliches Instrument, das den europäischen KI-Markt schnell voranbringen und den öffentlichen Dienst digitalisieren soll.“

Für die Recherche konnte Investigate Europe mehr als 100 Dokumente aus den Sitzungen des COREPER-Ausschusses sichten, in dem sich die ständigen Vertreter:innen der 27 Mitgliedstaaten treffen. Sie bereiten die Sitzungen des Rats der EU vor. Die Journalistinnen und Journalisten konnten auch mit mehreren Personen sprechen, die an den Verhandlungen beteiligt waren. Sie zeigen, wie Frankreich strategische Änderungen im Gesetzestext durchsetzen konnte.

Das KI-Gesetz verbietet den Einsatz von Gesichtserkennungssystemen im öffentlichen Raum. Ausnahmen, die von der Regierung Macron und ihren Unterstützern in das Gesetz hineinverhandelt wurden, ermöglichen es jedoch, dass Strafverfolgungsbehörden und Grenzschutzbeamte sich nicht immer an dieses Verbot halten müssen. Dies könnte beispielsweise dazu führen, dass Klimademonstrationen oder politische Proteste mit Hilfe von KI überwacht werden, wenn die Behörden eine Gefährdung der „nationalen Sicherheit“ befürchten.

Harter Kampf um Gesichtserkennung

In einer COREPER-Sitzung im November 2022 brachte der französische Verhandlungsführer die Wünsche seiner Regierung unmissverständlich zum Ausdruck. Er habe gefordert, dass „die Ausnahme von Sicherheit und Verteidigung vom Anwendungsbereich unbedingt beibehalten werden muss“, heißt es in einem Protokoll der Sitzung. Damit bezog er sich auf eine Passage im damaligen Gesetzentwurf, laut der nur das Militär Echtzeit-Gesichtserkennung im öffentlichen Raum einsetzen dürfen sollte. In einer späteren Sitzung unterstützten mehrere Staaten die französische Forderung, darunter Italien, Schweden, Finnland, Tschechien, Litauen, Rumänien, Ungarn und Bulgarien.

„Das war einer der härtesten Kämpfe, den wir am Ende verloren haben“, erinnert sich einer der Verhandlungsführer im Gespräch mit Investigate Europe, der seinen Namen nicht in diesem Bericht lesen möchte. Die endgültige Fassung des Gesetzes erlaubt es Staaten, Überwachungstechnologien einzusetzen, wenn es um die nationalen Sicherheit geht.

In der Praxis könnten sich dank dieser Regelung auch private Unternehmen sowie Drittstaaten an der Überwachung von EU-Bürgern beteiligen, wenn sie den Sicherheitsbehörden des Landes KI-Technologie zur Verfügung stellen. Das Gesetz sieht vor, dass die Überwachung zulässig ist – „unabhängig von der Art der Einrichtung, die diese Tätigkeiten ausübt“.

Schlupfloch für private Unternehmen

„Dieser Artikel verstößt gegen jede Verfassung, gegen die Grundrechte und gegen europäisches Recht“, sagt ein Jurist der konservativen EVP-Fraktion im Europäischen Parlament im Gespräch mit Investigate Europe. „Frankreich könnte zum Beispiel die chinesische Regierung bitten, mit ihren Satelliten Fotos zu machen und diese an die französische Regierung zu verkaufen.“

Die Ausnahme widerspreche auch Urteilen des Europäischen Gerichtshofs, sagt die Rechtswissenschaftlerin Plixavra Vogiatzoglou von der Universität Amsterdam. In den Jahren 2020 und 2022 hatten die Luxemburger Richter geurteilt, dass französische Telekommunikationskonzerne gegen EU-Recht verstoßen hätten, weil sie Daten aus Gründen der nationalen Sicherheit gespeichert hätten. Vogiatzoglou: „Der EU-Gerichtshof hat gesagt, dass private Unternehmen nicht vom EU-Recht ausgenommen sind, auch wenn sie in Fragen der nationalen Sicherheit involviert sind.“

Auch außerhalb der Ratsverhandlungen hat Frankreich in den vergangenen Jahren auf den Einsatz von Überwachungstechnologien gedrängt. So genehmigte das Verfassungsgericht des Landes im Mai 2023 den Einsatz von KI-Systemen zur Videoüberwachung während der Olympischen Spiele in Paris. Diese Maßnahme wurde von Amnesty International als „ernsthafte Bedrohung für bürgerliche Freiheiten und demokratische Prinzipien“ kritisiert. In Zukunft könnte diese Ausnahme zur Regel werden.

Emotionserkennung an der Grenze erlaubt

Ab dem 2. Februar außerdem verboten sind KI-Systeme zur Emotionserkennung am Arbeitsplatz, in Schulen und Universitäten. Außerdem dürfen Unternehmen die Technologie nicht nutzen, um das Verhalten potenzieller Kunden in ihren Geschäften zu analysieren. Auch Arbeitgeber dürfen sie nicht einsetzen, um festzustellen, ob ihre Mitarbeiter zufrieden oder traurig sind. Dank des Einsatzes Frankreichs und anderer EU-Länder dürfen Sicherheitsbehörden und Grenzschützer die Systeme künftig jedoch nutzen.

Bei einer Verhandlungssitzung von COREPER am 29. November 2023 betonte der dänische Vertreter, dass ein Verbot „verhältnismäßig sein muss und nur dann gelten darf, wenn die Gefahr einer Diskriminierung besteht“. Die Niederlande, Portugal und die Slowakei vertraten bei dem Treffen eine ähnliche Position und äußerten sich kritisch zu einer Ausweitung des Verbots auf die Strafverfolgung.

Eine weitere umstrittene Anwendung von KI sind biometrische Kategorisierungssysteme. Deren Betreiber versprechen, damit die ethnische Zugehörigkeit oder sogar die sexuelle Orientierung einer Person bestimmen zu können. Das neue EU-Gesetz verbietet zwar ihren Einsatz, aber hier gibt es ebenfalls eine Ausnahme für Strafverfolgungsbehörden: „Dieses Verbot erstreckt sich nicht auf die Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze … auf der Grundlage biometrischer Daten oder auf die Kategorisierung biometrischer Daten“.

Auch hier war es Frankreich, das die Beschränkungen des AI Act aufweichte. In einem schriftlichen Kommentar zum Gesetzentwurf schrieben die französischen Verhandlungsführer am 24. November 2023, es sei „sehr wichtig, die Suche nach einer Person zu ermöglichen, … die ihre religiösen oder politischen Ansichten zum Ausdruck bringt und beispielsweise ein Abzeichen trägt, wenn diese Person in gewalttätigen Extremismus verwickelt ist oder ein terroristisches Risiko darstellt“.

Gesichtserkennungssoftware kann in Echtzeit eingesetzt werden, wenn dies für die Strafverfolgungsbehörden „unbedingt erforderlich“ ist. Die Polizei kann die Technologie bei Ermittlungen zu 16 bestimmten Straftaten einsetzen, darunter „Umweltkriminalität“. Mehrere Staaten drängten darauf, die Liste um Dutzende von Straftaten zu erweitern. Aus dem Protokoll einer COREPER-Sitzung vom November 2023 geht hervor, dass Frankreich auf eine Ausweitung des Anwendungsbereichs drängte. Unterstützt wurde es dabei von den Vertreter:innen aus Italien, Zypern, Estland, Lettland, Bulgarien und Ungarn.

In derselben Verhandlungssitzung forderte der griechische Vertreter, dass Gefängnisse und Grenzgebiete ausdrücklich von jeglichem Verbot ausgenommen werden sollten. Vielmehr sollten die Behörden die Möglichkeit haben, Bürger und Geflüchtete mit Echtzeit-Überwachungstechnologie zu überwachen.

„Ende der Anonymität“

Mit biometrischen Systemen könnten Millionen von Gesichtern überwacht und mit nationalen Datenbanken abgeglichen werden, um Personen zu identifizieren. Der Einsatz dieser Technologie im öffentlichen Raum würde „das Ende der Anonymität an diesen Orten“ bedeuten, warnte bereits 2020 European Digital Rights. Zivilgesellschaftliche Organisationen warnen seit langem davor, dass der AI Act die Grundrechte in Europa massiv einschränken könnte.

„Wir leben in einem Klima, in dem unsere Regierungen auf immer mehr Ressourcen, Gesetze und Technologien drängen, um Menschen in ihrem Alltag leichter zu überwachen, zu kontrollieren und zu bestrafen“, sagt die Gründerin der Brüsseler Anti-Rassismus-Organisation Equinox, Sarah Chander. „Wir entfernen uns immer weiter von einer Zukunft, in der die wir unsere Ressourcen für soziale Vorsorge und Schutz ausgeben statt für Überwachungstechnologie.“

Als am 6. Dezember 2023 die letzte Verhandlungsrunde zwischen Rat, Parlament und Kommission über die endgültige Fassung des AI Act begann, drängte die spanische Ratspräsidentschaft darauf, den Gesetzestext noch vor den Europawahlen im Juni 2024 zu verabschieden. Offenbar fürchteten die spanischen Diplomaten das Erstarken rechtsradikaler Parteien. Ein Beamter, der an den Gesprächen teilnahm und um Anonymität bat, berichtete Investigate Europe, dass die Unterhändler eineinhalb Tage lang verhandelten. „Wir waren erschöpft, und erst nach einer durchverhandelten Nacht begannen wir um 6 Uhr morgens, über Verbote zu sprechen“, erinnert er sich heute. „Am Ende haben wir erreicht, dass jedes Produkt von einer unabhängigen nationalen Behörde zugelassen werden muss.“

Selbstzertifizierung möglich

Der Einsatz sogenannter Hochrisikotechnologien wie Echtzeitüberwachung ist an bestimmte Bedingungen geknüpft, darunter ein Gerichtsbeschluss, die Registrierung in einer europäischen Datenbank und eine Folgenabschätzung zur Wahrung der Grundrechte. Doch auch hier wurden die strengen Regeln in den Verhandlungen teilweise aufgeweicht. So fügten die Verhandlungsführer dem Gesetz einen Artikel hinzu, der es Unternehmen erlaubt, eine Selbstzertifizierung auszufüllen und damit zu entscheiden, ob es sich bei ihrem Produkt um eine Hochrisikotechnologie handelt oder nicht.

Investigate Europe liegt ein internes Arbeitspapier des juristischen Dienstes des Europäischen Parlaments vor, das diese Lösung in Frage stellt. „Den Unternehmen wird ein hohes Maß an Subjektivität überlassen, was im Widerspruch zum Ziel des AI Act steht, das Risiko von Hochrisiko-KI-Systemen zu regulieren.“

Tatsächlich dürften die Verhandlungspartner auch von dem Interesse getrieben gewesen sein, ihre eigenen Wirtschaftsunternehmen zu schützen. Die Regierung Macron warnte in einer Verhandlungsrunde am 15. November 2023, dass ohne einen breiten Einsatz von KI-Technologien „die Gefahr besteht, dass Unternehmen ihre Aktivitäten in Regionen verlagern, in denen Grundrechte keine Rolle spielen“.

Konkrete Auswirkungen noch nicht absehbar

Es bleibt abzuwarten, inwieweit die Mitgliedstaaten die Ausnahmen nutzen werden. Der niederländische Anwalt für digitale Rechte, Anton Ekker, glaubt, dass die Ausnahmen in der Praxis kaum Auswirkungen haben werden. „Ich bin sehr kritisch, wenn ein Staat Algorithmen einsetzt. Aber zu sagen, dass alles erlaubt ist, weil es Ausnahmen gibt, ist nicht richtig“, sagte er in einem Interview mit Investigate Europe. „Es gibt viele nationale Verfassungen, die Grundrechte schützen.“

Professorin Rosamunde van Brakel forscht an der Vrije Universiteit Brüssel zu ethischen Fragen rund um den Einsatz von KI. Sie befürchtet, dass das Gesetz Betroffenen kaum helfen wird. „In den meisten Fällen greifen Regulierung und Aufsicht erst, nachdem es zu einem Verstoß gekommen ist. Vorher schützen sie uns nicht“, sagt sie. „Außerdem betreffen KI-Anwendungen im öffentlichen Sektor oft schutzbedürftige Bevölkerungsgruppen, die nicht in der Lage sind, eine Beschwerde einzureichen oder darauf zu vertrauen, dass eine Beschwerde ernst genommen wird.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

EDMO: Plattformbeobachter mit großer Plattformnähe

Von: Gastbeitrag
Illustration: Hand hält ein großes Teleskop
Wer beobachtet wen für wen? – Alle Rechte vorbehalten IMAGO / Ikon Images

Eine Stelle, die im Auftrag der EU das Vorgehen von Facebook und Google gegen Desinformationen beobachten soll, hat zahlreiche Verbindungen zu den Technologiekonzernen. Das ist das Ergebnis einer Recherche von Investigate Europe und netzpolitik.org. Die EU-Kommission initiierte im Juni 2020 die Europäische Beobachtungsstelle für digitale Medien (EDMO). An dieser sind laut der Recherche ein ehemaliger Facebook-Manager beteiligt sowie mehrere Organisationen, die von Google finanziert werden. Nun warnen Kritiker, dass die Nähe zu den Plattformen die Arbeit der Beobachtungsstelle beeinflussen könnte. EDMO soll im Auftrag der EU unter anderem beobachten, wie die Plattformen den EU-Verhaltenskodex für Desinformation umsetzen.

Von den 25 Personen im Vorstand sowie im Aufsichtsrat haben elf direkte Verbindungen zu großen Techfirmen. Darunter sind Akademikerinnen und Journalisten, deren Arbeitgeber von Plattformen wie Google oder Facebook finanziell unterstützt werden. In den Gremien arbeiten mehrere Hochschulprofessorinnen, die von den Konzernen Zuschüsse für ihre Lehrstühle und Forschungsprojekte erhalten. Zwei Personen in der EDMO-Führung haben in den vergangenen Jahren sogar unmittelbar für die Tech-Konzerne gewirkt – als Lobbyisten.

Bevor er Mitglied des EDMO-Vorstands wurde, reiste Richard Allan von 2009 bis 2019 als Facebooks Cheflobbyist durch Europa. Bereits 2019 konnte Investigate Europe dokumentieren, dass Allan Druck auf EU-Experten ausgeübt haben soll, die sich für einen strikteren Umgang mit den Plattformen einsetzten. Heute kümmert sich der Brite Nick Clegg um die Interessen Facebooks in Europa als „Vizepräsident für Globale Angelegenheiten. Clegg und der heutige EDMO-Vorstand Allan sind politische Verbündete.

Neben ihrer Tätigkeit als Vorsitzende des EDMO-Aufsichtsrats arbeitet Madeleine de Cock Buning als „Vizepräsidentin Public Policy“ für Netflix. Desinformationen haben für Netflix bisher nur eine nebensächliche Rolle gespielt. Den Verhaltenskodex der EU hat Netflix bisher nicht unterzeichnet.

Drehtüren und befürchtete Interessenskonflikte

Es verstoße gegen die Regeln der guten Organisationsführungen, dass Allan und de Cocking Buning trotz ihrer Nähe zu den Plattformen in der EDMO-Führung arbeiten, kritisieren mehrere Experten im Gespräch mit Investigate Europe und Netzpolitik.org.

„Eine Beobachtungsstelle darf nicht von Personen betrieben werben, die eng mit jenen verbunden sind, die sie beobachten sollen“, sagt die Leiterin des europäischen Verbraucherschutzverbandes BEUC, Monique Goyens. Richard Allans Wechsel von Facebook zur Beobachtsstelle verlief „nahtlos“. Das sei „ein klassisches Beispiel für den Drehtür-Effekt“.

„Personen, die so eng mit der Wirtschaft verbandelt sind, können nicht als unabhängig gelten“, sagt die Lobbyexpertin der Brüsseler Transparenzorganisation Corporate Europe Observatory, Vicky Chase. „Wer für die Technologiekonzerne arbeitet oder von ihnen finanzielle Mittel erhält, sollte nicht Teil einer Organisation wie EDMO sein.“ Laut Chase liegen „eindeutige Interessenskonflikte“ vor.

Neben EDMO hat die EU-Kommission auch den Verband nationaler Regulierungsbehörden (ERGA) damit beauftragt zu prüfen, ob die Technologiekonzerne den Verhaltenskodex einhalten. Anders als bei EDMO können sich bei ERGA nur Organisationen beteiligen, die ausschließlich mit öffentlichen Mitteln finanziert werden.

ERGA und EDMO

Der Leiter der Desinformationsabteilung bei ERGA, Lubos Kuklis, fordert Transparenz von der Beobachtungsstelle. „Es muss offengelegt werden, wer wieviel Geld von den Plattformen erhält“, sagt Kuklis. Ihm sei bisher kein Fall bekannt, den er als „unzulässige Einmischung der Plattformen“ werten würde. Falls es aber dazu komme, werde er es „nicht einfach hinnehmen“, sagt Kuklis.

Andere sehen die Nähe zwischen EDMO-Führung und den Plattformen weniger problematisch. Wie Netflix-Lobbyistin Madeleine de Cock Buning ist auch Sally Reynolds Teil des Aufsichtsrats der Beobachtungsstelle. Dass Personen in der EDMO-Führung Lebensläufen wie die von Allan oder de Cock Buning haben, sei für sie verständlich. „Sie wollen doch nicht, dass Leute über Desinformation sprechen, die nur Ahnung von der Fischerei haben“, sagt Reynolds im Gespräch mit Investigate Europe. Allan und de Cock Buning hätten eine „Meinung“. Reynolds sagt: „Das wird von ihnen erwartet“.

In einer Stellungnahme teilt EDMO mit, dass die Führung der Beobachtungsstelle alle Interessensgruppen repräsentieren solle. Der frühere Facebook-Lobbyist Richard Allan sei Teil des Vorstandes, weil er Erfahrung darin habe, mit der EU zu arbeiten. Die EDMO-Satzung enthalte zudem Vorkehrungen, um potenzielle Interessenskonflikte zu verhindern. Investigate Europe kontaktierte auch Allan und de Cock Buning. Beide verzichteten auf eine Stellungnahme.

Ein Netzwerk aus Plattform-Profiteuren

Auf dem Papier wird EDMO ausschließlich von der EU finanziert. Die Beobachtungsstelle selbst erhält 2,5 Millionen Euro Fördergelder. Weitere elf Millionen Euro erhalten acht regionale Zentren. Viele der Mitglieder von EDMO verfügen jedoch über eigene finanzielle Mittel. Die Beobachtungsstelle ist ein Netzwerk, geflochten aus Partnerschaften zwischen Hochschulen und Faktenprüfern, die nur zu einem kleinen Teil aus den EDMO-Mitteln finanziert werden.

Im Zentrum des EDMO-Netzwerks befindet sich ein Konsortium aus vier Organisationen, die im Jahr 2020 die Beobachtungsstelle gegründet haben: das Europäische Hochschulinstitut (EUI), das Athens Technology Center, die Universtät Aarhus sowie die italienischen Faktenprüfer Pagella Politica. Drei dieser vier Institute werden teilweise von Google finanziert. So erhielt das Athens Technology Center in den Jahren 2016 und 2019 Google-Stipendien. An der Universität von Aarhus finden neun Projekte statt, die von Google und Facebook finanziert werden. Pagella Politica nennt Facebook einen Hauptkunden.

Geld der Plattformen fließt auch an weitere Organisationen, die Teil des EDMO-Netzwerks sind. So kooperieren die Beobachtungsstelle und ihre Regionalzentren mit mindestens acht Hochschulen, die sich von jenen Konzernen mitfinanzieren lassen, die sie im Rahmen von EDMO beobachten sollen. Zudem sind 18 Medienorganisationen Teil des EDMO-Netzwerks, die Geld von den Plattformen erhalten haben, vor allem im Rahmen der Google Digital News Initiative.

Dabei handelt es sich um etablierte Medienorganisationen. Google will mit der Initiative laut eigenen Mitteilungen „Qualitätsjournalismus“ stärken. Doch eine Studie der Otto-Brenner-Stiftung und des Deutschen Gewerkschaftsbundes kommt zu einem anderen Schluss. Darin wird die Initiative als „Werkzeug für Lobbyismus“ beschrieben.

EDMO und die Google-Fördergelder

Die Nähe von EDMO und den Plattformen wird auch bei dem sogenannten Europäischen Medien- und Informationsfonds (EMIF) sichtbar. Der umfasst 25 Millionen Euro und richtet sich laut Website an „Forscher, Faktenprüfer, gemeinnützige Organisationen und andere im öffentlichen Interesse tätige Organisationen, die sich mit Desinformationsforschung und der Stärkung von Medienkompetenz“ befassen. Die finanziellen Mittel des Fonds stammen lediglich von einem Gönner: Google. Wenn künftig entschieden wird, welche Prioritäten mit dem Google-Geld aus dem EMIF unterstützt werden, sitzen auch EDMO-Vertreter mit am Tisch.

Ein Teil des Fonds ist bereits reserviert. Davon soll künftig das Europäische Hochschulinstitut (EUI) bezahlt werden, das Teil des EDMO-Konsortiums ist. Auf Nachfrage teilte das Institut mit, dass es mehr als 260.000 Euro für „Aktivitäten im Zusammenhang mit dem Fonds“ erhalten habe.

Die europäische Verbraucherschützerin Monique Goyens warnt davor, dass der Fonds zu Abhängigkeiten führen könnte. „Die Begünstigten werden wahrscheinlich nicht die Kritischsten gegenüber den Plattformen sein“, sagt Goyens. „Es wird immer schwieriger, Akademiker zu finden, die kein Geld von den Plattformen erhalten.“

Das sieht man bei Google anders. Auf Nachfrage teilte der Konzern zu dem Fonds mit: „Die Stärkung der Medienkompetenz, die Bekämpfung von Desinformation und die Unterstützung von Faktenprüfung sind ein integraler Bestandteil unserer Mission.“

Die EU-Kommission wirbt unterdessen für öffentliche-private Partnerschaften bei der Desinformationsbekämpfung. Auf Nachfrage teilte sie mit: „Der Kampf gegen Desinformation findet nicht im luftleeren Raum statt. Er erfordert die Anstrengung aller Beteiligten.“ Deshalb würden Plattformen mit Faktenprüfern und Forschern kooperieren und deren Arbeit „unterstützen“.

EU-Verhaltenskodex soll strenger werden

Der EU-Verhaltenskodex sieht zwar vor, dass die Plattformen verschiedene Projekte fördern sollen. Doch das Regelwerk selbst steht massiv in der Kritik. Denn geschrieben wurde es teilweise von den Technologiekonzernen selbst. Anschließend erklärten sie sich freiwillig bereit, das Papier zu unterzeichnen. Doch bei Verstößen müssen die Konzerne keine Strafen fürchten. Denn Sanktionen sieht der Kodex nicht vor.

Deshalb fordern einige nun einen strengeren Kodex. Dazu gehört auch der SPD-Europaabgeordnete Tiemo Wölken. „Es ist nicht überraschend, aber enttäuschend zu hören, dass das Gremium, das die Einhaltung des Verhaltenskodex überwachen soll, auch Verbindungen zu Plattformen haben soll“, sagt er. Wie auch der ERGA-Desinformationsexperte Lubos Kuklis fordert Wölken, dass der Verhaltenskodex nachgebessert werden müsse. Unabhängige Stellen müssten dann prüfen, dass die Plattformen die Regeln einhalten und bei Verstößen Sanktionen erlassen können.

Momentan prüft die EU-Kommission eine Änderung des Verhaltenskodex. Eine Neufassung des Textes könnte möglicherweise bereits im März verabschiedet werden. Doch das ist keinesfalls das Ende der Beobachtungsstelle und ihres Netzwerks. Die Pläne der Kommission würden die Rolle von EDMO sogar stärken.

Die Beobachtungsstelle würde dann als Teil einer Taskforce die EU-Kommission künftig dabei unterstützen , die Einhaltung des überarbeiteten Regelwerks zu prüfen. Zudem könnte EDMO weitere Gelder der Plattform in einem EU-Fonds verwalten und entscheiden, wer diese erhalten soll. Sanktionen sieht der Kodex auch in seiner neuen Fassung nicht vor.

„Investigate Europe“ ist ein europäisches Journalistenteam, das europaweit recherchiert und veröffentlicht. IE wird von Leserinnen und Lesern unterstützt sowie von folgenden Stiftungen: Logan Foundation, Rudolf-Augstein-Stiftung, Kennedy-Hübner, Fritt Ord, Adessium und Cariplo Foundation. Mehr zum Projekt und zum kostenlosen Newsletter. Diese Recherche ist ebenfalls auf Englisch erschienen..

Maxence Peigne ist ein französischer Journalist, der in London lebt. Er hat als Reiseschriftsteller, Fernseh- und Radioproduzent und als Großbritannien-Korrespondent gearbeitet. Er hat 11 Reiseführer über die Britischen Inseln und den Südpazifik veröffentlicht und war für Sender wie France Télévision, Radio France und den BBC World Service tätig.

Nico Schmidt studierte Kulturwissenschaft in Hildesheim und Berlin. Er lernte das journalistische Handwerk an der Hamburger Henri-Nannen-Schule. Als freier Journalist erschienen seine Artikel unter anderem im Spiegel, in der Zeit und bei Vice.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

✇netzpolitik.org

Depictions of child abuse: The internet forgets nothing, as long as it’s not supposed to forget

Von: Gastbeitrag
Screen with blurred pictures
Police employees at a hotline for child abuse suspicions in North-Rhine Westfalia. – Alle Rechte vorbehalten IMAGO / Future Image

In December 2021, journalists from ARD political magazine Panorama and NDR format STRG_F (funk), together with Der Spiegel, revealed that photos and videos showing serious sexual abuse of children often remain on the net for years – even though investigating authorities could have them removed. Victim protection organizations and child and youth psychologists subsequently spoke of a „slap in the face of those affected“, a group of MEPs is now seeking clarification.

In their guest article, Robert Bongen and Daniel Moßbrucker, who were part of the research team, describe why a change of strategy in the fight against child abuse would not only be an investigative tactical question, but also a political one.

In one of his last appearances in November 2021, the then acting Federal Minister of the Interior, Horst Seehofer, became unusually emotional. At the autumn conference of the Federal Criminal Police Office (BKA), Seehofer highlighted an area of great personal concern to him: the spread of depictions of sexual abuse of children. The number of such depictions increases enormously from year to year, Seehofer said – and this trend must be stopped by all means. Because behind the depictions there is almost always real abuse:

What immeasurable suffering the perpetrators inflict on the children! Under no circumstances should the image or video material be permanently retrievable. Otherwise, those affected will become victims again and again, and this for a lifetime. The deletion of these pictures and videos is therefore indispensable.

There is really nothing to add to that. And yet, the vehemence of these words surprised us. Because at that time we had already completed our research. And only a few days later we reported that the Federal Criminal Police Office of all places – which as the central agency in Germany has special rights and duties in the fight against child abuse – has for years at best only partially fulfilled Seehofer’s demand.

Photos and videos are mostly filed with ordinary storage services, the download links shared in darknet forums. Yet the BKA does not systematically report these links to these storage services, even though this would mean that illegal material documenting serious child abuse would disappear from the net.

How is it possible that an authority that is subordinate to the Federal Ministry of the Interior fails to do exactly what the responsible minister publicly calls „indispensable“?

(Almost) everything is allowed

The world in which the investigators of the BKA move is disturbing. One example: Everyone who registers with an online service on the internet usually has to accept the „general terms and conditions“. These are often so long and complex that no one reads them.

On the world’s largest platform in the Darknet, where paedo-criminals meet, it is different. Here, the terms and conditions consist of only one sentence: If you want to join the forum, you should never post personal information about yourself. Otherwise, one suspects, everything is allowed here, as long as it is meeting with ever growing approval: In this forum alone, around 3.7 million user accounts were registered at the end of 2021, under the dubious slogan: „For Child Lovers“.

Investigative authorities let the forums grow

This forum was the focus of our research. Never before in the history of the internet has there been a larger platform of this kind. By way of comparison, the „Boystown“ forum, which German authorities were able to shut down in April 2021, had „only“ around 400,000 user accounts at the end. One should not equate these numbers with people, because many paedo-criminals open a new account with every login, which they never use again afterwards. Nevertheless, there is much to suggest that these darknet forums have managed to record enormous growth rates, especially in the last two to three years. At the time of our research, the users of the platform with the slogan „For Child Lovers“ had clicked on the content there about 1.7 billion times, and the trend was rising rapidly.

There are technical reasons for the rise of these forums, for example, the Tor network behind them has become faster and faster in recent years. But above all – and this is the central finding of our research – investigating authorities from many countries, including the German Federal Criminal Police Office, are involuntarily making these platforms more and more attractive. Because there is more and more content available for download – without the investigators intervening.

Darknet takes over the mediating role

According to our data analyses, the largest forum „For Child Lovers“ alone had over 20 terabytes – that’s over 20,000 gigabytes – available for download in November. And this amount could be deleted within a very short time.

This is due to the special architecture of these paedo-criminal networks. The operators of the paedo-platforms operate in the anonymous darknet in order to build a digital meeting place for paedo-criminals. However, the volume of data that can be exchanged there by anyone is too large to be stored on the darknet platforms themselves. Therefore, the paedo-criminals choose storage services on the ordinary internet instead, so-called one-click filehosters.

They put their material in a folder, which they encrypt with a password as a so-called archive, and upload this archive to the file hoster. From the file hoster’s point of view, an encrypted mountain of data has been uploaded. In the darknet forum, the paedophiles then share the corresponding download link and the associated password. The file hosters are usually unaware of this because possible upload filters are not effective due to the password protection.

According to the law, they do not have to look for it themselves. What’s more, it would even be illegal if the operators of a file hoster were to specifically search the internet for photos and videos showing child abuse. The file hosters are therefore dependent on receiving a tip-off.

97 percent of the content is on the Clearweb

The Canadian Center for Child Protection (C3P) estimates that only about three percent of the photos and videos documenting child abuse are hosted on the darknet itself. Ninety-seven percent, on the other hand, are on the Clearweb, the part of the Internet that can be accessed with ordinary browsers such as Firefox or Chrome. The Canadian charity organization C3P maintains, among other things, a hotline where suspected cases of child abuse can be reported. In addition, the organization specifically searches for depictions of abuse and reports them to the responsible internet companies.

According to its own account, C3P is also active in the darknet and searches forums for linked archives that lead to Clearweb hosts. So does the NGO take over the job, so that law enforcement agencies can take care of identifying the perpetrators? German security authorities are well aware of their work; some investigators even speak of the „Canadian approach“. How is it possible that in the largest of these darknet forums, of all places, no one systematically reports the content. C3P answers evasively when asked. Generally, it states:

We do agree with your finding that not enough is being done and this issue is largely being ignored. As your reporting points out, this lack of action continues to put victims in harm’s way and perpetuates trauma.

An NGO is to clean up the internet

In addition, C3P says it wants to decrypt all content first and check it carefully to make sure that only illegal material is reported. Filehosters must be able to trust that only illegal material will be reported. But this takes time. “As a relatively small charity, we have limited resources to tackle the volume of media we find“, C3P writes.

Indeed, it seems grotesque that more than 30 years after the development of the World Wide Web, a single non-profit organization with a small team and budget should have the task of cleansing the entire Internet of abusive depictions. C3P, which operates independently but is about half dependent on mostly Canadian government funding, regularly calls on internet companies to take more consistent action against the content on their servers. A problem for the internet industry, then?

Companies take over 13 terabytes off the net

Initially, we had assumed that the responsibility for the masses of content linked in the darknet forums was to be found with the filehosts. However, when we randomly sent some links to the services and often received the info after a few minutes that everything had been removed, the narrative of the disreputable, anonymous one-click filehosters began to crumble. In the end, in a concentrated effort, we automatically collected around 80,000 working links that paedo-criminals had posted on one platform. Behind them lay around 13.55 terabytes of data. That’s about as much as if a person watched a video of a child being abused for a year, day and night, in HD quality.

After we sent the links to the filehosters, they removed the material from their servers after 48 hours at the latest. Before that, the content had been online for about one and a half years on average. The oldest link we found had been online for over six years and led to a video of a boy being abused and raped.

We sent a German image-hoster links to about 100,000 photos, which it took down from its servers within three hours. Some of these photos had also been lying dormant on the servers for years without the hoster having been informed by German authorities, according to his statement.

Official statistics with an opaque data basis

These figures are in enormous discrepancy to the amount of content that the Federal Criminal Police Office (BKA) retrieves from the net every year. Since a decision in 2011 by the Bundestag, the German parliament, the BKA has been required to have illegal content deleted from the internet as comprehensively as possible. Since then, the approach of „deleting instead of blocking“ has been considered an alternative to netblocking, which was heavily discussed under the title „Zensursula“ in reference to the then Family Minister Ursula von der Leyen, because critics feared that this would lead to state censorship of the internet. (The German word for censorship is “Zensur”.)

According to the annual report, the Federal Criminal Police Office (BKA) followed up on about 6800 tips on links hosting child abuse images. In most cases, the prosecutors succeeded in having the links deleted within a few days. In view of such figures, the approach of „deleting instead of blocking“ is also considered successful in politics. The then Minister of Justice and Family Affairs, Christine Lambrecht, commented on the BKA’s annual report accordingly:

The high deletion rates and the comparatively short processing times prove that the concept of ‚deletion instead of blocking‘ is  overall effective.

However, the BKA’s approximately 6800 cases that appear in the official statistics are only a fraction of the masses we found in the large darknet forums. Many links are apparently not reported by the BKA in the first place. Why not?

The myth of the „servers abroad”

In the course of our research, we did not come across a single file- or image-hoster worldwide who did not respond to our reports. The hosters who were most abused by the paedo-criminals are located in Germany, France, Sweden, Iceland or do not state their place of business at all – but they all cooperated.

Surprising – but also irritatingly quick and easy. Why don’t the law enforcement agencies do this? In conversations with investigators, we heard again and again that the „servers abroad“ were a central problem. Whether this applies to other areas of law, such as copyright infringement or online fraud, is something we cannot judge. However, for the linked content circulating in the darknet forums for the exchange of child abuse material, the server location is definitely not an obstacle.

As far back as 2009, the Scientific Service of the Bundestag stated that the BKA could send an „Abuse E-Mail“ to foreign services to inform them about illegal content. Should the BKA not be able or willing to inform the foreign hosters directly, they could, in case of doubt, ask foreign law enforcement agencies for assistance.

Catch perpetrators, leave photos?

Although it would be technically possible and legally permissible (some lawyers even consider it mandatory), the German Federal Criminal Police Office, BKA, hardly ever reports illegal content to the filehosters. Nor, by the way, do the few German storage services. Particularly striking: Even after the BKA, together with the General Public Prosecutor’s Office in Frankfurt am Main, shut down the „Boystown“ forum in April 2021, it did not remove the links shared there. As a result, a few days after the takedown, paedo-criminals simply shared the links that continued to work in another forum, so that much of the content on „Boystown“ was available again.

This is incomprehensible for child and youth psychologists and the German Child Protection Association. They were „stunned“ that the BKA apparently failed to systematically delete images from the internet, they said in a joint statement in response to the research. This is a „slap in the face of those affected“:

The fact that images of their terrible experiences are still available on the internet is extremely stressful and makes it more difficult for them to come to terms with what they have experienced. Some victims speak of renewed abuse as soon as someone looks at the footage of their abuse.

But the current federal government also defends the procedure. In December, the Secretary of State for the Interior, Markus Richter, answered a written question (Schriftliche Frage) by Konstantin von Notz, a member of the Green Party: „Priority must be given to securing and evaluating the content that is needed for immediate measures to avert danger and for the presentation of criminal evidence.“

This is a typical argument used by prosecutors in the discussion: The priority is to catch the perpetrators and collect evidence for a conviction. In the best case, this could even save children who are still being abused. In contrast, the mere deletion of photos and videos, which can be uploaded elsewhere anyway, actually seems less relevant.

But is it really this sad dilemma that the authorities are facing?

Deletion does not hinder law enforcement, it supports it

On closer analysis, it becomes clear that there is nothing to be said against catching perpetrators and saving children as well as reporting content. This „either/or“ does not exist in this radical form. What’s more, acts could probably even be prevented if deletions were more consistent.

Because with all the content, the forums have long since become a social space in which paedo-criminals are given the impression that it’s normal to perform sexual acts on children, and that the children actually want to do so. Law enforcement officers investigating this area told us during the research that they noticed a disinhibition on these platforms, so that possibly more people „feel like“ trying things in real life. This was also confirmed by child and youth psychologists and the German Child Protection Association in their reaction to our reporting.

One cannot claim that it is time-consuming to search for the links. We needed about six hours with an online crawler, a kind of „search dog for the net“, to find the 80,000 links that led to over 13 terabytes. In fact, we were quite surprised at how easy it was to collect the links, as the paedo-criminals had no safeguards at all against automated downloads in the forum at the time.

Does deletion really destroy evidence?

It is also possible to preserve evidence if it is deleted. There is nothing to be said against automatically clicking on the automatically downloaded links and downloading the linked content once. Police officers could then view the photos and videos at a later time, but by reporting them to the filehoster, they could already contain the distribution. The risk that legal content would be reported as „collateral damage“ (so-called „overblocking“) is de facto excluded: These forums are only there to distribute child abuse material, other content is not tolerated there.

But what good is deletion if paedo-criminals still have the material on their hard drives and can upload it again at any time? We heard this argument again and again. It is not completely wrong, but here too our research suggests a more differentiated understanding: Deleting takes the dynamic out of the forums because an upload takes significantly longer than collecting a link. The users usually use the slower Tor network for the upload so as not to reveal their true IP address to the Clearweb filehoster. Furthermore, the uploaders all live normal lives and are not always in the forum every day to even notice that their links have been deleted.

Annoying users “to death”

Incidentally, we received unexpected confirmation from the administrator of the largest forum at the time: We managed to get in touch with him. He wrote to us that consistent deletion can „annoy users to death“. If you delete long enough, it can happen that people leave and the administrators „shut the place down“. In other words, uploaders are annoyed because their work is destroyed, and consumers are annoyed because many links lead nowhere.

Consistently and permanently pursued, deletion would also help the internet companies to block the once reported content from being uploaded again. Some of the filehosters currently most abused by paedo-criminals already have such upload filters in place. They produce a so-called hash value from reported content and store it in a database.

If a user tries to upload a file with the same hash value again, the upload stops immediately. This even works for the encrypted archive files of the paedo-criminals – but only if the filehosters receive a tip from authorities about which specific files with the associated hash values are illegal.

Not deleting may increase the number of perpetrators

Of course, particularly motivated users could always upload their material to new file hosts with different hash values. But how strong is this argument when not deleting undoubtedly leads to more and more people being able to store more and more material on their hard drives in order to upload it? So not deleting broadens the base of those who have the material on their hard drives, thus creating new uploaders.

This circumstance, the recently increasing dimensions of these darknet forums, is probably the decisive change that makes the priorities of the Federal Ministry of the Interior and the law enforcement agencies, which are perhaps understandable in principle, seem increasingly absurd: How wisely are resources used when, as in the „Boystown“ case, four people are arrested after months of investigation, but then the content is not secured and taken off the net? So that only a few days after the shutdown, „Boystown“ content is posted again elsewhere and thousands of users can still use it today?

There may have been a time, when this was exactly the right strategy: shutting down a forum in order to eliminate an entire infrastructure with a successful investigation. But today, these forums are teeming, all blithely linking to content hidden on the Clearweb.

Our research shows that identical links to filehosters are often shared in different darknet forums. Conversely, this means that deleting the links of particular filehosters can remove the content from several darknet forums at once. The result is an efficient procedure to get criminal content off the net.

New government wants to strengthen the BKA

Horst Seehofer must simply not have known that the Federal Criminal Police Office apparently structurally fails to do exactly this when he so vehemently emphasized at the BKA autumn meeting that deleting the recordings was „indispensable“. In its coalition agreement, the new government has now announced: „In the fight against child abuse, we will strengthen the Federal Criminal Police Office in terms of personnel.“

It is now a political question how Seehofer’s successor Nancy Faeser (SPD) will distribute these resources within the BKA. If she takes „deleting depictions of abuse“ seriously as an essential part of the fight against child abuse, then she could achieve a great deal here with relatively little money and staff.

Robert Bongen works for Norddeutscher Rundfunk and is an editor for the ARD political magazine Panorama.

Daniel Moßbrucker works as a journalist on the topics of surveillance, data protection and internet regulation. He is also a trainer for digital security and darknet research.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

✇netzpolitik.org

Darstellungen von Kindesmissbrauch: Das Netz vergisst nichts, solange es nicht vergessen soll

Von: Gastbeitrag
Ein Bildschirm mit verpixelten Bildern, im Hintergrund eine Mitarbeiterin der Hotline
LKA-Mitarbeiterinnen beim Start des Hinweistelefons zu sexuellem Missbrauch von Kindern und Jugendlichen in NRW. – Alle Rechte vorbehalten IMAGO / Future Image

Anfang Dezember enthüllten Journalisten des ARD-Politikmagazins Panorama und des NDR-Reportageformats STRG_F (funk) gemeinsam mit dem Spiegel, dass Fotos und Videos, die schweren sexuellen Missbrauch von Kindern zeigen, oft jahrelang im Netz bleiben, obwohl Ermittlungsbehörden sie löschen lassen könnten. Opferschutzorganisationen sowie Kinder- und Jugendpsychologen sprachen im Anschluss von einer „Ohrfeige für Betroffene“, auch eine Gruppe von EU-Abgeordneten bemüht sich mittlerweile um Aufklärung.

In ihrem Gastbeitrag schildern Robert Bongen und Daniel Moßbrucker, die Teil des Rechercheteams waren, warum ein Strategiewechsel im Kampf gegen Kindesmissbrauch nicht nur eine ermittlungstaktische, sondern auch eine politische Frage wäre.

Bei einem seiner letzten Auftritte im November 2021 wurde der damals geschäftsführende Bundesinnenminister Horst Seehofer ungewohnt emotional. Auf der Herbsttagung des Bundeskriminalamts (BKA) hob Seehofer einen Bereich hervor, der ihm persönlich große Sorgen bereite: Die Verbreitung von Darstellungen sexuellen Missbrauchs von Kindern. Deren Zahl steige von Jahr zu Jahr enorm an – und dieser Trend müsse mit allen Mitteln gestoppt werden. Denn hinter den Darstellungen stehe fast immer auch ein realer Missbrauch:

Was für ein unermessliches Leid, das die Täter den Kindern zufügen! Das Bild- oder Videomaterial darf auf keinen Fall dauerhaft abrufbar sein. Die Betroffenen werden sonst immer wieder zum Opfer, und zwar ein Leben lang. Die Löschung dieser Bilder und Videos ist daher unverzichtbar.

Dem ist eigentlich nichts hinzuzufügen. Und doch: Die Worte haben uns in ihrer Vehemenz überrascht. Denn zu diesem Zeitpunkt hatten wir unsere Recherche schon abgeschlossen. Und nur wenige Tage später berichteten wir, dass ausgerechnet das Bundeskriminalamt – das in Deutschland als Zentralstelle besondere Rechte und Pflichten beim Kampf gegen Kindesmissbrauch hat – Seehofers Forderung seit Jahren allenfalls teilweise erfüllt.

Fotos und Videos werden meistens bei gewöhnlichen Speicherdiensten abgelegt, die Download-Links in Darknet-Foren geteilt. Doch das BKA meldet diese Links nicht systematisch an diese Speicherdienste, obwohl damit illegales Material, das schweren Kindesmissbrauch dokumentiert, aus dem Netz verschwinden würde.

Wie kann es sein, dass eine Behörde, die dem Bundesinnenministerium untersteht, genau das unterlässt, was der zuständige Minister öffentlich als „unverzichtbar“ bezeichnet?

(Fast) alles ist erlaubt

Die Welt, in der sich die Ermittler:innen des BKA bewegen, ist verstörend. Ein Beispiel: Wer sich im Internet bei einem Online-Dienst registriert, muss in der Regel die „Allgemeinen Geschäftsbedingungen“ akzeptieren. Die sind meist so lang und komplex, dass sie niemand liest.

Auf der weltweit größten Plattform im Darknet, auf der sich Pädokriminelle treffen, ist es anders. Hier bestehen die AGB aus nur einem einzigen Satz: Wer ins Forum wolle, solle niemals persönliche Informationen über sich posten. Ansonsten, so ahnt man, ist hier alles erlaubt, was auf immer größeren Anklang stößt: Allein in diesem Forum waren Ende 2021 rund 3,7 Millionen Nutzerkonten registriert, unter dem zweifelhaften Slogan: „For Child Lovers“.

Ermittlungsbehörden lassen die Foren groß werden

Dieses Forum stand im Mittelpunkt unserer Recherchen. Nie zuvor in der Geschichte des Internets hat es eine größere Plattform dieser Art gegeben. Zum Vergleich: Das Forum „Boystown“, das deutsche Behörden im April 2021 abschalten konnten, hatte zum Schluss „nur“ rund 400.000 Nutzer:innenkonten. Man sollte diese Zahlen nicht mit Menschen gleichsetzen, denn viele Pädokriminelle eröffnen mit jedem Login einen neuen Account, den sie danach nie wieder gebrauchen. Dennoch spricht viel dafür, dass es diese Darknet-Foren insbesondere in den vergangenen zwei bis drei Jahren geschafft haben, gewaltige Zuwachsraten zu verzeichnen. Die User:innen der Plattform mit dem Slogan „For Child Lovers“ hatten die dortigen Inhalte zum Zeitpunkt unserer Recherche rund 1,7 Milliarden mal angeklickt, Tendenz stark steigend.

Für den Aufstieg dieser Foren gibt es technische Gründe, zum Beispiel ist das dahinterliegende Tor-Netzwerk in den vergangenen Jahren immer schneller geworden. Vor allem aber – und das ist die zentrale Erkenntnis unserer Recherche – lassen Ermittlungsbehörden aus vielen Ländern, darunter auch das deutsche Bundeskriminalamt, diese Plattformen unfreiwillig immer attraktiver werden, weil es dort immer mehr Inhalte zum Herunterladen gibt – ohne dass die Ermittler:innen einschreiten.

Darknet übernimmt die Vermittlungsrolle

Allein in dem größten Forum „For Child Lovers“ standen unseren datenjournalistischen Analysen zufolge im November über 20 Terabyte – das sind über 20.000 Gigabyte – zum Download. Und diese Menge könnte binnen kürzester Zeit gelöscht werden.

Dies hängt mit der besonderen Architektur dieser pädokriminellen Netzwerke zusammen. Zwar agieren die Betreiber:innen der Pädo-Plattformen im anonymen Darknet, um dort einen digitalen Treffpunkt für pädokriminelle Menschen aufzubauen. Die Datenmengen der illegalen Aufnahmen, die dort von jedem getauscht werden können, sind allerdings zu groß, um auf den Darknet-Plattformen selbst gespeichert werden zu können. Daher wählen die Pädokriminellen stattdessen Speicherdienste im gewöhnlichen Internet, sogenannte One-Click-Filehoster.

Sie legen ihr Material dafür in einen Ordner, den sie als sogenanntes Archiv mit einem Passwort verschlüsseln, und dieses Archiv laden sie beim Filehoster hoch. Aus Sicht des Filehosters wurde also ein verschlüsselter Datenberg hochgeladen. Im Darknet-Forum teilen die Pädokriminellen dann den entsprechenden Download-Link und das dazugehörige Passwort. Die Filehoster ahnen also meist nichts davon, weil mögliche Upload-Filter durch den Passwortschutz nicht greifen.

Selbst müssen sie laut Rechtslage nicht danach suchen. Mehr noch: Es wäre sogar illegal, würden Betreiber:innen eines Filehosters im Internet gezielt nach Fotos und Videos suchen, auf denen Kindesmissbrauch zu sehen ist. Die Filehoster sind also darauf angewiesen, dass sie einen Hinweis erhalten.

97 Prozent der Inhalte liegen im Clearweb

Das Canadian Center for Child Protection (C3P) schätzt, dass nur etwa drei Prozent der Fotos und Videos, die Kindesmissbrauch dokumentieren, im Darknet selbst gehostet werden. 97 Prozent hingegen liegen im Clearweb, also dem Teil des Internets, der mit gewöhnlichen Browsern wie Firefox oder Chrome ansteuerbar ist.

Die kanadische Charity-Organisation C3P unterhält unter anderem eine Hotline, bei der Verdachtsfälle auf Kindesmissbrauch gemeldet werden können. Außerdem sucht die Organisation gezielt nach Missbrauchsdarstellungen und meldet diese an die zuständigen Internetfirmen.

Nach eigener Darstellung ist C3P auch im Darknet aktiv und sucht in Foren nach verlinkten Archiven, die zu Clearweb-Hostern führen. Übernimmt die NGO also den Job, sodass sich Strafverfolgungsbehörden um die Ermittlung der Täter:innen kümmern können?

Deutschen Sicherheitsbehörden ist ihre Arbeit gut bekannt, manche Ermittler:innen sprechen gar vom „kanadischen Ansatz“. Wie es dann sein kann, dass ausgerechnet im größten dieser Darknet-Foren erkennbar niemand systematisch die Inhalte meldet, beantwortet C3P auf Nachfrage ausweichend. Allgemein heißt es:

Wir stimmen mit Ihrer Feststellung überein, dass nicht genug getan wird und dieses Problem weitgehend ignoriert wird. Wie in Ihrem Bericht dargelegt, bringt diese Untätigkeit die Opfer weiterhin in Gefahr und führt zu einem anhaltenden Trauma.

Eine NGO soll das Internet reinigen

Außerdem, so C3P, wolle man alle Inhalte erst entschlüsseln und genau prüfen. Filterhoster müssten darauf vertrauen können, dass nur illegales Material gemeldet würde. Dies koste aber Zeit. „Als relativ kleine Wohltätigkeitsorganisation haben wir nur begrenzte Ressourcen, um die Menge an Medien zu bewältigen, die wir finden“, schreibt C3P.

In der Tat mutet es grotesk an, dass über 30 Jahre nach der Entwicklung des World Wide Web eine einzige Non-Profit-Organisation mit überschaubarem Team und Budget die Aufgabe haben soll, das gesamte Internet von Missbrauchsdarstellungen zu reinigen. C3P, das zwar unabhängig agiert, aber etwa zur Hälfte von überwiegend kanadischen Regierungsgeldern abhängig ist, fordert regelmäßig Internetunternehmen auf, konsequenter gegen die Inhalte auf ihren Servern vorzugehen. Ein Problem der Internetbranche also?

Firmen nehmen über 13 Terabyte aus dem Netz

Anfangs hatten wir noch vermutet, dass die Verantwortung für die Massen an Inhalten, die in den Darknet-Foren verlinkt werden, bei den Filehostern zu suchen ist. Als wir jedoch stichprobenartig einige Links an die Dienste schickten und häufig nach wenigen Minuten die Info erhielten, dass alles entfernt worden sei, begann das Narrativ von den anrüchigen, anonymen One-Click-Hostern zu bröckeln.

Am Ende sammelten wir in einer konzentrierten Aktion automatisiert rund 80.000 funktionierende Links ein, die Pädokriminelle auf einer Plattform gepostet hatten. Dahinter lagen rund 13,55 Terabyte an Daten. Das ist in etwa so viel, als wenn sich ein Mensch ein Jahr lang ein Video anschauen würde, in dem ein Kind missbraucht wird, Tag und Nacht, in HD-Qualität.

Nachdem wir die Links an die Filehoster geschickt hatten, entfernten diese das Material spätestens nach 48 Stunden von ihren Servern. Zuvor standen die Inhalte im Schnitt rund eineinhalb Jahre im Netz. Der älteste Link, den wir gefunden haben, war über sechs Jahre online und führte zu einem Video, auf dem ein Junge misshandelt und vergewaltigt wird.

Einem deutschen Bilder-Hoster schickten wir Links zu rund 100.000 Fotos, die er binnen drei Stunden von seinen Servern holte. Auch diese Fotos schlummerten zuvor teils jahrelang auf seinen Servern, ohne dass er darüber nach eigener Aussage von deutschen Behörden informiert worden war.

Behördliche Statistik mit undurchsichtiger Datengrundlage

Diese Zahlen stehen in enormer Diskrepanz zu dem, was das Bundeskriminalamt jährlich an Inhalten aus dem Netz holt. Seit einem Entschluss des Bundestages aus dem Jahr 2011 ist das BKA gehalten, die illegalen Inhalte möglichst umfassend aus dem Internet löschen zu lassen. Der Ansatz „Löschen statt Sperren“ gilt seither als Alternative zu Netzsperren, die in Anlehnung an die damalige Familienministerin Ursula von der Leyen unter dem Titel „Zensursurla“ heftig diskutiert worden waren, weil Kritiker:innen den Einstieg in eine staatliche Internetzensur befürchteten.

Laut Jahresbericht ging das BKA im Jahr rund 6.800 Hinweisen auf Links nach, hinter denen sich Aufnahmen von Kindesmissbrauch verbargen. Überwiegend gelang es den Strafverfolger:innen demnach, die Links binnen weniger Tage löschen zu lassen. Der Ansatz „Löschen statt Sperren“ gilt angesichts solcher Zahlen auch in der Politik als erfolgreich. Die damalige Justiz- und Familienministerin Christine Lambrecht kommentierte den Jahresbericht des BKA entsprechend:

Die hohen Löschquoten und die vergleichsweise kurzen Bearbeitungszeiten belegen, dass das Konzept ‚Löschen statt Sperren‘ insgesamt wirkungsvoll ist.

Allerdings sind die rund 6.800 Fälle des BKA, die in der offiziellen Statistik auftauchen, nur ein Bruchteil der Massen, die wir in den großen Darknet-Foren fanden. Viele Links werden vom BKA also offenbar erst gar nicht gemeldet. Wieso nicht?

Die Mär vom „Server im Ausland“

Im Zuge der Recherche begegneten wir weltweit keinem einzigen Hoster, der nicht auf unsere Meldungen reagierte. Die Hoster, die am meisten von den Pädokriminellen missbraucht wurden, sitzen in Deutschland, Frankreich, Schweden, Island oder geben ihren Geschäftssitz gar nicht an – kooperiert haben sie jedoch alle.

Überraschend – aber auch äußerst irritierend schnell und einfach. Warum machen das die Strafverfolgungsbehörden nicht? In Gesprächen mit Ermittler:innen hörten wir immer wieder, dass die „Server im Ausland“ ein zentrales Problem seien. Ob dies für andere Rechtsbereiche wie Urheberrechtsverstöße oder Online-Betrug gilt, können wir nicht beurteilen. Bei den verlinkten Inhalten, die in den Darknet-Foren zum Tausch von Kindesmissbrauchsmaterial kursieren, ist der Serverstandort jedoch definitiv kein Hindernis.

Schon 2009 stellte der Wissenschaftliche Dienst des Bundestages fest, dass das BKA eine „Abuse E-Mail“ an ausländische Dienste schicken könne, um sie über illegale Inhalte zu informieren. Sollte das BKA die ausländischen Hoster nicht direkt informieren können oder wollen, könnten sie im Zweifel ausländische Strafverfolgungsbehörden um Unterstützung bitten.

Täter:innen fassen, Fotos lassen?

Obwohl es also technisch einfach möglich wäre und rechtlich erlaubt (einige Jurist:innen halten es sogar für zwingend), meldet das Bundeskriminalamt den Filehostern die illegalen Inhalte so gut wie nie. Übrigens auch nicht den wenigen deutschen Speicherdiensten.

Besonders frappierend: Auch nachdem das BKA gemeinsam mit der Generalstaatsanwaltschaft Frankfurt am Main im April 2021 das Forum „Boystown“ abgeschaltet hatte, ließ es die dort geteilten Links nicht löschen. Als Folge daraus teilten Pädokriminelle wenige Tage nach dem Takedown schlichtweg die weiterhin funktionierenden Links in einem anderen Forum, sodass viele „Boystown“-Inhalte wieder verfügbar waren.

Für Kinder- und Jugendpsycholog:innen sowie den Deutschen Kinderschutzbund ist das nicht nachvollziehbar. „Fassungslos“ sei man darüber, dass das BKA es offenbar unterlasse, systematisch Bildmaterial aus dem Netz zu löschen, heißt es in einer gemeinsamen Erklärung als Reaktion auf die Recherche. Dies sei eine „Ohrfeige für Betroffene“:

Dass Bilder ihrer schrecklichen Erlebnisse weiter im Internet abrufbar sind, ist extrem belastend und erschwert die Bewältigung des Erlebten. Manche Betroffenen sprechen von erneutem Missbrauch, sobald jemand das Bildmaterial ihres Missbrauchs ansieht.

Doch auch die aktuelle Bundesregierung verteidigt das Vorgehen der Ermittlungsbehörden. Auf eine schriftliche Frage des Grünen-Abgeordneten Konstantin von Notz antwortete Innen-Staatssekretär Markus Richter im Dezember: „Es müssen prioritär die Inhalte, die für unmittelbar gefahrenabwehrende Maßnahmen sowie für die strafrechtliche Beweisführung benötigt werden, gesichert und ausgewertet werden.“

Es ist ein typisches Argument, das Strafverfolger:innen in der Diskussion bringen: Die Priorität liegt darauf, Täter:innen zu fassen und Beweise für eine Verurteilung zu sammeln. Dadurch könnten im Optimalfall sogar noch Kinder gerettet werden, deren Missbrauch andauert. Dagegen mutet das bloße Löschen von Fotos und Videos, die an anderer Stelle ohnehin wieder hochgeladen werden können, tatsächlich weniger relevant an.

Aber: Ist es wirklich dieses traurige Dilemma, vor dem die Behörden stehen?

Löschen behindert Strafverfolgung nicht, sondern unterstützt sie

Bei genauerer Analyse wird deutlich, dass nichts dagegen spricht, sowohl Täter:innen zu fassen und Kinder zu retten, als auch Inhalte zu melden. Dieses „Entweder Oder“ gibt es in dieser radikalen Form gar nicht. Mehr noch: Es könnten vermutlich sogar Taten verhindert werden, wenn konsequenter gelöscht würde.

Denn mit den vielen Inhalten sind die Foren längst ein sozialer Raum geworden, in dem Pädokriminelle das Gefühl vermittelt bekommen, dass es normal sei, an Kindern sexuelle Handlungen vorzunehmen. Strafverfolger:innen, die in diesem Bereich ermitteln, sagten uns während der Recherchen selbst, dass sie eine Enthemmung feststellten auf diesen Plattformen, sodass möglicherweise mehr Menschen „Lust“ bekommen, Dinge auch im realen Leben probieren zu wollen. Dies bestätigten auch die Kinder- und Jugendpsycholog:innen sowie der Deutsche Kinderschutzbund in ihrer Erklärung.

Dass es aufwändig ist, die Links zu suchen, kann man nicht wirklich behaupten. Wir benötigten rund sechs Stunden mit einem Online-Crawler, einer Art „Suchhund fürs Netz“, um die 80.000 Links zu finden, die zu über 13 Terabyte führten. Tatsächlich waren wir ziemlich überrascht, wie einfach es ging, die Links einzusammeln, da die Pädokriminellen seinerzeit noch überhaupt keine Schutzmaßnahmen gegen automatisierte Downloads im Forum hatten.

Vernichtet Löschen wirklich Beweise?

Auch eine Beweissicherung ist möglich, wenn gelöscht wird. Nichts spricht dagegen, die automatisiert geladenen Links ebenso automatisiert anzuklicken und die verlinkten Inhalte einmalig herunterzuladen. Dann könnten Polizeibeamt:innen die Fotos und Videos zu einem späteren Zeitpunkt sichten, durch das Melden beim Filehoster aber die Verbreitung bereits eindämmen.

Dass so legale Inhalte als „Kollateralschäden“ gemeldet würden (sogenanntes „Overblocking“), ist de facto ausgeschlossen: Diese Foren sind nur dazu da, Kindesmissbrauchsmaterial zu verbreiten, andere Inhalte werden dort nicht geduldet.

Doch was hilft das Löschen, wenn Pädokriminelle das Material ja weiterhin auf ihren Festplatten haben und jederzeit erneut hochladen können? Dieses Argument hörten wir immer wieder.

Es ist nicht völlig falsch, aber nach unseren Recherchen auch nicht ganz so einseitig: Ein Upload dauert bedeutend länger als das Einsammeln eines Links. Die User:innen nutzen für den Upload nämlich meist das langsamere Tor-Netzwerk, um gegenüber dem Clearweb-Filehoster nicht ihre wahre IP-Adresse zu verraten. So verlangsamt sich die Dynamik in den Foren.

Ferner führen die Uploader auch ein normales Leben und sind nicht immer täglich im Forum, um überhaupt zu merken, dass ihre Links gelöscht wurden.

Nutzer:innen „zu Tode nerven“

Unvermutete Bestätigung bekamen wir hier im Übrigen vom Administrator des aktuell größten Forums selbst: Uns war es gelungen, mit ihm in Kontakt zu treten. Er schrieb uns, dass konsequentes Löschen die User:innen „zu Tode nerven“ könne: Wenn man lang genug lösche, könne es passieren, dass die Leute gehen und die Administratoren „den Laden dichtmachten“. Heißt also: Uploader sind genervt, weil ihre Arbeit zerstört wird, und Konsument:innen sind genervt, weil viele Links ins Leere führen.

Würden Inhalte konsequent und dauerhaft gemeldet, können auch Internetfirmen das Material für ein wiederholtes Hochladen sperren. Einige der Filehoster, die derzeit am stärksten von den Pädokriminellen missbraucht werden, haben bereits solche Uploadfilter im Einsatz. Sie produzieren dafür aus gemeldeten Inhalten einen sogenannten Hashwert und legen ihn in eine Datenbank.

Versucht ein:e User:in, eine Datei unverändert mit demselben Hashwert erneut hochzuladen, bricht der Upload sofort ab. Dies funktioniert sogar für die verschlüsselten Archivdateien der Pädokriminellen – allerdings nur, wenn die Filehoster von Behörden einen Hinweis erhalten, welche spezifischen Dateien mit den dazugehörigen Hashwerten illegal sind.

Nicht-Löschen-Lassen vergrößert Zahl der Täter:innen

Natürlich könnten User:innen ihr Material immer wieder bei neuen Filehostern mit anderen Hashwerten hochladen. Wie stark ist dieses Argument aber noch, wenn doch ein Nicht-Löschen-Lassen zweifellos auch dazu führt, dass immer mehr Menschen immer mehr Material auf ihren Festplatten bunkern können, um es dann weiterzuverteilen? Nicht-Löschen verbreitert also die Basis derjenigen, die das Material auf ihren Festplatten haben und sorgt für neue potenzielle Uploader:innen.

Die zuletzt immer größeren Dimensionen dieser Darknet-Foren lassen eine im Grundsatz vielleicht nachvollziehbare Prioritätensetzung des Bundesinnenministeriums und der Strafverfolgungsbehörden zunehmend absurd wirken: Wie klug sind Ressourcen eingesetzt, wenn wie im Fall „Boystown“ nach monatelangen Ermittlungen vier Personen verhaftet werden, aber dann die Inhalte nicht gesichert und aus dem Netz geholt werden? Sodass schon wenige Tage nach der Abschaltung „Boystown“-Inhalte an anderer Stelle wieder gepostet werden und sich tausende User:innen daran bis heute bedienen können?

Es mag eine Zeit gegeben haben, als das genau die passende Strategie gewesen sein mag: Ein Forum abschalten, um mit einem Ermittlungserfolg eine ganze Infrastruktur zu beseitigen. Aber heute wimmelt es nur so von diesen Foren, die alle munter im Clearweb versteckte Inhalte verlinken.

Unsere Recherchen zeigen, dass häufig identische Links zu Filehostern in unterschiedlichen Darknet-Foren geteilt werden. Das heißt im Umkehrschluss, dass ein Löschen bei einem Filehoster den Inhalt gleich für mehrere Darknet-Foren entfernen würde. Im Ergebnis ein effizientes Vorgehen, um strafbare Inhalte aus dem Netz zu bekommen.

Ampel-Koalition will BKA stärken

Dass das Bundeskriminalamt genau dies offenbar strukturell unterlässt, dürfte Horst Seehofer schlichtweg nicht gewusst haben, als er auf der BKA-Herbsttagung so vehement betonte, dass das Löschen der Aufnahmen „unverzichtbar“ sei. Die Ampelkoalition hat im Koalitionsvertrag angekündigt: „Im Kampf gegen Kindesmissbrauch stärken wir das Bundeskriminalamt personell.“

Es ist nun eine politische Frage, wie Seehofers Nachfolgerin Nancy Faeser (SPD) diese Mittel im BKA verteilen wird. Wenn sie das „Löschen von Missbrauchsdarstellungen“ als essenziellen Bestandteil im Kampf gegen Kindesmissbrauch ernst nimmt, dann könnte sie hier mit verhältnismäßig wenig Geld und Personal viel bewirken.

Robert Bongen arbeitet beim Norddeutschen Rundfunk und ist Redakteur beim ARD-Politikmagazin Panorama.

Daniel Moßbrucker arbeitet als Journalist zu den Themen Überwachung, Datenschutz und Internetregulierung. Außerdem ist er Trainer für digitale Sicherheit und Darknet-Recherchen.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

  • Es gibt keine weiteren Artikel
❌