🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Gestern — 27. Februar 2026Haupt-Feeds

Grundrechte: Wie Polizei und Justiz unsere Meinungsfreiheit einschränken

27. Februar 2026 um 07:38

Noch nie gab es so viele Ermittlungsverfahren und Hausdurchsuchungen wegen bloßer Worte. Heute gelten etliche politische Aussagen als strafbar, die noch vor zehn Jahren ganz klar erlaubt waren. Dabei sollten wir gerade in der gegenwärtigen Lage mehr Meinungsfreiheit wagen.

Zweii Männer und eine Frau sitzen an einem Tisch mit Akten.
Staatsanwälte der Zentralstelle zur Bekämpfung von Hasskriminalität im Internet Niedersachsen. – Alle Rechte vorbehalten CBS, 60 Minutes

Ronen Steinke ist Leitender Redakteur im Politikressort der Süddeutschen Zeitung und Lehrbeauftragter an der juristischen Fakultät der Goethe-Universität Frankfurt am Main. Heute erscheint sein neues Buch Meinungsfreiheit: Wie Polizei und Justiz unser Grundrecht einschränken – und wie wir es verteidigen im Berlin Verlag. Wir veröffentlichen das Vorwort mit freundlicher Genehmigung von Autor und Verlag. Alle Rechte vorbehalten.

Das zentrale Prinzip, auf dem jede Demokratie beruht, die Meinungsfreiheit, entzweit die Demokratien gerade gewaltig. Die USA auf der einen Seite, Europa auf der anderen.

Im Februar 2025 trat auf der Münchner Sicherheitskonferenz der amerikanische Vizepräsident J. D. Vance in einem Luxushotel auf die Bühne in einem Saal voller europäischer Regierungsvertreterinnen und Regierungsvertreter – und schaltete gleich auf Angriff. Europa würge die Meinungsfreiheit ab, behauptete der Amerikaner, dunkler Anzug, blaue Krawatte, ernster Ton. Die größte Bedrohung für Europa heute komme gar nicht mehr aus Russland oder China, sondern „von innen“. Infolge eines, wie Vance es ausdrückte, „Rückzugs Europas von einigen seiner grundlegenden Werte“. Dann belehrte der US-Vizepräsident seine Zuhörer – und besonders seine deutschen Gastgeber – darüber, dass die „Demokratie auf dem heiligen Prinzip ruht, dass die Stimme der Menschen ein Gewicht hat“.

Mit Blick auf die zahlreichen, immer schärfer werdenden europäischen Gesetze gegen sogenannte Hassrede, also solche Dinge wie die staatlichen „Zensurwünsche“ an die Adresse sozialer Medien wie Facebook oder X, die staatlich verordneten Online-Blocker und -Filter, wie sie vor allem Deutschland in den zurückliegenden zehn Jahren stark forciert hat, formulierte der Gast aus den USA: „Firewalls haben da keinen Platz.“ Das Prinzip der Meinungsfreiheit verlange nämlich eine spezielle Fähigkeit von Regierenden: die Fähigkeit, Kritik zu erdulden. „Entweder man hält dieses Prinzip hoch, oder man hält es nicht hoch.“

Entsetzen und Belustigung

Stille herrschte im Saal, europäische Teilnehmer waren für einen Moment sprachlos, und einige erzählten hinterher, wie sie innerlich geschwankt hätten zwischen Gefühlen des Entsetzens, aber auch der Belustigung. Denn, natürlich: Von Leuten wie J. D. Vance, die in ihrer Heimat kritische Journalisten diffamieren, Universitäten unter Druck setzen und Late-Night-Show-Hosts wegmobben, lässt man sich nicht so gern über demokratische Tugenden belehren. Für deutsche Politiker war es ein Leichtes, darauf hinzuweisen, dass der Amerikaner nicht wirklich gut positioniert sei, um über den Respekt vor abweichenden Meinungen zu dozieren.

Immerhin, gerade hatte die Regierung des US-Präsidenten Donald Trump und seines Vizes Vance die Nachrichtenagentur Associated Press achtkantig aus dem Weißen Haus geworfen, weil die Journalisten sich die Freiheit genommen hatten, den Golf von Mexiko weiterhin als „Golf von Mexiko“ zu bezeichnen, während die Trump-Regierung lieber kindisch von einem „Golf von Amerika“ sprechen wollte. Gleichzeitig hatte in den USA der Kampf gegen unliebsame Stimmen, auch mit drastischen Mitteln wie der Durchsuchung von Handys und sozialen Netzwerken nach kritischen Äußerungen gegen Amerikas Verbündeten Israel, gerade erst begonnen.

Sprachtabus in Deutschland

Aber, schrecklicher Gedanke: Was, wenn der Gast aus Amerika dennoch einen Punkt hatte? Der US-Vizepräsident ist schließlich nicht der Erste, der in Bezug auf Europa etwas bemerkt hat, auch Linksliberale in den USA blicken gegenwärtig mit zunehmend mulmigen Gefühlen auf das, was sich in Europa und besonders in Deutschland vollzieht. Von außen sieht man Dinge vielleicht manchmal klarer als von innen: Schon immer war die Bundesrepublik innerhalb der westlichen Welt das Land mit den meisten Sprachtabus, den schärfsten Strafvorschriften gegen bloße Worte, freedom of speech wird hier traditionell kleiner geschrieben als in den USA. Und: In dem Jahrzehnt zwischen 2015 und 2025, in dem die demokratische Kultur sich beiderseits des Atlantiks als äußerst volatil erwiesen hat und die Demokratie in einen Stresstest geraten ist, hat Deutschland sich entschieden, noch einmal deutlich mehr vom selben zu versuchen.

Das heißt, Deutschland hat darauf gesetzt, noch einmal zusätzliche Gesetze zu schaffen sowie auch alte, schon bestehende Gesetze zu verschärfen, um politische Äußerungen stärker zu regulieren und einzuschränken. Der Bundestag hat Strafparagrafen erweitert und vermehrt, der Tatbestand der Volksverhetzung ist gleich in mehrfacher Hinsicht ausgebaut worden, der Tatbestand der öffentlichen Billigung von Straftaten ist so ausgedehnt worden, dass man jetzt schon dafür bestraft werden kann, wenn man Taten „befürwortet“, die allein in der Fantasie spielen. Viele Staatsanwaltschaften haben die Bekämpfung von Hatespeech zu einer neuen Priorität erhoben, sie haben neue, schlagkräftige Teams gegründet, um zu ermitteln und juristische Spielräume auszuschöpfen.

Noch nie hat es hierzulande so viele Ermittlungen wegen bloßer Worte gegeben. Wegen reiner Äußerungsdelikte, wie Juristinnen und Juristen sagen. Die Zahlen der Ermittlungen haben sich in diesem Jahrzehnt – je nachdem, welchen Tatbestand man ansieht – teils verdreifacht, vervierfacht, verfünffacht, bei manchen, früher völlig unbekannten Delikten wie der öffentlichen Billigung von Straftaten sogar verhundertfacht, von jährlich knapp 20 auf 2000. Selbst wegen des Uraltdelikts der Blasphemie, „Beschimpfen von Bekenntnissen“, gab es im Jahr 2024 plötzlich 125 Ermittlungen – ein Rekord. Das liegt zum einen sicher daran, dass das Internet nichts vergisst und Äußerungen dort technisch leichter zu dokumentieren sind als im analogen Raum. Zum anderen aber auch daran, dass die Bereitschaft des Staates, auf Worte mit Verboten und Strafen zu reagieren, groß ist wie nie.

Vulnerable Gruppen schützen

Anfangs ist dies zweifellos aus besten Absichten geschehen. Als es losging mit der härteren Gangart, etwa 2015/16, lautete die Idee, dass man vor allem vulnerable Gruppen besser davor beschützen müsse, niedergebrüllt zu werden. Das ist richtig – ein wichtiger Gedanke. Als etwa die ZDF-Journalistin Dunja Hayali sich im Sommer 2025 zu einem tödlichen Attentat in den USA äußerte, dem Anschlag auf den Rechtsradikalen Charlie Kirk, da prasselten in den sozialen Medien so viele Kommentare auf sie ein, dass einen der Mut zum offenen Wort schon mal verlassen könnte. Hayali hatte unter anderem gesagt, es sei nicht zu rechtfertigen, dass manche Gruppen Kirks Tod feierten – „auch nicht mit seinen oftmals abscheulichen, rassistischen, sexistischen und menschenfeindlichen Aussagen“. Das genügte schon, um manche zu triggern.

„Sie werden bald für ihre Äußerungen bitter bezahlen“, schrieb @gordons_katzenabenteuer auf Instagram an die Journalistin, „Sie haben nur das allerschlimmste verdient. Schauen sie lieber ab jetzt öfter über ihre Schulter.“ Ein Nutzer namens @nocebo_the_mortem schrieb: „Ich hoffe, sie werden auch vor ihrer Familie erschossen“. @jaroabroad pflichtete bei: „Du bist ein Stück Scheiße sondergleichen und die Drohungen sind völlig gerechtfertigt!“ @juki030 schrieb: „Wir werden dich noch hängen sehen!“ @team.114hrc schrieb: „Heul leise du Dre…… Wirst bald die nächste sein“. @volkersuthoff schrieb: „Hoffentlich erschießt dich einer, du miese dreckslesbe!“

Wenn Täter mit solchen Gewaltdrohungen durchkämen, dann bliebe von der Meinungsfreiheit der Bedrohten nicht viel übrig. Zumal solche Attacken oft strategisch sind. Eine Studie der britischen Zeitung The Guardian ergab, dass von den zehn am häufigsten in Online-Kommentaren beleidigten Autorinnen und Autoren der Zeitung acht Frauen waren, vier von ihnen nicht weiß. Die anderen beiden waren schwarze Männer. In Deutschland sind Menschen mit Migrationshintergrund mehr als doppelt so oft von Online-Beschimpfungen betroffen wie andere. Das sind Menschen, die noch nicht sehr lange eine Stimme im politischen Diskurs haben und die aus Sicht der Pöbler wieder „auf ihre Plätze“ verwiesen werden sollen. Dahinter steckt der Wunsch, diese Gruppen gezielt aus dem Diskurs herauszutreiben.

Über Ziel hinausgeschossen

Das ist reaktionär, es ist antidemokratisch. Dagegen braucht es eine Verteidigung. Auch durch den Staat. Aber: Inzwischen ist der deutsche Strafverfolgungsapparat weit über dieses Ziel hinausgeschossen. Zunehmend geht es nicht erst bei Drohungen los, sondern schon bei viel harmloserem Spott. Wird ein Mensch in Deutschland „dämlich“ oder „Schwachkopf“ genannt, dann ist normalerweise klar, dass das keine Staatsanwaltschaft in Bewegung versetzt. Widerfährt das einem Politiker oder einer Politikerin, dann bilden sich gerade neue Maßstäbe heraus. Ein Bürger in Bayern bekam einen Strafbefehl, weil er die Grünen-Politikerin Annalena Baerbock als die „dümmste Außenpolitikerin der Welt“ bezeichnet hatte. Ein Fall für den neuen Strafparagrafen der „Politikerbeleidigung“.

Seit 2021 werden Beleidigung, üble Nachrede und Verleumdung gegen „Personen des politischen Lebens“ in einem einzigen Paragrafen zusammengefasst. Die Zahl der Ermittlungsverfahren, die der Staat auf dieser Grundlage eingeleitet hat, hat sich seither jährlich verdoppelt. 2021 waren es 748, im Jahr darauf schon 1.404. Im Jahr darauf dann 2.598. Und dann, zuletzt, 4.439 Fälle Fälle. Wohlgemerkt: Um Bedrohungen – oder andere Formen von Gewalt – geht es hier nicht.

Wie weit ist zu weit?

Der neue Wind weht scharf: Bis vor zehn Jahren war es noch undenkbar, dass die Polizei im Morgengrauen zu Razzien in Privatwohnungen anrückt, allein weil jemand das juristische Delikt der Beleidigung begangen haben soll, das in der Regel nur zu sehr geringen Strafen führt. Man hätte es für unverhältnismäßig gehalten. Eine Durchsuchung ist ein schwerer Grundrechtseingriff. Heute geschieht dies dagegen laufend, bei „Aktionstagen“ wird gleich an Dutzenden oder gar Hunderten Türen von Tatverdächtigen parallel geklingelt.

Man liest darüber sogar in der New York Times, in Artikeln, deren Autoren allerdings verwundert klingen über die Entwicklung der Meinungsfreiheit auf dem alten Kontinent. „Wie weit kann man gehen, bevor es zu weit geht?“, schrieben zwei Europa-Korrespondenten der Zeitung in einer langen Reportage im September 2022 über die neue Strenge, mit der Deutschland weiter gehe als „jede westliche Demokratie“. How far is too far?

Razzia wegen „Pimmel“

Hausdurchsuchungen erleben nun zunehmend auch Menschen, die im Netz ihre Meinung zu Ereignissen der internationalen Politik äußern. In den aufwühlenden Debatten zum Nahostkonflikt zum Beispiel war dies der Fall. Als ein Mann in München bei Instagram schrieb, dass das Massaker der palästinensischen Terrormiliz Hamas gegen israelische Zivilistinnen und Zivilisten am 7. Oktober 2023 natürlich entsetzlich sei, andererseits aber ein besetztes Volk das „legitime Recht auf Widerstand mit allen notwendigen Mitteln“ habe, genehmigte das Amtsgericht die Beschlagnahme seines Handys und anderer „internetfähiger Endgeräte“. Das kam unerwartet. Dass Menschen in Diskussionen solche kruden Aussagen einwerfen, die förmlich danach rufen, dass andere Menschen ihnen in der Diskussion widersprechen und mit Kontext oder Differenzierung antworten, ist nicht neu. Dass dies solche strafrechtlichen Interventionen nach sich zieht, ist durchaus neu.

In den Debatten zur innerdeutschen Politik ist dies ebenso zu beobachten. So hat etwa ein altgedienter Lokalpolitiker der Grünen in München erlebt, dass ihm verboten wurde, dem bayerischen Vizeministerpräsidenten Hubert Aiwanger von den Freien Wählern vorzuwerfen, dessen „Hetze“ gegen die Grünen ähnele in ihrer Sündenbock-Struktur der einstigen antisemitischen Agitation der Nazis. Der Grünen-Lokalpolitiker bekam dafür seinerseits ein Strafverfahren wegen Volksverhetzung, worüber er sehr staunte, und 2024 sogar schon Schuldsprüche in nicht nur einer, sondern zwei Gerichtsinstanzen; seine politische Karriere ist erledigt. Anderen zur Warnung.

Als Hamburgs Innensenator während der Corona-Pandemie eine strenge Ermahnung an seine Bürgerinnen und Bürger aussprach, keine Partys zu feiern, dann aber dabei erwischt wurde, wie er selbst eine – illegale – Party mit Dutzenden Gästen zelebrierte, kommentierte der Betreiber einer Punkkneipe aus dem Stadtteil St. Pauli im sozialen Netzwerk X, das damals noch Twitter hieß, diese Heuchelei lakonisch: „Du bist so 1 Pimmel.“ Kurz darauf tauchten vier uniformierte, bewaffnete Beamte vor der Wohnungstür des Gastronomen auf. Sie durchsuchten Räume, beschlagnahmten Geräte. Ein weiteres Verfahren wegen Politikerbeleidigung begann.

Gestern erlaubt, heute verboten

Damit hatte der Hamburger Gastronom nicht gerechnet. Damit hätte aber auch ich, ein ausgebildeter Jurist, der an der juristischen Fakultät der Universität Frankfurt unterrichtet, nicht gerechnet. Selbst wenn man sich sehr anstrengt, im Bilde zu sein, die teils sehr weite neue Interpretation des Strafrechts und von solchen sehr offenen Begriffen wie „Beleidigung“ im Blick zu behalten und politisch informiert zu bleiben, kann man bei diesem Tempo der Entwicklung immer häufiger auch überrascht werden.

Und das ist, meine ich, ein Problem. Damit hat sich in diesem Land etwas verändert. Nicht nur die USA haben ein Problem mit der Meinungsfreiheit, sondern, auf unsere Weise, auch wir. Darum soll es in diesem Buch gehen. Der deutsche Staat definiert heute etliche Aussagen als strafbar, die noch vor zehn Jahren ganz klar unter die Meinungsfreiheit fielen. Die Schwelle, von der an Polizei und Justiz hierzulande von strafbarer „Hetze“ ausgehen, ist an etlichen Stellen rapide abgesenkt worden, teils durch Änderungen der Gesetze, teils durch eine Änderung der Gesetzesinterpretation. Gestern noch erlaubt, heute verboten: Das ist ein juristischer Großtrend, den ich darstellen, analysieren und auf den ich auch eine kritische Antwort zu formulieren versuchen möchte.

UN-Sonderberichterstatter entsetzt

Im Frühjahr 2025, als J. D. Vance in München war, war ich, umgekehrt, in den USA. Ich habe in Kalifornien an Universitäten geforscht, die gerade große Not hatten, sich gegen die autoritären Übergriffe der Trump-Regierung zur Wehr zu setzen. Ich habe mit Rechtswissenschaftlern zusammengesessen, die gerade dabei waren, sich für Proteste gegen diese Trump-Politik zu vernetzen. David Kaye zum Beispiel, der ehemalige UN-Sonderberichterstatter für das Menschenrecht auf Meinungsfreiheit, der mir sein Lieblingscafé in Santa Monica zeigte, vegan und hundefreundlich. Aber so groß ihr Entsetzen über die Trump-Pläne war, so wenig hat das gleichzeitig ihre Sorge über das gemindert, was sie von der anderen Seite des Atlantiks her mitbekamen. „Diese Razzien“, sagte David Kaye.

Als in Kalifornien der Sommer begann, brachte die Sendung 60 Minutes des US-Senders CBS eine Reportage aus – Niedersachsen. Eine amerikanische Reporterin interviewte zwei deutsche Staatsanwälte und eine Staatsanwältin, die auf die Verfolgung von Hatespeech spezialisiert waren. Die Strafverfolger erzählten von den inzwischen üblichen Hausdurchsuchungen wegen Online-Postings und den teils verdutzten Reaktionen der Betroffenen, die oft sagen würden: Sie hätten gar nicht gewusst, dass ihre Äußerungen verboten seien. So erzählte es einer der Staatsanwälte und grinste.

Voraussetzung jeder Freiheit

In Santa Monica sprach mich David Kaye darauf an. Er fand das befremdlich. Staatsanwälte, die sich nichts dabei zu denken schienen, dass sie Menschen überraschten mit der Information, dass etwas neuerdings verboten sei? Was sei das für ein Verständnis von Rechtsstaat? Und er wies mich noch auf einen weiteren Aspekt hin, der ihm Sorgen bereite. „Pimmel“ sei in den USA noch das Mildeste, was man an Spott über den Präsidenten lesen könne. Es geschehe praktisch jeden Tag, dass jemand ihn als „Schwachkopf“ bezeichne, als „dümmsten Präsidenten aller Zeiten“ sowieso. Das ist nach amerikanischem Recht straffrei, zum Glück. Nicht auszudenken, was Donald Trump anstellen könnte, wenn sich die USA mit ihrem Strafrecht ein Beispiel an Deutschland nähmen.

Die Meinungsfreiheit wird in Demokratien traditionell als das wichtigste aller politischen Grundrechte verstanden, weil sie sozusagen die Voraussetzung aller weiteren Freiheiten schafft. Sie ist die Basis, auf der man politisch überhaupt in einen Streit eintreten kann, Forderungen stellen, sich Gehör verschaffen und so weiter. Die Bundesrepublik war noch jung, es war 1952, da schrieben die Richter des Bundesverfassungsgerichts (in diesem Fall waren es sieben Männer und eine Frau) in einem ihrer ersten Urteile, dass die Meinungsfreiheit für eine Demokratie „schlechthin konstituierend“ sei. Sprachlich schöner, auch ein wenig pathetischer: Die Freiheit, seine Meinung zu sagen, sei „die notwendige Voraussetzung beinahe jeder anderen Form der Freiheit“, so lauten die berühmten Worte des einstigen amerikanischen Supreme-Court-Richters Benjamin Cardozo. Und, ja: Es darf auch polemisch sein. Überspitzt. Oder emotional. Jedenfalls bis hin zu einer Grenze.

Was würde Trump damit tun?

Ich frage mich inzwischen, ob wir uns in Deutschland nicht ganz schön schnell gewöhnt haben an die Alltäglichkeit von Hausdurchsuchungen wegen „Politikerbeleidigung“, an die grassierende Verunsicherung, ob man denn noch von einer „dümmsten Außenministerin der Welt“ sprechen darf, an die Tatsache, dass schwierige zivilgesellschaftliche Debatten eingeengt werden – und ich frage mich auch, ob eine offene Gesellschaft ihre Strafjustiz nicht an etlichen Stellen dringend zurückpfeifen müsste, braucht man doch gerade in volatilen Zeiten eher mehr Debatte, nicht weniger. In der amerikanischen Cartoon-Serie „South Park“ taucht derweil der amerikanische Präsident Donald Trump als Sexpartner des Teufels auf, und es werden Zoten gerissen über das kleine Gemächt des Commanders in Chief.

Wenn die USA unter Trump solche Gesetze hätten wie Deutschland, dann würde dies J. D. Vance und Co. noch ganz andere Möglichkeiten bieten, ihre Kritiker einzuschüchtern. Dieses Szenario, in dem ein rechtsautoritärer Regierungschef mit einem fragilen Ego à la Trump oder Vance seine Kritiker wegen krimineller „Beleidigung“ verfolgen lassen könnte: Liberale Amerikaner wie David Kaye sind heilfroh, dass dies gerade nicht ansteht und dass wahrscheinlich auch der amerikanische Supreme Court verhindern würde, dass solche Instrumente diesen Rechtspopulisten in die Hände fielen. In Deutschland, wo die Anklagebehörden in diesem Punkt immer mehr Macht und gesetzlichen Spielraum bekommen haben, ist dieses Szenario vielleicht nur eine Landtagswahl entfernt.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Ältere BeiträgeHaupt-Feeds

Digital Services Act: Datenzugang ist kein Plattformprivileg, sondern ein Recht

20. Februar 2026 um 11:24

Die EU-Kommission hat X ein Bußgeld auferlegt, weil der Datenzugang, den die Plattform Forschenden zur Verfügung stellt, nicht DSA-konform ist. Die Urteilsbegründung ist bemerkenswert: Forschung wird darin nicht länger nur als Beobachterin von Plattformmacht verstanden, sondern als aktiver Bestandteil regulatorischer Kontrolle.

Ein Astronaut, der im flachen Wasser steht, dahinter ein hell erleuchtetes Tor.
Forschende brauchen Zugang, um forschen zu können. – Gemeinfrei-ähnlich freigegeben durch unsplash.com KNXRT

Im Dezember vergangenen Jahres hat die Europäische Kommission erstmals ein Verfahren nach dem Gesetz über digitale Dienste (DSA) abgeschlossen. Sie kam dabei unter anderem zu dem Ergebnis, dass das von X bereitgestellte System, über das Wissenschaftler:innen an Nutzungsdaten gelangen sollen, nicht DSA-konform ist. Die Kommission verhängte eine Strafe von 120 Millionen Euro; X hat bis Anfang März Zeit, seine Plattform anzupassen. Der DSA ist das zentrale EU-Gesetz zur Regulierung großer Online-Plattformen und soll unter anderem Transparenz schaffen, Risiken für die öffentliche Meinungsbildung begrenzen und Forschung zu diesen Risiken ermöglichen.

Inzwischen liegt die Begründung der Kommissionsentscheidung vor. Am 28. Januar veröffentlichte der von Republikanern geführte Justizausschuss des US-Repräsentantenhauses ein Dokument der Europäischen Kommission, das die Gründe für ihre Entscheidung gegen X im Dezember darlegt. Es zeigt, wie die EU den DSA konkret durchsetzen will – und welche Rolle Datenzugang und wissenschaftliche Evidenz dabei spielen.

Die politisch motivierte Veröffentlichung und Einordnung durch den Justizausschuss, der im DSA vor allem europäische Zensurabsichten sieht, sind zwar fragwürdig. Sie ändern aber nichts an der inhaltlichen Bedeutung der Begründung selbst. Ein zentraler Bestandteil der Begründung betrifft Versäumnisse beim Gewähren von Datenzugang für Forschende nach Artikel 40(12) DSA. Dieser Datenzugang soll es ermöglichen, systemische Risiken für die EU zu erforschen – etwa Desinformation oder süchtigmachende Plattform-Designs.

Dass Plattformen diesen Zugang bislang häufig nicht freiwillig gewährten, war einer der Gründe für die Einführung des DSA. Aus dem Urteil liest sich, dass X nur knapp fünf Prozent der Anfragen von Wissenschaftler:innen genehmigt hat. Es handelt sich hier also um ein strukturelles Problem.

Enge Auslegung und Verzögerungstaktiken sind unzulässig

Die EU-Kommission stellt unmissverständlich klar, dass Plattformen das gesetzlich verankerte Recht auf Datenzugang nicht in ein von ihnen kontrolliertes Privileg umdeuten dürfen. X hatte Anträge systematisch abgelehnt, wenn Forschende nicht zweifelsfrei nachweisen konnten, dass die beantragten Daten ausschließlich der Erforschung systemischer Risiken dienen. Diese enge Auslegung widerspricht laut Kommission dem Zweck des Gesetzes. Forschende müssen nicht beweisen, dass man aus „Mehl, Butter und Eiern nur einen einzigen Kuchen backen kann“.

Erstmals wird zudem konkretisiert, was als unzulässige Verzögerung gilt: Eine Bearbeitungszeit von mehr als zwei Monaten ordnet die Kommission ausdrücklich als „undue delay“ ein – also als unerlaubteVerzögerung. Damit erhalten Forschende erstmals eine belastbare rechtliche Orientierung. Auch der Versuch, Datenzugang an Kosten, institutionelle Zugehörigkeit oder einen EU-Standort zu knüpfen, weist die Europäische Kommission zurück.

Scraping ist zulässig – auch ohne Plattformgenehmigung

Eine weitere wegweisende Klarstellung betrifft das Scraping, also das automatisierte Auslesen öffentlich zugänglicher Inhalte. Diese Zugangsform ist zentral, um Plattformdaten auch ohne Mitwirkung der Anbieter zu erheben und von Plattformen bereitgestellte Daten überprüfen zu können.

Die Kommission stellt klar, dass Forschenden dieses Recht zusteht, sofern sie die Kriterien aus Artikel 40(12) und 40(8) DSA erfüllen: Forschung zu systemischen Risiken, kein kommerzielles Interesse, transparenter Umgang mit Finanzierung und nachweisbare Datenschutz- sowie Sicherheitsmaßnahmen.

Plattformen dürfen Scraping nicht pauschal über ihre Nutzungsbedingungen untersagen, und eine vorherige Genehmigung ist nicht erforderlich – gerade weil hier die Gefahr eines „undue delay“ besteht.

Evidenz aus der Forschung hat Beweiswert

Besonders bemerkenswert ist, wie die Kommission mit der Frage der Evidenz umgeht. Sie weist die Vorstellung zurück, der Beweiswert müsse an akademische Seniorität, große Stichproben oder klassische Peer-Review-Formate gebunden sein. Entscheidend seien stattdessen methodische Sorgfalt und faktische Relevanz für den konkreten Fall.

In diesem Zusammenhang verweist die Begründung mehrfach auf den vom DSA40 Data Access Collaboratory am Weizenbaum-Institut betriebenen Data Access Tracker. Obwohl die Daten aus der wissenschaftlichen Community gesammelt wurden und keine Zufallsstichprobe darstellen, attestiert die Kommission der Erhebung ausdrücklich Beweiswert im juristischen Sinne. Auch ein von X kritisierter Preprint – ein noch nicht begutachteter Forschungsartikel – wird als relevante Evidenz anerkannt, nicht zuletzt, weil er später peer-reviewed veröffentlicht wurde.

Methodisch nachvollziehbare Forschung wird hier selbst zur Grundlage regulatorischer Durchsetzung.

Relevanz nicht nur für X

Politisch ist die Begründung der Kommission damit weit mehr als eine Einzelfallentscheidung gegen X. Sie markiert einen Meilenstein in der Durchsetzung des Digital Services Act: Forschung wird nicht länger nur als Beobachterin von Plattformmacht verstanden, sondern als aktiver Bestandteil regulatorischer Kontrolle.

Indem die Kommission methodisch nachvollziehbare Forschung ausdrücklich als rechtlich relevante Evidenz anerkennt und Plattformen klare Grenzen bei Verzögerung, Kosten und Zugangsbeschränkungen setzt, verschiebt sich das Machtgefüge zugunsten von Öffentlichkeit und Wissenschaft. Ob diese Standards künftig konsequent durchgesetzt werden und möglichen Klagen der Plattformen standhalten, wird entscheidend dafür sein, ob der DSA sein zentrales Versprechen einlösen kann: Plattformregulierung nicht nur auf dem Papier, sondern auf Basis überprüfbarer Beweise.

Dass diese Prinzipien nicht nur abstrakt gelten, sondern praktisch durchsetzbar sind, zeigt der jüngste Erfolg von Democracy Reporting International gegen X. Gerichte bestätigen zunehmend, dass Forschende ihren Anspruch auf Datenzugang aktiv einklagen können – und damit eine zentrale Rolle bei der demokratischen Kontrolle von Plattformen einnehmen.

Dr. Jakob Ohme leitet die Forschungsgruppe „Digital News Dynamics“ am Weizenbaum-Institut und untersucht dort die Rolle des digitalen Journalismus im Spannungsfeld von Influencern und Künstlicher Intelligenz. Er ist zudem Co-Principal Investigator im #DSA40 Collaboratory und arbeitet dort an kooperativen Modellen für den Zugang zu Plattformdaten im Rahmen des Digital Services Act der EU. LK Seiling ist Plattformforscher in der Forschungsgruppe „Digital News Dynamics“ am Weizenbaum-Institut und koordiniert die Arbeit des #DSA40 Collaboratory als Experte für Forschungsdatenzugang.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Digitale Gewalt: Die Rhetorik der tausend Nadelstiche

18. Februar 2026 um 17:06

Beleidigungen sind wirkungsvoll, weil sie uns Menschen signalisieren, welchen Stellenwert wir in der Gesellschaft haben. Oftmals richten sie sich gegen Politikerinnen. Sie werden nicht als Individuum, sondern als Vertreterin ihres Geschlechts herabgestuft. Wie kommt es dazu? Und was können wir dagegen unternehmen?

Mehrere geöffnete Münder
Konstantes Beleidigen und Sticheln ist auf allen digitalen Plattformen möglich. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Nsey Benajah

In einem meiner Interviews mit einer jungen SPD-Abgeordneten zog diese während des Gesprächs ihr Handy hervor – und begann, an sie gerichtete Antworten auf der Plattform X vorzulesen:

  • „Wie viel Scheiße kann ein Mensch labern?“
  • „Frau XYZ und solche wie sie können nichts, leisten nichts und brauchen deshalb Steuergeld um sich wertvoll zu fühlen (…)“
  • „Was schreiben Sie hier für einen Unsinn?“
  • „Schluck deine Pillen und denk über eine Therapie nach.“
  • „Sagt die Lügnerin“
  • „Are you stupid?“ (Gepostet als Bild)

Dieses Bundestagsmitglied hat Migrationshintergrund. Sie erhält auch rassistische Antworten wie:

  • „Von wo kommst du?“
  • „Du nix Grammatik?“
  • „Wir schieben dich ab“

Die Abgeordnete sagte zu mir, „so extreme Sachen, extreme Gewaltfantasien“ habe sie bisher nicht erlebt, wie andere Politikerinnen, mit denen ich sprach.

Stellen Sie sich jedoch vor: Jedes Mal, wenn Sie eine App öffnen oder eine Ihrer Äußerungen eine größere Reichweite erzielt, müssen Sie damit rechnen, hasserfüllte Nachrichten zu bekommen. Manche abschätzigen Äußerungen entfalten ihre vollständige Wirkung vor allem indirekt und in der Menge. Nicht die einzelne Wortmeldung ist entscheidend – das größere Problem ist das Stakkato an Beleidigungen, mit dem manche Personen (und manche von mir befragte Abgeordnete) konfrontiert sind, wenn sie sich auf Social Media bewegen.

Einerseits kann es sein, dass Menschen in akuten Fällen von Shitstorms über ein paar Tage hinweg hunderte oder tausende solcher Botschaften abbekommen. Andererseits können sich solche Sticheleien über Wochen und Monate hinziehen.

Entscheidend ist vor allem die Masse

Buchcover "Feindbild Frau" von Ingrid Brodnig
„Feindbild Frau“ von Ingrid Brodnig, 208 Seiten, Brandstätter Verlag, 2026, ISBN 978-3-7106-0942-8. - Alle Rechte vorbehalten Brandstätter Verlag

Ich nenne das die Rhetorik der tausend Nadelstiche. Diese Art des konstanten Beleidigens und Stichelns gegen eine Person ist auf allen digitalen Plattformen möglich – auf X ist sie meines Erachtens besonders stark ausgeprägt.

Der Milliardär Elon Musk hat 2022 die Plattform Twitter gekauft und später zu X umbenannt. Er hat die Regeln gelockert und eine Generalamnestie für gesperrte Accounts ausgesprochen. Selbst extremistische User und Userinnen, die Hassrede verbreiten, durften auf die Plattform zurückkehren. Dass der Umgangston brutaler wurde, ist nicht einfach nur ein Bauchgefühl. Eine Gruppe von Forschenden aus Kalifornien berechnete, dass nach der Übernahme Twitters durch Elon Musk sowohl homophobe, rassistische als auch transfeindliche Posts zunahmen. Das Problem ist, dass sich besonders aggressive Communitys auf einzelne Accounts einschießen oder sehr aktiv werden können, wenn ein Tweet populär wird, der ihnen nicht recht ist.

Ich selbst bin nicht mehr auf X aktiv, weil ich diese Plattform nicht weiter unterstützen will. Mir ist es ab und zu passiert, dass einzelne Tweets größere Reichweite erzielten; ich bekam zuerst den Zuspruch von Gleichdenkenden und dann tagelang stichelnde, teils auch menschenfeindliche Kommentare. Zum Beispiel habe ich das Wahlkampf-Video eines FPÖ-Politikers kritisiert, in dem dieser eine Regenbogenfahne in den Müllkorb warf. Im Bild war der Slogan „Aufräumen für Österreich“ zu lesen. Über Tage hinweg erhielt ich beleidigende Äußerungen über queere Menschen. „Keine Macht den Perversen …“, schrieb ein anonymer Account. Jemand anders postete eine Zeichnung, auf der sich jemand den braunen Hintern nach dem Stuhlgang mit einer Regenbogenfahne abwischt. Viele Rückmeldungen auf X fallen in die Kategorie „jenseitig“: Ein Bild suggeriert zum Beispiel, Satan würde die Regenbogenfahne nähen.

Entscheidend ist hier vor allem die Masse: Wenn Sie auf Ihrem Account täglich mit solchem Unsinn und solchen menschenfeindlichen Reaktionen überschwemmt werden, ist das kein angenehmes Erlebnis. Man sieht irgendwann die konstruktiven Antworten gar nicht mehr, weil sie untergehen in der Vielzahl hämischer und unsachlicher Kommentare.

Das Ziel ist Verdrängung

Zurück zu der SPD-Abgeordneten, die ihr Handy gezückt hatte. Sie erzählt: „Bei mir hatte das zur Folge, dass ich mich bei X zum Beispiel zurückgezogen habe und nur noch ganz, ganz selten etwas poste.“ Ich fragte sie, wie es ihr damit geht, dass sie die Plattform meidet. Ihre Antwort: „Es erschwert meine Arbeit. Ich sage das immer wieder: Diese Debattenräume ermöglichen uns Politikerinnen natürlich auch, Debatten zu führen. Und wenn wir uns daraus zurückziehen, dann erschwert es mir die Arbeit, weil ich diesen Raum nicht mehr nutzen kann, um auch mein politisches Bild oder meine Meinung darin debattieren zu können. Gleichzeitig entziehe ich mich natürlich auch Diskursen von anderen. Das ist natürlich nicht gut, aber ich habe mich in erster Linie aus Selbstschutz dazu entschlossen.“

Beleidigungen sind wirkungsvoll – weil sie uns Menschen signalisieren, welchen Stellenwert wir in der Gesellschaft haben. Natürlich kann man manche Unfreundlichkeiten weglächeln oder rationalisieren. Sich selbst erinnern, dass gehässige Postings keine ernstzunehmenden Debattenbeiträge sind. Doch es gibt eine Grenze, wie gut dieses Weglächeln und Rationalisieren funktioniert. Die Philosophin Sybille Krämer schreibt: „Wir sind in unserer Existenz von Sprache abhängig, weil (…) wir darauf angewiesen sind, angeredet, angesprochen, angerufen zu werden. Zum Menschen werden wir nicht dadurch, dass wir Sprache haben oder gebrauchen, vielmehr ist die Sprache der ‚Stoff‘ aus dem der Mensch als ein soziales Wesen ‚gemacht‘ ist.“

Digitale Gewalt birgt die Gefahr, manche Gruppen ganz besonders aus der öffentlichen Debatte zu verdrängen. Man nennt das einen Chilling-Effekt, wenn das Erleben oder Beobachten von Beleidigungen bewirkt, dass sich jemand aus der öffentlichen Debatte zurückzieht. Und ich könnte jetzt viele Untersuchungen zitieren, die Chilling-Effekte bei Frauen beobachteten. Besonders aufschlussreich erscheint mir eine Auswertung aus Norwegen: Die Soziologin Marjan Nadim und der Politologe Audun Fladmoe beobachteten, „dass Frauen im Vergleich zu Männern eine stärkere Tendenz dazu haben, nach Online-Belästigung vorsichtiger darin zu werden, ihre Meinung öffentlich zu äußern“. Und mit steigender Intensität, also wenn Kommentare nicht nur „unangenehm“, sondern „hasserfüllt“ waren, vergrößerte sich der Abstand zwischen den Geschlechtern. Hatten sie „hasserfüllte“ Kommentare erhalten, gaben 42 Prozent der Frauen an, künftig vorsichtiger beim Formulieren ihrer Meinung zu sein – dies sagten nur 16 Prozent der Männer.

„Es braucht gestandene Frauen und keine ‚Weibchen‘.“

Die CDU-Politikerin und damalige Vizepräsidentin des deutschen Bundestages Yvonne Magwas war immens viel negativen Reaktionen ausgesetzt, nachdem sie den AfD-Politiker Stephan Brandner angezeigt hatte. Er hatte sie „bemerkenswert dumm“ genannt. Auf ein hämisches Posting hierzu folgten zum Beispiel 500 Replys. Magwas wurde „saudumm“ genannt. Der Politikerin wurde „MI Mi MI“ vorgeworfen, also zu große Wehleidigkeit. Rasch fallen auch Geschlechterklischees. Ein anonymer Account schreibt: „Jeder weiß, dass es in der Politik auch mal rauer im Ton zugeht. Statt einer Anzeige sollten Frauen vielleicht mal lernen, damit umzugehen und sich Verbal zu wehren. Es braucht gestandene Frauen und keine ‚Weibchen‘. Wo ist eure Emanzipation, nach der ihr immer schreit!? 🙄“. Ein Detail dazu: Ich finde es grundsätzlich immer bemerkenswert, wenn anonyme Accounts Menschen, die mit ihrem Namen und ihrem Gesicht in der Öffentlichkeit stehen, ausrichten, sie müssten fähig sein, mehr auszuhalten.

Ich könnte hier sehr deutliche sexistische Beleidigungen zitieren, die im Rahmen dieses Austauschs gepostet wurden, die teils unter die Gürtellinie gingen oder pauschal Frauen in der Politik verteufelten. Aber nehmen wir ein Beispiel eines Postings heran, das Frauen auf der Bildebene negativ abstempelt:

Eine Grafik, die Gesichter verschiedener bekannter Frauen zeigt.

Ich zeige diesen Beitrag ausnahmsweise her, um die beleidigende Bildsprache in den Fokus zu rücken: Diese Collage besteht in einigen Fällen aus unvorteilhaften Fotos, die bekannte Politikerinnen zeigen – sie haben etwa den Mund geöffnet während einer Rede, sie grinsen, lachen oder schauen irritiert. Das ist eine sehr simple Methode, jemanden negativ auf der Bildebene vorzuführen. Für sich genommen sind die einzelnen Bilder noch eher unspektakulär, aber speziell in Kombination wecken sie einen negativen Eindruck. Ergänzend dazu vertritt der Text die Sichtweise: Frauen wären schlecht für die Politik (konkret, sie würden diese hässlicher und korrupter machen). Meines Erachtens disqualifiziert sich dieses Posting von selbst durch die Ausdrucksweise – sowohl in Wort als auch im Bild. Allerdings entspricht es einem wiederkehrenden Typ der Beleidigung: Ich nenne es eine Pars-pro-Toto- Beleidigung. Es wird eine oder mehrere Politikerinnen zitiert oder vorgeführt, die jemand nicht mag, um anhand dessen die Gesamtheit der Frauen in der Politik negativ zu bewerten.

In vielen Fällen werden Politikerinnen also nicht als Individuum, sondern als Vertreterin ihres Geschlechts herabgestuft. Ähnliche Abwertungslogiken passieren auch Minderheiten: zum Beispiel einzelnen Menschen mit Migrationshintergrund, deren angebliches Fehlverhalten oder Inkompetenz dann als Beleg für das angebliche Fehlverhalten oder die Inkompetenz der gesamten Gruppe gewertet wird. Die hier zitierte Collage ist nur eines von vielen Beispielen, wie auf der Bildebene Häme ausgeteilt wird.

Nur weiter so, Daumen hoch!

Aber treten wir einen Schritt zurück: Bei der Rhetorik der tausend Nadelstiche gibt es ein tiefergehendes Problem: Sie ist von einer starken Asymmetrie geprägt. Während es für die Betroffenen sehr unangenehm ist, hunderte, vielleicht tausende solcher Sticheleien abzubekommen, ist dieser Vorgang für die Personen, die sich an diesen Sticheleien beteiligen, oft witzig. Da lobt man sich gegenseitig noch dafür. Zum Beispiel schreibt ein User, dass er auch den Eindruck habe, die CDU-Politikerin Magwas wäre dumm. Für diese schlichte Aussage erhält er 159 Likes. In solchen Momenten lernen Menschen potenziell: Nur weiter so, Daumen hoch!

Es ist ein wiederkehrendes Problem, dass abschätzige Wortmeldungen oft mit Likes belohnt werden. In einer Studie, die Facebook-Kommentare in den USA auswertete, beobachteten der Kommunikationswissenschaftler Jin Woo Kim und Kollegen: Mit steigender Toxizität (also steigender Unfreundlichkeit) stieg auch die Anzahl der Likes im Schnitt. Dieser Effekt kippt irgendwann, wenn die Sprache allzu gehässig wird. Aber eine gröbere Art des Ausdrucks scheint sich zu rentieren, wenn man Likes ernten will.

Dass Lerneffekte eintreten können, dafür gibt es Hinweise. Ich orientiere mich hier an Forschung zum Thema Lerneffekte auf Social Media. Konkret hat sich eine Gruppe von Psycholog:innen mit moralischer Empörung befasst – darunter versteht man, wenn Menschen etwas als Verstoß gegen ihre Wertvorstellungen wahrnehmen und mit Wut, Ekel, Abscheu reagieren. Die Untersuchung fand heraus, dass es zu Lerneffekten kommt, wenn Menschen moralisch empört posten. Als moralische Empörung wurden zum Beispiel Postings auf Twitter gewertet, die Sätze enthielten wie „du bist ein wertloses Stück Scheiße“ oder „halt deine Lügenfresse“.

Wenn User:innen eine Wortmeldung mit moralischer Entrüstung verfassten und daraufhin überdurchschnittlich viele Likes und Shares bekamen, dann stieg die Wahrscheinlichkeit, dass sie am Folgetag erneut empört posteten. Die Forschenden nennen das „bestärkendes Lernen“ oder „Reinforcement Learning“. Ein zweiter Lerneffekt kam hinzu: Wer sich neu auf einer Plattform anmeldet, erhält durch das Mitlesen der Postings einen Eindruck vom dort üblichen Umgangston. Hier fiel auf: Wenn sich Menschen in ideologisch extremeren Netzwerken befanden, also vielen Profilen am Rande des politischen Spektrums folgten, posteten sie auch eher selbst moralisch entrüstet. Diesen Effekt nennt man „Norm Learning“, Normenlernen. Diese Effekte „könnten moderatere Nutzerinnen und Nutzer motivieren, mit der Zeit weniger moderat zu sein“, notieren die Studienautorinnen und -autoren. Also die Sorge besteht, dass sich hier auch die Auffassung von Menschen, was sie als angemessene Ausdrucksweise empfinden, mit der Zeit verschieben könnte.

Wir alle können ein Korrektiv sein

Eine wichtige Beobachtung: Wir alle können ein Korrektiv sein. Wir haben natürlich nicht so viel Macht wie beispielsweise Milliardär Elon Musk mit seiner Plattform X. Auch können wir als Einzelne oder Einzelner nicht beeinflussen, dass es Communitys gibt, die in einer Tour solche Kampagnen gegen einzelne Personen oder auch Organisationen führen. Aber sinnvoll ist zu verstehen, dass die Wiederholung wirkmächtig ist, dass jede Wortmeldung einen Beitrag leistet: Denn es bedeutet, dass wir alle eine Möglichkeit des Gegensteuerns haben, indem wir selbst das Wort ergreifen.

Ich sprach mit der Psychologischen Psychotherapeutin Dorothee Scholz, ihre fachliche Spezialisierung liegt auf digitaler Gewalt. Sie sagte etwas, das gut die Wirkmacht der wiederkehrenden Abwertungen erklärt: „Es gibt eine Daumenregel in der Psychologie: In das eigene Gefühl kommt das, was man erlebt – nicht das, was man weiß.“ Das heißt, von Hasskommentaren und Diffamierungsversuchen Betroffene wissen auf einer rein rationalen Ebene, dass die Personen hinter solchen Botschaften eine Minderheit sind. Aber: „Den ganzen Tag nur Hasskommentare zu erleben, macht etwas mit der eigenen Weltwahrnehmung. Die Intensität dieser Erfahrung führt nachvollziehbarerweise zu einem ‚Verrutschen‘ der Sichtweise auf andere Menschen und damit auch zu einem starken Gefühl der Isolation.“

Ein Stück weit hilfreich gegen dieses „Verrutschen“ der Sichtweise kann es sein, Betroffenen immer wieder Wertschätzung zu kommunizieren: indem wir unsere Wertschätzung ausdrücken oder benennen, wie unfair ein Angriff ist. Dazu muss man nicht exakt dieselben Ansichten wie die betroffene Person haben – aber wenn man feststellt, dass sie über Gebühr fertiggemacht wird, ist es sinnvoll, etwas zu sagen.

Diese zivilgesellschaftliche Beharrlichkeit, immer wieder Solidarität mit Betroffenen zu zeigen, ist eine notwendige Antwort auf die Rhetorik der tausend Nadelstiche. Natürlich wird keine Person es schaffen, auf jede Wutkampagne im Internet zu reagieren, aber ab und zu kann man solche Signale senden. Und selbst wenn man nicht auf Social Media ist, ist es möglich, eine E-Mail zu schreiben. Ich persönlich glaube, in manchen Fällen kann dies einen Beitrag leisten, dass eine Situation nicht kippt und der Blick auf die Welt einer Person nicht zu sehr eintrübt.

Betroffene sollen sehen: Es gibt da draußen so viele andere Stimmen – und die meisten Menschen wollen mir Gutes.

Dieser Textauszug ist ein redigierter Auszug aus „Feindbild Frau. Wie Politikerinnen im Netz bedroht, beleidigt und verdrängt werden – und was wir alle dagegen tun können“ von Ingrid Brodnig. Das Buch erscheint am 25. Februar 2026 im Brandstätter Verlag.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Digitalisierungsstrategie: Wie „Künstliche Intelligenz“ unser Gesundheitswesen verändern soll – und welche Fragen das aufwirft

16. Februar 2026 um 14:19

Das Bundesgesundheitsministerium hat in der vergangenen Woche ein Update zur Digitalisierungsstrategie des Gesundheitswesens vorgelegt. Die sogenannte Künstliche Intelligenz spielt darin eine zentrale Rolle. Umso wichtiger ist es, dass wir jetzt die richtigen Fragen stellen.

Eine Ärztin weist auf eine Röntgenaufnahme, die einen Schädel zeigt. Ein älterer Mensch hört ihr zu,
Hört ihr bereits eine „KI“ zu? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Vitaly Gariev

Die Versprechungen, die mit „Künstlicher Intelligenz“ („KI“) und mit Digitalisierung einhergehen, sind gewaltig. Das ist auch im „Update der Digitalisierungsstrategie für das Gesundheitswesen und die Pflege“ nicht anders, die Bundesgesundheitsministerin Nina Warken (CDU) am 11. Februar vorstellte. Ein „gesünderes und längeres Leben für alle“ soll die Digitalisierung ermöglichen, sie soll die medizinische Versorgung und Pflege „besser und effizienter“ machen, heißt es darin zum Beispiel.

Die Strategie hatte der damalige Minister Karl Lauterbach ursprünglich im Jahr 2023 vorgelegt. Der Aufbau des Europäischen Gesundheitsdatenraums (EHDS), neue Erwartungen im Bereich der „Künstlichen Intelligenz“ sowie der Plan eines neuen Systems für die Erstversorgung machten das nun vorgelegte Update notwendig.

Die wichtigsten Elemente: Die ePA soll zur zentralen Anwendung für Gesundheitsthemen ausgebaut werden, Digitalisierung der Schlüssel zu einem erfolgreichen Primärärzt*innensystem sein und „KI“ soll „sicher, flächendeckend und wirksam“ eingesetzt werden.

Digitalisierung und „KI“ werden das Gesundheitswesen fraglos verändern. Doch es ist wichtig, jetzt die richtigen Fragen zu stellen.

Wie weit hilft „KI“ dem Gesundheitswesen?

Während Digitalisierung und „KI“ durchaus das Potenzial haben, Prozesse im Gesundheitswesen zu vereinfachen und die Versorgung zu verbessern, kommt es auf eine gewissenhafte Abwägung bei der Umsetzung an.

Dabei dürfen wir vor allem nicht vernachlässigen, wie weitreichend die Auswirkungen auf Menschen in Gesundheitsberufen, auf Patient*innen und auf das Verhältnis zwischen ihnen sein können. Dazu braucht es mehr strategische Auseinandersetzung und Debatten.

Den großen Hoffnungen, mit denen der Einsatz von „KI“ derzeit verbunden ist, müssen wir realistisch begegnen. Weder wird „KI“ alle strukturellen Probleme im Gesundheitswesen wie Personalmangel oder Kostenexplosion lösen können. Noch sind die großen Versprechungen medizinischer Spitzenleistungen und Effizienzgewinne bisher eingetreten – oder auch nur auf absehbare Zeit erwartbar.

Die technische Architektur der KI-Systeme gründet auf massenhaften Daten plus Stochastik, also der mathematischen „Kunst des Vermutens“. Das begrenzt diese Systeme dauerhaft. Es gibt keine Garantie dafür, dass Aussagen der „KI“ wahr und richtig sind.

Anders als bei einem Algorithmus, der nach festen Regeln funktioniert und bei gleichen Bedingungen wiederholbare Ergebnisse liefert, ist diese Wiederholbarkeit bei „KI“ gerade nicht gewährleistet. Auch ist es nicht nachvollziehbar, was genau den jeweiligen Antworten zugrunde liegt.

Welche Zwecke soll und kann Dokumentation erfüllen?

„KI“-gestützte Dokumentation soll in wenigen Jahren bei mehr als 70 Prozent der Einrichtungen der Standard sein, heißt es in der Strategie.

Sicherlich: Dokumentation ist oft lästig, aber sie kann auch dabei helfen, ein gemeinsames Verständnis zwischen Patient*in und Ärzt*in herzustellen, Angaben zu überprüfen oder eine wichtige abschließende Reflexion über einen Fall darstellen.

Was bewirkt Automatisierung mit „KI“?

Doch selbst wenn eine Entlastung durch Automatisierung in diesem Fall naheliegt: Schafft sie am Ende tatsächlich mehr qualitativ hochwertige Zeit für die Behandlung von Patient*innen? Oder wird sie am Ende die Arbeit von Menschen in Gesundheitsberufen noch weiter verdichten?

Das ist gerade angesichts des demografischen Wandels erwartbar. Er wird in den nächsten Jahren dazu führen, dass viele ältere Patient*innen größere Behandlungsbedarfe in die Praxen und Krankenhäuser bringen, während zugleich viele Menschen in Gesundheitsberufen in Rente gehen. Weniger Ärzt*innen müssen also künftig mehr Patient*innen behandeln – wenn nicht gegengesteuert wird.

Dabei entscheidet eine gute Beziehung zwischen Ärzt*innen und Patient*innen über den Heilungsverlauf mit, auch bei körperlichen Erkrankungen. Doch dafür braucht es vor allem eines: Zeit.

So umfassend will Warken die Gesundheitsdaten aller Versicherten verknüpfen

Wie wichtig ist uns digitale Souveränität?

Bei der Automatisierung der Dokumentation strebt die Ministerin ein hohes Tempo an. Mit Blick auf die bisher auf dem Markt dominierenden Anbieter könnte das dazu führen, dass schon bald OpenAI, Google Gemini und Co. regelmäßig ebenfalls im Sprechzimmer anwesend sind. Die Abhängigkeit von den US-amerikanischen Tech-Konzernen wächst bei verstärktem Einsatz dieser Dienste also weiter an.

Große Anbieter von Praxisverwaltungssystemen werben bereits mit „KI“-Tools zur Dokumentation und Automatisierung. Schaut man genauer in deren Datenschutzbestimmungen, bestätigt sich diese Vermutung.

Doctolib setzt Anthropic und Google Gemini als „KI“ ein und hostet bei Amazon Web Services. Konkurrent Jameda begrüßt die neue Strategie als „wichtiges Signal für die Branche“ und verweist auf das eigene Dokumentationstool Noa Notes, das ebenfalls auf Amazon Web Services sowie Microsoft Azure setzt und auch OpenAI in seiner Datenschutzerklärung stehen hat.

VIA Health verspricht als „erster virtueller Assistent speziell für die Psychotherapie“ besten Datenschutz. Gleichzeitig weist das Unternehmen in seiner Datenschutzerklärung darauf hin, zur „Transkribierung der Audiospur sowie […] Erstellung der Sitzungsprotokolle“ verschiedene Drittanbieter von „Large Language Models (LLMs)“ einzusetzen.

Das alles spiegelt die gegenwärtige Realität weiter Teile unserer digitalen Infrastruktur wider. Zugleich passt es nicht zusammen mit politischen Forderungen nach mehr digitaler Souveränität, die auch von der Bundesregierung selbst regelmäßig vorgetragen werden.

Wie verändern Sprachmodelle die Beziehung zwischen Ärzt*innen und Patient*innen?

Auch zu „KI“-gestützten Systemen der medizinischen Ersteinschätzung müssen wir uns Gedanken machen. Künftig sollen Symptome in ein Computersystem eingegeben werden, danach erfolgt eine technische Einschätzung.

Dieses Verfahren soll Teil des Erstversorgungssystems werden und so den Zugang ins Gesundheitswesen (mit)regeln. Noch ist nicht klar, ob regelbasierte Algorithmen oder „KI“ die technische Grundlage dafür bilden werden.

Es kann grundsätzlich sinnvoll sein, vor dem Besuch einer Praxis die Symptome in ein technisches System einzugeben und sich gegebenenfalls aufgrund einer besseren Steuerung Wartezeit zu ersparen.

Eines genaueren Blicks bedürfen allerdings Themen, die sensibler und oft schambesetzt sind. Einfühlsam und ohne Vorurteile über Sexualität zu reden, fällt Menschen oft schwer. Viele Patient*innen sprechen das Symptom einer Geschlechtskrankheit daher erst am Ende einer Sprechstunde an. Oder eine psychische Belastungssituation wird erst im Laufe eines Gesprächs deutlich.

Öffnen wir mit digitalen Angeboten also tatsächlich neue Wege für Patient*innen? Oder verlieren wir etwas, wenn wir auf standardisierte digitale Ersteinschätzungen setzen? Und wie können geschützte Räume entstehen für sensible Themen wie Sexualität, Geschlechtskrankheiten, Substanzkonsum oder psychische Störungen, wenn das vertrauliche Gespräch mit einer behandelnden Person von einem „KI“-Tool mitgeschnitten wird?

Wie gut sind Sprachmodelle als Gesundheitsassistenzen wirklich?

„KI“ soll zur ständigen Begleiterin für Patient*innen werden und perspektivisch „individualisierte Gesundheitsempfehlungen“ geben, heißt es in der Strategie. Das Bundesgesundheitsministerium möchte so die Eigenverantwortung der Versicherten stärken.

Dabei hat gerade erst eine in der wissenschaftlichen Zeitschrift „Nature“ veröffentlichte Studie gezeigt, dass „KI“-Systeme faktisch daran scheitern, richtige Ergebnisse hervorzubringen, sobald man sich von theoretischem Lehrbuchwissen verabschiedet und reale Patient*innen auf sie loslässt.

Hinzu kommt: Bei Sprachmodellen, der Grundlage von KI-Systemen, werden die Eingaben nicht über Standardfragen geleitet. Sondern das Verfahren hängt stark von den Eingaben der User*innen ab – und damit die Ausgaben der Systeme.

Weil aber die Anzahl möglicher Nutzer*inneneingaben unbegrenzt ist, lässt sich damit auch nicht verlässlich für alle Anwendungsfälle überprüfen, wie gut ChatGPT und Co. im Einzelfall reagieren. Die Erwartung an Verlässlichkeit von Software-Programmen, die sich aus Zeiten regelbasierter Programmierung speist, ist bei auf Stochastik gründenden Ansätzen nicht haltbar – denn da sind immer Wahrscheinlichkeiten oder sogar der Zufall im Spiel.

Zwar gibt es mittlerweile Beispiele, in denen Menschen sagen: „KI“ hat mir dabei geholfen, dass es mir gesundheitlich wieder besser geht. Gerade bei seltenen Erkrankungen, denen Ärzt*innen in ihrem Berufsalltag nur überaus selten begegnen, wird den Sprachmodellen ein solches Potenzial zugesprochen.

Gleichzeitig gibt es jedoch groteske Beispiele, in denen ChatGPT bei der Bewertung von Daten eines Gesundheitstrackers die Note „ungenügend“ – also kurz vor Herzinfarkt – „erraten“ hat, während zwei Ärzte keine Anhaltspunkte für eine Erkrankung finden konnten.

Menschen handeln als Menschen und sind damit – auch in der Interaktion mit Maschinen und bei der Interpretation „maschineller“ Antworten – oft unberechenbar.

Das wiederum kann weitreichende Auswirkungen für Interaktionen zwischen Mensch und Mensch im Behandlungszimmer haben. Fragen Ärzt*innen in der Sprechstunde künftig mit ab, ob Patient*innen bereits vorab mit „KI“ recherchiert haben? Wie gehen Versicherte damit um, wenn sich Empfehlungen von „KI“-Systemen von denen realer Mediziner*innen unterscheiden? Oder wenn die von der „KI“ vorgeschlagenen Behandlungen nicht von den Kassen gedeckt werden?

Wie bleibt das Gesundheitswesen menschlich?

Wenn sie gut gemacht sind, bieten Technologien die Chance, Medizin besser zu machen. Dafür müssen wir uns allerdings die richtigen Fragen stellen – jenseits von Heilsversprechen und Technikgläubigkeit sowie im Wissen um den hochkomplexen Faktor Mensch.

Der Mensch ist dabei kein „nerviges Beiwerk“. Am Ende sollen es ja wir alle sein, die von den neuen Technologien profitieren – und nicht nur die Tech-Milliardäre, die sie mit den größten Versprechungen bewerben.

Manuel Hofmann ist Referent für Digitalisierung der Deutschen Aidshilfe. Offenlegung: Der Autor hat im vergangenen Jahr auf Einladung der Gematik am Fachforum Technologien und Anwendungen“ für die Weiterentwicklung der Digitalisierungsstrategie „Gemeinsam Digital“ teilgenommen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Internet shutdowns in Africa: A human rights and democratic crisis

15. Februar 2026 um 06:23

Internet shutdowns have become a growing threat to Africa’s democracy. They are an increasingly common part of the authoritarian toolkit used by governments to control information and suppress dissent. Here’s why you should care.

A stern-looking woman wearing a red headscarf and sunglasses, with soldiers in the background
Tanzanian President Samia Suluhu Hassan attends her inauguration ceremony in Dodoma, Tanzania, Nov. 3, 2025. – Alle Rechte vorbehalten IMAGO / Xinhua

A German version of the article can be found here: „Internet-Shutdowns in Afrika: Eine Krise für Menschenrechte und Demokratie


As Tanzanians went to the polls in October 2025, the country entered an information blackout. Connectivity began slowing on the eve of the election. By the morning of October 29, all regions reported a full data disruption.

Opposition parties were among the first to raise the alarm. ‘It became impossible to coordinate polling agents or even report irregularities,’ says Asha*, a youth organizer with an opposition party. She explains that with WhatsApp and SMS restricted, their party’s observers could not share photos, results, or evidence of intimidation in real time.

In the East African country, a total of 37 million people were called upon to vote for a new parliament and president. In the run-up to the elections, Samia Suluhu Hassan, the incumbent president and first woman to hold the office, had tightened her grip on the public sphere. Critical journalists and opposition politicians had been kidnapped. The two most promising opposition parties were excluded from the election.

The communications shutdown seemed to confirm fears about the integrity of the most important democratic processes. An election observer described witnessing the ticking of ballot papers and the adding of numbers during the shutdown. ‘The blackout was the final confirmation that this election would not be transparent, and I was among many who were kicked out by the police during counting,’ says Faustine*, an observer during the election.

Days later, protesters in Mwanza and Arusha attempted to demonstrate, but the lack of communication tools made mass mobilization nearly impossible. Any demonstrations that did emerge despite the blackout were brutally suppressed. Tanzania’s sudden disconnection, occurring during the most sensitive democratic moment, illustrates how shutdowns immobilize opposition networks while giving governments near-total narrative control.

High costs to economies and democracies

In 2016, the United Nations Human Rights Council adopted a resolution confirming the importance of internet access for human rights. Internet shutdowns, it says, undermine the expression, assembly, and informational rights of citizens.

Only days after the election in Tanzania, the African Commission on Human and Peoples‘ Rights voiced concern about the digital blackout. The commission issued a press release, reminding everyone that ‘internet shutdowns undoubtedly constitute a violation of Article 9 of the African Charter on Human and Peoples’ Rights, which guarantees individuals the right to receive information, as well as the right to express and disseminate information.’

Tanzania’s blackout, however, is not an isolated case but part of a regional pattern: governments cutting connectivity during moments of political vulnerability. Across the continent, these disruptions occur at predictable moments: elections, anti-government protests, military coups, ethnic conflict, or when investigative journalism threatens state legitimacy. Governments often justify shutdowns using the language of security, stability, and ‚fake news‘, but the purpose is to control information and suppress dissent.

Access Now’s #KeepItOn coalition reported that African states, including Tanzania, accounted for some of the highest global disruptions in recent years. Their latest report shows that 2024 saw the highest number of shutdowns ever recorded in a single year for the region, with 21 documented internet access shutdowns in 15 African countries. Just a few weeks ago, at the same time as the communications blackout in Iran, people in Uganda also had to endure another internet shutdown during elections.

In all cases, the people most affected – activists, journalists, humanitarian responders, opposition politicians, and young voters – are those at the heart of democratic participation. The outcomes extend beyond digital access challenges, including economic paralysis, humanitarian isolation, and the erosion of fundamental rights. The work of journalists becomes impossible, businesses that use online platforms or mobile money to operate lose significant revenue, and hospitals and humanitarian workers lose contact with the outside world during critical moments.

According to the organization NetBlocks Cost of Shutdown Tool (COST), internet shutdowns cost the Tanzanian economy more than US $238 million in 2025. In total, it is estimated that internet shutdowns cost sub-Saharan economies US $1.11 billion that year. But ultimately, the cost to democracy is even greater.

Ethiopia: More than 100 million people offline during civil war

In recent years, one of the worst offenders for intentional internet disruptions in Africa was Ethiopia, with over ten documented shutdowns since 2019. Between 2020 and 2022, Ethiopia’s regions of Tigray and Oromia were plunged into physical and digital isolation. Government-imposed shutdowns during the civil war not only silenced dissent but cut off humanitarian efforts.

The UN reported that over 100 million people were affected during a three-week internet shutdown in July 2020. As reports by the #KeepItOn coalition highlight, each blackout coincided with escalations in violence, a pattern that suggests the intent was not ‘security,’ but strategic invisibility.

The Committee to Protect Journalists (CPJ) was among the organizations to condemn the detention of journalists and the internet blackout. In a country where digital banking, education, and emergency response increasingly rely on connectivity, these shutdowns paralyzed people’s lives.

Sudan: Shutdowns in support of a military coup

Another example is Sudan, where internet shutdowns have marked a history of military rule. From 2019 to 2023, the government repeatedly cut access to the internet to limit the mobilization of protests and responses to coups. For instance, the army detained civilian leadership in October 2021 and cut internet access across the country.

The Sudanese people were left without any way to communicate with people inside or outside the country for almost a month. Protest organizers relied on offline networks and direct contact to pass information across neighborhoods to organize protests. Videos of military violence and mass arrests were delayed for weeks, allowing the army to act with impunity.

Human Rights Watch and other rights organizations labelled these disruptions as intentional hindrances to justice. The cutoff did more than thwart information; it stifled the civic space altogether. According to Human Rights Watch, the presence of military forces at hospitals has undermined or prevented access to medical care for those in need, and „medical professionals said the lack of internet access has only made it more difficult for them to organize ways to provide care.“ The work of emergency responders was also affected by the inability to receive money transfers via mobile banking applications.

A tool for authoritarian forces

While Ethiopia and Sudan differ politically and culturally, their shutdown patterns are similar. Both governments used connectivity restrictions not only as temporary security tools but also as long-term strategies to manage information and public situations.

Beyond the immediate disruption of communication, shutdowns also affect the options of opposition parties and civil society groups. In many African countries, opposition relies mostly on messaging apps, low-cost livestreaming, and citizen-led election monitoring networks.

When these channels go dark, opposition parties cannot coordinate polling agents, collect evidence, or deploy rapid response teams. Civil society watchdogs cannot verify electoral tallies, giving ruling parties space to manipulate results. Furthermore, especially women and youth activists, who organize primarily online, lose their mobilizing power. Grassroots organizers face physical danger, as they must revert to door-to-door communication.

In Tanzania, polling agents and observers reported that the blackout and police harassment created deep psychological fatigue. ‘We felt powerless throughout the process,’ says election observer Faustine*. ‘It wasn’t just technical, it silenced many things that happened in polling stations that are undemocratic.’

How civil society pushes back

Civil society organizations in Africa and elsewhere have made it clear that internet shutdowns are a growing human rights issue and are organizing resistance. For example, the Nigerian Paradigm Initiative as well as Uganda-based CIPESA challenge service suspensions in court. They educate citizens about civil disobedience, digital rights, and how to utilize technology.

Dozens of NGOs have signed onto the African Declaration of Internet Rights and Freedoms, which calls for unrestricted internet access across the region. Unfortunately, this declaration has been ignored by governments. Along with controls, the absence of transparency is a problem. Reports and data are often compiled by global initiatives, such as Access Now’s #KeepItOn coalition.

Civil society’s influence, while often indirect, has increasingly translated into legal and political consequences for governments that impose shutdowns. According to Felicia Anthonio, #KeepItOn Global Campaign Manager at Access Now, sustained advocacy has pushed internet shutdowns onto the global human rights agenda, with regional and international bodies now recognizing them as violations of fundamental rights.

Courts such as the ECOWAS Court have ruled against shutdowns in countries including Togo, Nigeria, Senegal and Guinea, sending what Anthonio describes as a clear message that shutdowns are illegal and those responsible can be held accountable.

Beyond litigation, civil society pressure has also led to public commitments by authorities to keep the internet on during elections in countries like Ghana, Kenya and the Democratic Republic of the Congo, as well as reversals or early terminations of shutdowns in places such as Zambia, South Sudan and Mauritius. While governments still hold the power to disconnect, civil society continues to shape legal norms, public opinion and accountability mechanisms aimed at ending shutdowns altogether.

What the Global North can do

Shutdowns are a ‘local issue’ in the context of authoritarian states; however, the regional and continent-wide normalization of shutdowns can lead to an export of authoritarian behaviors. Each shutdown legitimizes and emboldens further authoritarianism in neighboring countries, so that they are increasingly seen in networks of purportedly democratic states.

Stopping shutdowns requires pressure beyond the continent. Western governments and tech companies often condemn disruptions, but their responses often remain symbolic. There are ways, however, in which countries in the Global North could have a more profound positive influence.

First and foremost, they could stop exporting surveillance and censorship tools that allow shutdowns to be implemented. Furthermore, they could tie development funding to digital rights protections, ensuring governments that receive aid cannot also sabotage communication networks without consequences. Support for local civil society groups is also important, for example through funding digital security training or legal assistance for court challenges.

As Sophia Nabalayo, a Kenyan PR & Communications Specialist, tells netzpolitik.org: ‘African activists can fight shutdowns on the ground, but global actors often control the infrastructure and financing that make shutdowns possible. We need solidarity, not just statements.’

* Names have been changed for safety reasons and are known to the editorial team.


About the author: Derrick Wachaya is a climate communicator and freelance journalist based in Nairobi.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Internet-Shutdowns in Afrika: Eine Krise für Menschenrechte und Demokratie

15. Februar 2026 um 06:23

Internetsperren sind ein zunehmend verbreitetes Werkzeug autoritärer Regierungen, um Informationen zu kontrollieren und abweichende Meinungen zu unterdrücken. Damit sind sie zu einer wachsenden Bedrohung für die Demokratie in Afrika geworden. Das sollte auch den Globalen Norden interessieren.

Eine streng blickende Frau mit rotem Kopftuch und Sonnenbrille, im Hintergrund Soldaten
Die tansanische Präsidentin Samia Suluhu Hassan nimmt am 3. November 2025 an ihrer Amtseinführungszeremonie in Dodoma, Tansania, teil. – Alle Rechte vorbehalten IMAGO / Xinhua

Die englischsprachige Version des Artikels ist hier zu finden: „Internet shutdowns in Africa: A human rights and democratic crisis


Als die Menschen in Tansania im Oktober 2025 an die Wahlurnen gingen, wurde ihr Land von einem Informations-Blackout erfasst. Bereits am Vorabend der Wahlen kam es zu Einschränkungen der Internetverbindung, am Morgen des 29. Oktober meldeten dann alle Regionen einen vollständigen Ausfall der Datenverbindungen.

Oppositionsparteien gehörten zu den ersten, die Alarm schlugen. „Es war unmöglich geworden, Wahlbeobachter:innen zu koordinieren oder Unregelmäßigkeiten zu melden“, sagt Asha*, eine junge Aktivistin einer Oppositionspartei. Sie erklärt, dass die Beobachter:innen ihrer Partei aufgrund der Einschränkungen bei WhatsApp und SMS Fotos, Ergebnisse oder Beweise für Einschüchterungen nicht zeitnah weitergeben konnten.

Insgesamt waren in dem ostafrikanischen Land 37 Millionen Menschen dazu aufgerufen, ein neues Parlament und ein neues Staatsoberhaupt zu wählen. Im Vorfeld der Wahlen hatte Samia Suluhu Hassan, die amtierende Präsidentin und erste Frau in diesem Amt, ihren Griff um den Hals der Öffentlichkeit verstärkt. Kritische Journalisten und Oppositionspolitiker wurden entführt, die beiden aussichtsreichsten Oppositionsparteien von den Wahlen ausgeschlossen.

Der Shutdown schien alle Sorgen um die Integrität der demokratischen Prozesse zu bestätigen. Eine Wahlbeobachterin berichtet, dass sie während der Abschaltung miterlebt habe, wie beim Auszählen der Stimmzettel Zahlen addiert wurden. „Die Abschaltung war die endgültige Bestätigung dafür, dass wir es hier nicht mit transparenten Wahlen zu tun haben würden“, so Faustine*. „Ich gehörte zu den vielen, die während der Auszählung von der Polizei hinausgeworfen wurden.“

In den folgenden Tagen versuchten Aktivist:innen in Orten wie Mwanza und Arusha Menschen für Proteste zu mobilisieren, doch aufgrund fehlender Kommunikationsmittel war eine Massenmobilisierung nahezu unmöglich. Alle Demonstrationen, die trotz der Unterbrechung stattfanden, wurden brutal unterdrückt. Tansanias plötzliche Internetsperre veranschaulicht, wie Shutdowns zum sensibelsten Zeitpunkt demokratischer Prozesse Opposition verhindern und Regierungen nahezu vollständige Kontrolle über die Informationsverbreitung verschaffen können.

Hohe Kosten für Volkswirtschaften und Demokratien

Im Jahr 2016 verabschiedete der Menschenrechtsrat der Vereinten Nationen eine Resolution, die die Bedeutung des Internetzugangs für die Menschenrechte betont. Demnach untergraben Internet-Shutdowns die Meinungs-, Versammlungs- und Informationsrechte der Menschen.

Nur wenige Tage nach der Wahl in Tansania äußerte die Afrikanische Kommission der Menschenrechte und der Rechte der Völker sich besorgt über den digitalen Blackout. In einer Pressemitteilung erinnerte die Kommission daran, dass „Internet-Sperren zweifellos einen Verstoß gegen Artikel 9 der Afrikanischen Charta der Menschenrechte und Rechte der Völker darstellen, der Einzelpersonen das Recht auf Informationsempfang sowie das Recht auf freie Meinungsäußerung und Verbreitung von Informationen garantiert“.

Doch Tansanias Internet-Shutdown ist kein Einzelfall, sondern Teil eines größeren regionalen Musters: Immer wieder schalten afrikanische Regierungen in Zeiten politischer Instabilität die Internetversorgung ab. Auf dem gesamten Kontinent treten diese Störungen zu vorhersehbaren Zeitpunkten auf: bei Wahlen, regierungskritischen Protesten, Militärputschen, ethnischen Konflikten oder wenn journalistische Recherchen die staatliche Autorität gefährden. Regierungen rechtfertigen Sperrungen oft mit Argumenten wie Sicherheit, Stabilität und „Fake News“, doch ihr eigentliches Ziel ist es, Informationen zu kontrollieren und abweichende Meinungen zu unterdrücken.

Jährliche Berichte der von Access Now koordinierten #KeepItOn-Koalition zeigen, dass afrikanische Staaten weltweit zu den Ländern mit den meisten Shutdowns gehörten. Der neueste #KeepItOn-Report belegt, dass 2024 das Jahr mit den meisten Internet-Abschaltungen in der Region war, mit 21 dokumentierten Abschaltungen in 15 afrikanischen Ländern. Erst vor wenigen Wochen, parallel zum Kommunikations-Shutdown im Iran, mussten auch die Menschen in Uganda während der Wahlen eine Internetsperre erdulden.

In allen Fällen sind diejenigen Personen am stärksten betroffen, die im Zentrum der demokratischen Teilhabe stehen: Aktivist:innen, Journalist:innen, humanitäre Helfer:innen, Oppositionelle und junge Wähler:innen. Die Folgen gehen über Zugangsprobleme zur digitalen Welt hinaus und führen zu wirtschaftlicher Lähmung, humanitärer Isolation und zur Aushöhlung grundlegender Rechte. Die Arbeit von Journalist:innen wird unmöglich, Unternehmen, die Online-Plattformen oder mobiles Geld für ihren Betrieb nutzen, erleiden große Verluste; Krankenhäuser und humanitäre Helfer:innen verlieren in kritischen Momenten den Kontakt zur Außenwelt.

Laut dem Cost of Shutdown Tool (COST) der Organisation NetBlocks kosteten Internetabschaltungen allein die tansanische Wirtschaft im Jahr 2025 mehr als 238 Millionen US-Dollar. Insgesamt werden die Kosten von Internetabschaltungen für die Volkswirtschaften südlich der Sahara in diesem Jahr auf 1,11 Milliarden US-Dollar geschätzt. Noch schwerer wiegen jedoch die Kosten für die Demokratie.

Äthiopien: Mehr als 100 Millionen Menschen offline im Bürgerkrieg

In den vergangenen Jahren war Äthiopien mit über zehn dokumentierten Abschaltungen seit 2019 einer der größten Übeltäter für vorsätzliche Internet-Shutdowns in Afrika. Zwischen 2020 und 2022 wurden insbesondere die Regionen Tigray und Oromia in physische und digitale Isolation gestürzt. Während des Bürgerkriegs verhängte die Regierungen mehrere Abschaltungen, die nicht nur Dissidenten zum Schweigen brachten, sondern auch humanitäre Hilfe erschwerten.

Die Vereinten Nationen berichteten, dass von einem dreiwöchigen Shutdown im Juli 2020 mehr als 100 Millionen Menschen betroffen waren. Wie Berichte der #KeepItOn-Koalition hervorheben, fiel jede Abschaltung mit einer Eskalation der Gewalt zusammen. Ein Muster, das darauf hindeutet, dass das Ziel nicht „Sicherheit”, sondern strategische Unsichtbarkeit war.

Das Committee to Protect Journalists (CPJ) gehört zu den Organisationen, die die Inhaftierung von Journalisten und die gezielte Internetabschaltung verurteilten. In einem Land, in dem digitales Banking, Bildung und Katastrophenhilfe zunehmend auf Konnektivität angewiesen sind, lähmten diese Abschaltungen das Leben der Menschen.

Sudan: Shutdowns als Unterstützung für einen Militärputsch

Ein weiteres Beispiel ist der Sudan, wo Internet-Shutdowns die Geschichte der Militärherrschaft geprägt haben. Von 2019 bis 2023 hat die Regierung wiederholt den Zugang zum Internet gesperrt, um die Mobilisierung von Protesten und Reaktionen auf einen Staatsstreich einzuschränken. So zum Beispiel im Oktober 2021, als die Armee die zivile Führung festgenommen und den Internetzugang im gesamten Sudan abgeschaltet hat.

Die sudanesische Bevölkerung konnte fast einen Monat lang nicht mit Menschen innerhalb oder außerhalb des Sudan kommunizieren. Die Organisator:innen von Protesten waren auf Offline-Netzwerke und direkten Kontakt angewiesen, um Informationen in den Stadtvierteln weiterzugeben und Demonstrationen zu organisieren. Videos von militärischer Gewalt und Massenverhaftungen wurden wochenlang nicht hochgeladen, sodass die Armee ungestraft handeln konnte.

Human Rights Watch und andere Menschenrechtsorganisationen bezeichneten diese Störungen als vorsätzliche Behinderung der Justiz. Die Sperrung behinderte nicht nur den Informationsfluss, sondern unterdrückte den gesamten zivilgesellschaftlichen Handlungsspielraum. Laut Human Rights Watch hat die Präsenz von Militärkräften in Krankenhäusern den Zugang zu medizinischer Versorgung für Bedürftige beeinträchtigt oder verhindert, und „Mediziner sagten, dass der fehlende Internetzugang es ihnen noch schwerer gemacht habe, die Versorgung zu organisieren“. Auch die Arbeit von humanitären Helfer:innen wurde dadurch beeinträchtigt, dass sie keine Geldüberweisungen über Mobile-Banking-Apps empfangen konnten.

Ein Werkzeug für autoritäre Kräfte

Äthiopien und Sudan unterscheiden sich zwar politisch und kulturell, doch die zu beobachtende Vorgehensweise bei der Abschaltung von Kommunikationsdiensten ist ähnlich. Beide Regierungen nutzten Einschränkungen der Konnektivität nicht nur als vorübergehende Sicherheitsmaßnahmen, sondern auch als langfristige Strategien, um die öffentliche Debatte und die Verbreitung von Informationen zu kontrollieren.

Darüber hinaus schränken die Abschaltungen auch die Möglichkeiten von Oppositionsparteien und zivilgesellschaftlichen Gruppen ein. In vielen afrikanischen Ländern stützt sich die Opposition hauptsächlich auf Messaging-Apps, kostengünstige Livestreams und von Bürger:innenn geführte Wahlbeobachtungsnetzwerke.

Wenn diese Kanäle nicht mehr funktionieren, können Oppositionsparteien keine Wahlbeobachter:innen koordinieren, keine Beweise sammeln und keine Krisenteams entsenden. Auch zivilgesellschaftliche Kontrollinstanzen können die Wahlergebnisse nicht überprüfen, was den Regierungsparteien Spielraum für Manipulationen lässt. Darüber hinaus verlieren insbesondere Frauen und junge Aktivist:innen, die sich hauptsächlich online organisieren, ihre Mobilisierungsmacht. Organisator:innen an der Basis sind zusätzlich physischen Gefahren ausgesetzt, weil sie auf die Kommunikation von Tür zu Tür zurückgreifen müssen.

In Tansania berichteten Wahlbeobachter:innen, dass die Sperrung und die Schikanen durch die Polizei zu einer tiefen psychischen Erschöpfung geführt hätten. „Wir fühlten uns während des gesamten Prozesses machtlos“, erzählt uns Faustine*. „Es war nicht nur ein technisches Hindernis, sondern führte dazu, dass viele undemokratische Vorgänge in den Wahllokalen verschleiert wurden.“

Wie die Zivilgesellschaft Widerstand leistet

Zivilgesellschaftliche Organisationen in Afrika und anderen Teilen der Welt haben deutlich gemacht, dass Internet-Sperren ein wachsendes Menschenrechtsproblem darstellen, und organisieren Widerstand dagegen. So fechten beispielsweise die nigerianische Paradigm Initiative und die in Uganda ansässige CIPESA die Sperrung von Diensten vor Gericht an. Sie klären die Bürger über zivilen Ungehorsam, digitale Rechte und den Umgang mit Technologie auf.

Dutzende von NGOs haben die Afrikanische Erklärung der Internetrechte und -freiheiten unterzeichnet, die einen uneingeschränkten Internetzugang für die Region fordert. Leider haben die Regierungen diese Erklärung ignoriert. Neben Kontrolle ist auch die mangelnde Transparenz ein Problem. Berichte und Daten werden oft von globalen Initiativen wie der #KeepItOn-Koalition von Access Now zusammengestellt.

Der Einfluss der Zivilgesellschaft ist zwar oft indirekt, hat jedoch zunehmend rechtliche und politische Konsequenzen für Regierungen, die Abschaltungen verhängen. Laut Felicia Anthonio, #KeepItOn Global Campaign Manager bei Access Now, hat anhaltende Lobbyarbeit dazu geführt, dass Internet-Shutdowns überhaupt auf der globalen Menschenrechtsagenda stehen und dass regionale und internationale Gremien sie nun als Verletzung von Grundrechten anerkennen.

Gerichte wie der Gerichtshof der Westafrikanischen Wirtschaftsgemeinschaft ECOWAS haben gegen Abschaltungen in Ländern wie Togo, Nigeria, Senegal und Guinea entschieden und damit, so Anthonio, eine klare Botschaft gesendet, dass Internet-Shutdowns illegal sind und die Verantwortlichen zur Rechenschaft gezogen werden können.

Über Rechtsstreitigkeiten hinaus habe der Druck der Zivilgesellschaft auch dazu geführt, dass Regierungsbehörden in Ländern wie Ghana, Kenia und der Demokratischen Republik Kongo sich öffentlich dazu verpflichtet haben, das Internet während Wahlen aufrechtzuerhalten. Zudem seien Internet-Sperren in Ländern wie Sambia, Südsudan und Mauritius rückgängig gemacht oder vorzeitig beendet worden, erzählt die Aktivistin. Zwar hätten Regierungen nach wie vor die Macht, das Internet abzuschalten. Doch die Zivilgesellschaft arbeite stetig daran, Rechtsnormen, die öffentliche Meinung und Rechenschaftspflichten dahingehend zu anzupassen, damit Internet-Sperren der Vergangenheit angehören.

Was der Globale Norden tun kann

Internet-Shutdowns sind zwar ein „lokales Problem“ im Kontext autoritärer Staaten, doch eine regionale und afrikaweite Normalisierung kann auch zu einem Export autoritärer Methoden führen. Jede Internetsperre legitimiert und stärkt autoritäre Bestrebungen in Nachbarländern, sodass sie inzwischen auch in vermeintlich demokratischen Staaten zu beobachten sind.

Um Shutdowns zu unterbinden, bedarf es deshalb auch Druck von außerhalb des Kontinents. Westliche Regierungen und Technologieunternehmen verurteilen solche Störungen zwar oft, doch ihre Reaktionen bleiben meist symbolisch. Es gibt jedoch Ideen, wie Länder des Globalen Nordens einen tiefergehenden positiven Einfluss ausüben könnten.

Allen voran könnten sie den Export von Überwachungs- und Zensurwerkzeugen einstellen, die Shutdowns ermöglichen. Darüber hinaus könnten sie Gelder der Entwicklungshilfe an den Schutz digitaler Rechte knüpfen und so sicherstellen, dass Regierungen, die Unterstützung erhalten, nicht gleichzeitig Kommunikationsnetzwerke sabotieren können, ohne dass dies Konsequenzen hat. Auch die Unterstützung lokaler zivilgesellschaftlicher Gruppen ist wichtig, beispielsweise durch die Finanzierung von Schulungen zur digitalen Sicherheit oder durch Rechtsbeistand bei Gerichtsverfahren.

Wie Sophia Nabalayo, eine kenianische PR- und Kommunikationsspezialistin, gegenüber netzpolitik.org erklärt: „Afrikanische Aktivist:innen können vor Ort gegen Abschaltungen kämpfen, aber globale Akteure kontrollieren oft die Infrastruktur und die Finanzmittel, die Abschaltungen erst möglich machen. Wir brauchen Solidarität, nicht nur Erklärungen.“

* Die Namen wurden aus Sicherheitsgründen geändert und sind der Redaktion bekannt.


Über den Autor: Derrick Wachaya ist Kommunikationsexperte für Klimaschutz und freiberuflicher Journalist in Nairobi.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Argentinien: Per Dekret in die dunkle Vergangenheit

06. Januar 2026 um 13:21

Der argentinische Präsident Javier Milei baut die Demokratie ab und die Online-Überwachung aus. Jetzt hat die Regierung per Dekret buchstäblich über Nacht den Geheimdienst in eine Super-Überwachungsbehörde umgewandelt. Journalist*innen und Aktivist*innen sind alarmiert.

Demonstrierende in Buenos Aires, in einem Spiegel spiegeln sich Polizist*innen
Immer wieder kommt es in Argentinien bei Demonstrationen zu willkürlichen Verhaftungen und Repressionen. – Alle Rechte vorbehalten IMAGO / ZUMA Press Wire

Die Feierstimmung über das neue Jahr hielt in Argentinien gerade einmal einen Tag an. Am 2. Januar wurde bekannt, dass die Regierung Milei zwei Tage zuvor in den letzten Minuten des alten Jahres das Notstandsdekret 941/2025 erlassen hatte. Das Dekret erweitert die Befugnisse des argentinischen Geheimdienst SIDE (Secretaría de Inteligencia del Estado) deutlich.

Demnach können ab sofort alle Aktivitäten des SIDE „verdeckt“ erfolgen. Agent*innen können zudem Verhaftungen ohne Haftbefehl vornehmen, zur Unterstützung kann der SIDE die Armee für Inlandseinsätze anfordern und Personenregister-Behörden müssen Daten an den Geheimdienst herausgeben.

Das Vorgehen weckt Erinnerungen an die argentinische Militärdiktatur. Argentinien hatte sich jahrelang vorbildlich darum bemüht, die Diktatur aufzuarbeiten, Milei dreht das Rad nun wieder zurück. „Dieses Dekret führt zur bisher gravierendsten Veränderung, da den Geheimdiensten seit der zivil-militärischen Diktatur keine derartigen Befugnisse eingeräumt wurden“, zeigt sich Beatriz Busaniche von der Stiftung Vía Libre besorgt.

Auch die Organisation La Coordinadora Contra la Represión Policial e Institucional (CORREPI) erinnert die Maßnahme „an die schlimmsten Praktiken der dunkelsten Periode unserer Geschichte, der zivil-militärischen Diktatur von 1976-1983“, wie sie auf Instagram schreibt.

Inlandsspionage gegen Regierungskritiker*innen

SIDE verteidigt die Notwendigkeit der Reform auf X mit Verweis auf „die aktuellen globalen Herausforderungen und die neue Rolle, die die Argentinische Republik unter der Führung von Präsident Javier G. Milei auf der Weltbühne einnimmt“. Laut der Stellungnahme des Geheimdienstes, die auch die Tageszeitung Pagina 12 veröffentlichte, streben SIDE und Mileis Regierung „ein modernes, professionelles und effizientes nationales Nachrichtendienstsystem [an], das den höchsten demokratischen und republikanischen Standards entspricht.“

Diesem Ziel seien laut Regierung auch jene Teile der Reform verpflichtet, die den Umbau weiterer Behörden vorsehen. Die Regierung brüstet sich, damit der staatlichen Verfolgung von Journalist*innen und Bürger*innen ein Ende zu setzen.

Die Bürgerrechtsorganisation Centro de Estudios Legales y Sociales (CELS) kritisiert, dass es genau anders herum sei: Durch den Wechsel des Schwerpunkts des SIDE vom Schutz der nationalen Sicherheit auf Spionageabwehr insbesondere im Inland erlaube die Reform die Verfolgung von Aktivist*innen, Journalist*innen, Indigenen und anderen Regierungskritiker*innen überhaupt erst.

Diese Schlussfolgerung zieht auch Via Libre. Zudem erschwere der komplexer werdende Zuschnitt der Behörden und Sekretariate eine Kontrolle des Geheimdienstes, beklagt Busaniche.

Wie Javier Milei die Zivilgesellschaft systematisch schwächt

Die Reform steht für die wachsende Repression und Überwachung durch die argentinische Regierung seit dem Amtsantritt Mileis im Dezember 2023.

Der rechts-libertäre Politiker trat als Außenseiter zu Wahl an und kam nur durch die Unterstützung rechter Parteien an die Macht. Seither hat seine Regierung die Zivilgesellschaft in Argentinien systematisch geschwächt.

So schränkte die Regierung gleich zu Beginn das Recht auf öffentlichen Straßenprotest stark ein („Ley Antipiquetes“, zu Deutsch: Kundgebungsverbot). Es folgten Gesetze, die vordergründig den Drogenhandel bremsen sollen, dabei jedoch auch Aktivisti treffen („Ley Antimafia“) sowie eine Reform der Online-Überwachung („Ley Ciberpatrullaje“). Außerdem erhielt die Polizei eine neue „KI-Einheit“, die Unidad de Inteligencia Artificial Aplicada a la Seguridad, UIAAS.

Zivilgesellschaft ist unvorbereitet

Die Zivilgesellschaft Argentiniens ist insbesondere auf die zunehmende Online-Überwachung nicht ausreichend vorbereitet. Weil es keine Netzneutralität gibt, sind die Meta-Plattformen WhatsApp und Instagram weit verbreitet, Signal ist hingegen kaum bekannt, Mastodon schon gar nicht.

Zwar gibt es Nichtregierungsorganisationen, die Aufklärung zu digitalen Themen betreiben. Doch NGOs wie Via Libre, Asociación por los Derechos Civiles (ADC) oder Observatorio de Derecho Informático Argentino (ODIA) sind zu klein, um hier wirklich Einfluss geltend machen zu können.

Andere Organisationen wie CELS und Amnesty International Argentina sind zwar größer, haben jedoch alle Hände voll damit zu tun, die fortwährenden Attacken aus der Casa Rosada, dem Regierungssitz in Buenos Aires, gegen die Bevölkerung abzuwehren, Klagen einzureichen und Gerichtsprozesse zu führen. Dabei können sie durchaus Erfolge vorweisen. So erzielten CELS und andere Organisationen im vergangenen Jahr einen juristischen Sieg, als ein Bundesverwaltungsgericht das Kundgebungsverbot nach zwei Jahren für verfassungswidrig erklärte.

Gesichtserkennung wird ausgeweitet

Zivilgesellschaftliche Klagen führten im Jahr 2023 auch zu einem Verbot von Gesichtserkennung im öffentlichen Raum (Sistema de Reconocimiento Facial de Prófugos, SRFP). Allerdings gilt dieses Verbot nur für die damalige Anwendung in der argentinischen Hauptstadt Buenos Aires. In anderen Städten kommt die Gesichtserkennung weitgehend ungehindert zum Einsatz.

Auf der Karte „Surveillance under Surveillance“ vom Chaos Computer Club Hamburg sind die Orte von Kamera-Überwachung weltweit kartografiert, auch argentinische Städte sind darunter. Wie viele Kameras es genau in Argentinien gibt und welche davon Gesichtserkennung einsetzen, ist unbekannt. Verschiedene Organisationen kommen dabei zu unterschiedlichen Einschätzungen.

Und laut der „SurveillanceWatch“ operieren in Argentinien aktuell 25 internationale Unternehmen der Überwachungs-Industrie. Unter ihnen sind Unternehmen wie Cellebrite, Clearview AI und Hikvision, deren Anwendungen in anderen Ländern für massive Kritik sorgen. In Buenos Aires wird die Gesichtserkennung im öffentlichen Raum wahrscheinlich schon bald wieder angewandt, die dortige Staatsanwaltschaft hat im vergangenen Jahr Clearview-Lizenzen eingekauft.

Tausende Opfer durch Polizeigewalt

Die zunehmende Überwachung ist für die meisten Menschen in Argentinien nicht das größte Problem. Sie sind vielmehr damit beschäftigt, gegen die alltägliche Polizeigewalt sowie die Kürzungen im Gesundheits- und Bildungswesen zu kämpfen. Und auch die hohe Arbeitslosigkeit und steigenden Lebenshaltungskosten lassen die staatliche Überwachung und Repression in den Hintergrund rücken. „Sie verhaften uns sowieso, wenn sie wollen“, lautet der Tenor der politisch Aktiven.

Tatsächlich kommt es bei Demonstrationen regelmäßig zu willkürlichen Verhaftungen. Die Personen werden zwar meist schnell wieder freigelassen, harmlos ist der Kontakt zur argentinischen Polizei aber keineswegs.

Immer wieder erschießen Polizist*innen Menschen. Im Sommer 2025 töteten Beamt*innen in Buenos Aires ein siebenjähriges Kind; zuletzt kamen in den Tagen nach Weihnachten zwei Personen ums Leben. CORREPI zählt seit Ende 2023 mehr als 1.000 Tote und 1.500 Verletzte – inklusive Pressevertreter*innen – als Opfer staatlicher Gewalt.

Für 2024 hat CORREPI errechnet, dass die Stadtpolizei von Buenos Aires wegen ihrer Schusswaffeneinsätze zu den tödlichsten in ganz Argentinien zählt. Eine Polizeieinheit, mit der übrigens die Bayerische Landespolizei kooperiert, ohne das verwerflich zu finden.

Opposition will Dekret abwehren

Durch die Reform der Regierung Milei wird die Überwachung, die Repression und die Gewalt im Land weiter zunehmen. Die neue KI-Einheit UIAAS untersteht zwar dem Sicherheitsministerium und die Gesichtserkennung steht auf der Agenda der Staatsanwaltschaft der Hauptstadt. Doch es muss davon ausgegangen werden, dass es auch Verknüpfungen zur SIDE geben wird.

Manuel Tufró, Direktor für Justiz und Sicherheit bei CELS, ist wenig optimistisch, dass Parlament, Justiz und Zivilgesellschaft Transparenz herstellen können: „Es wird äußerst schwierig sein, die eingesetzten Werkzeuge der Gesichtserkennung, Spyware, KI und Techniken wie der Cyber-Patrouille zu ermitteln“, sagt Tufró, „da der Erlass festgelegt hat, dass alle Aktivitäten im Zusammenhang mit der SIDE ‚verdeckt‘ erfolgen müssen.“

Die parlamentarische Opposition will das jüngste Dekret zur Geheimdienst-Reform im Kongress abwehren. Wann und ob ihr das gelingt, ist allerdings offen. Nach der Zwischenwahl im Oktober ist sie geschwächt. Zugleich verfügt aber auch Milei über keine eigene Mehrheit im Kongress. Außerdem ist Sommerpause in Argentinien, der Kongress tagt erst wieder im März.

Am vergangenen Montag haben daher einige Abgeordnete eine gerichtliche Intervention beantragt. Sie fordern, dass das Dekret früher für verfassungswidrig erklärt wird, und ersuchen eine einstweilige Verfügung zu seiner sofortigen Aussetzung.

Internationale Aufmerksamkeit könnte diesem Widerstand guttun, damit dieses Dekret nicht wie das Kundgebungsverbot zwei Jahre in Kraft bleibt, bevor es dann gerichtlich annulliert wird.

Nina Galla ist Pressesprecherin für AlgorithmWatch in Berlin. In ihrer Freizeit beschäftigt sie sich mit den Auswirkungen von KI in der Schule und schreibt seit 2025 über die digital-politische Entwicklung in Argentinien.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Umfrage zu Rechenzentren: Die Mehrheit folgt dem Hype nicht

01. November 2025 um 08:40

Die Bundesregierung will Deutschland zur „KI-Nation“ machen, die EU verfolgt eine „AI-First“-Mentalität. Eine Umfrage in mehreren europäischen Ländern zeigt nun, dass die Mehrheit der Befragten diesen Hype nicht mitträgt. Ihr bereitet vor allem der wachsende Strom- und Wasserverbrauch Sorge. Und sie wünscht sich eine strengere Regulierung.

Schornsteine vor bewölktem Himmel aus denen Rauchwolken quillen
Fossile Energien erfahren eine Renaissance – dank ressourcenhungriger KI. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Janusz Walczak

Ich öffne mein Bahn-Ticket. “Dieses Dokument scheint lang zu sein. Spare Zeit und lies eine Zusammenfassung”, empfiehlt mir prompt mein PDF-Reader. Ein Paradebeispiel dafür, wie immer mehr Anwendungen den Nutzer*innen KI-Tools aufdrängen, in den meisten Fällen, ohne dass sich ein Nutzen daraus ergibt.

Weltweit versuchen Regierungen und große IT-Firmen, sich im KI-Wettbewerb zu überbieten. Dabei benötigen die zugrunde liegenden Systeme immer mehr Rechenleistung, für die irgendwo Computer laufen müssen, die Strom und Wasser verbrauchen. Doch während das Thema Rechenzentren längst in der politischen Debatte und bei Fachleuten angekommen ist, wusste man bislang kaum etwas darüber, wie die Bevölkerung diese Entwicklung einschätzt.

Porträtfoto von Julian Bothe
Julian Bothe, Senior Policy Manager bei der gemeinnützigen NGO AlgorithmWatch - Alle Rechte vorbehalten AlgorithmWatch

Aus diesem Grund hat AlgorithmWatch in mehreren europäischen Ländern eine repräsentative Umfrage zu Rechenzentren und ihren Auswirkungen durchführen lassen. Gemeinsam mit internationalen Partnerorganisationen wie der spanischen Initiative Tu Nube Seca mi Rio, Friends of the Earth Ireland und der europäischen Klimaschutzallianz Beyond Fossil Fuels wurden Menschen in Deutschland, der Schweiz, Spanien, Irland und dem Vereinigen Königreich befragt.

Wunsch nach mehr Transparenz und mehr Regulierung

Die Ergebnisse sind überraschend deutlich: In allen beteiligten Ländern spricht sich jeweils eine große Mehrheit der Befragten für eine stärkere Regulierung und mehr Transparenz von Rechenzentren aus. In einigen Ländern ist die Zustimmung dabei besonders hoch, so zum Beispiel in Spanien und Irland. Dort ist der Wasser- beziehungsweise Stromverbrauch der KI- und Cloud-Fabriken schon länger Gegenstand öffentlicher Diskussionen und Proteste. Denn sowohl im grünen Irland als auch im trockenen Spanien wirken sich die Rechenzentren bereits spürbar auf Energiepreise und Wasserverfügbarkeit aus. In Spanien befürchten knapp 90 Prozent der Befragten, dass der Wasserverbrauch der Einrichtungen ihre eigene Versorgung beeinträchtigen könnten.

Auch beim Blick auf die Gesamtergebnisse sprechen die Zahlen eine eindeutige Sprache: Drei Viertel der Befragten aller Länder sorgen sich, dass der Wasserverbrauch die umliegenden Ökosysteme beeinträchtigen könnte. Fast genauso viele befürchten Auswirkungen auf den eigenen Wasserverbrauch und immerhin nahezu zwei Drittel denken, dass der Energieverbrauch von Rechenzentren bereits heute einen relevanten Anteil des Stromverbrauchs in den jeweiligen Ländern ausmacht.

Groß ist aber nicht nur der Anteil derer, die sich Sorgen machen, sondern auch die Unterstützung für politische Forderungen, die Betreiber stärker in die Verantwortung nehmen. Mehr als sieben von zehn Befragten wollen, dass der Bau neuer Rechenzentren nur dann erlaubt ist, wenn der zusätzliche Strombedarf durch zusätzliche Kapazitäten an erneuerbaren Energien gedeckt wird. Ebenso viele wollen klare Kriterien, nach denen Energie verteilt wird – wobei die Befragten Rechenzentren und KI-Modelle konsequent als unwichtig bewerten.

Bei der Verteilung der Energie sollten gemäß der Umfrage vor allem die Sektoren priorisiert werden, die erneuerbare Energien zur Umstellung auf eine klimafreundliche Produktion benötigen. Rechenzentren gehören nicht dazu – ihr Stromverbrauch entsteht ja gerade zusätzlich. Häufig werden diese aktuell direkt mit Strom aus fossilen Brennstoffen betrieben. Vielerorts werden sogar Gaskraftwerke neu errichtet, um den Bedarf zu decken. Aber selbst wenn neue Rechenzentren mit erneuerbaren Energien betrieben werden, wie es in Deutschland ab 2027 für größere Einrichtungen vorgeschrieben ist, fehlt ohne weiteren Ausbau diese Energie dann in anderen Sektoren und verlangsamt dort die Dekarbonisierung. Ob direkt oder indirekt: Der Strombedarf für Rechenzentren und KI-Anwendungen gefährdet die Klimaziele.

Verbräuche steigen an, verlässliche Zahlen fehlen

Der Blick auf die Zahlen zeigt: Die in der Umfrage deutlich werdenden Sorgen sind mehr als berechtigt. In Irland verbrauchen Rechenzentren mittlerweile 22 Prozent des gesamten Stroms und tragen erheblich zu den teils enormen Strompreissteigerungen bei. Auch in Deutschland entfallen aktuell mehr als vier Prozent des gesamten Stromverbrauchs auf Rechenzentren. Schätzungen zufolge sind es in Frankfurt am Main bereits jetzt 40 Prozent des Stromverbrauchs, in Dublin sogar 80 Prozent. In der gesamten EU sind es mehr als drei Prozent – Tendenz stark steigend.

Hinzu kommt das für die Kühlung benötigte Wasser: In Spanien werden die größten KI-Fabriken ausgerechnet in den trockensten Regionen gebaut. Auch in Deutschland könnte laut einer Studie der Gesellschaft für Informatik der Wasserverbrauch von Rechenzentren zu Problemen führen – beispielsweise im Rhein-Main-Gebiet und in Brandenburg.

Während die Politik und Betreiberunternehmen offensiv für einen starken Ausbau von Rechenzentren und KI-Infrastruktur werben, mehren sich die Proteste der lokalen Bevölkerung. In Deutschland konzentrieren sich diese bislang vor allem auf Frankfurt und Umgebung. In Irland oder Spanien, wo bereits länger protestiert wird, sind die Bürgerinitiativen weiter verbreitet und dauerhafter organisiert, beispielsweise in der Initiative Tu Nube Seca Mi Rio – “Deine Cloud trocknet meinen Fluss aus”.

Vielerorts ist die mangelnde Transparenz ein großes Problem. Selbst offizielle Stellen müssen größtenteils auf Schätzungen zurückgreifen, wie viel Wasser und Strom die Rechenzentren tatsächlich verbrauchen. Sind valide Daten vorhanden, bleiben diese meist geheim. Zwar sollen Betreiber größerer Rechenzentren die Verbräuche mittlerweile an nationale Stellen wie dem deutschen Energieeffizienzregister für Rechenzentren und die EU melden – aber auch diese Daten werden nur aggregiert veröffentlicht. Hinzu kommt der Unwillen der Betreiber, diese Informationen bereitzustellen. Ein aktueller Bericht der Europäischen Kommission schätzt für das Jahr 2024, dass nur gut ein Drittel aller Rechenzentren in der gesamten EU dies tun. Selbst die Gesamtzahl aller Rechenzentren kann sie dabei nur mutmaßen.

Ein ähnliches Bild zeigt sich auch in Deutschland

In der Bundesrepublik wird der Strom- und Wasserverbrauch von Rechenzentren erst in der jüngsten Zeit stärker thematisiert. Hier liegt der Anteil der Menschen, die sich Sorgen machen, noch etwas niedriger als in anderen europäischen Ländern. Die Betonung liegt hier auf dem „noch“, denn auch in Deutschland nimmt die Zahl der Rechenzentren stark zu – und soll nach dem Willen der Bundesregierung noch stärker wachsen.

Wie drastisch die Entwicklungen sind, zeigen beispielsweise die Zahlen der Bundesnetzagentur. Diese hatte erst vor kurzem die Schätzungen bezüglich des zukünftigen Stromverbrauchs stark nach oben korrigiert: Die im April 2025 veröffentlichten Szenarien gehen davon aus, dass bis zum Jahr 2037 Rechenzentren 78 bis 116 Terawattstunde (TWh) Strom verbrauchen – doppelt bis viermal so viel, wie es die ursprünglichen Abfragen ergeben hatten. Zur Einordnung: Der gesamte Bruttostromverbrauch lag in Deutschland im Jahr 2023 bei gut 550 TWh.

Da die Bundesnetzagentur nur die Rechenzentren berücksichtigt, die sich aktuell in der Planung befinden, könnten die tatsächlichen Zahlen sogar noch weiter ansteigen. Damit würde der Gesamtbedarf der Rechenzentren 2037 nicht nur bis zu 10 Prozent des deutschen Stromverbrauchs betragen. Der Zuwachs an Rechenzentren sorgt vor allem dafür, dass große Mengen Strom zusätzlich bereitgestellt werden müssen, dass fossile Kraftwerke länger laufen und dass wahrscheinlich auch die Strompreise steigen.

Angesichts dieser Zahlen überraschen die Umfrageergebnisse in Deutschland nicht: Auch hier unterstützen zwei Drittel der Befragten die Auflage, dass Rechenzentren nur gebaut werden dürfen, wenn dafür entsprechend auch weitere Kapazitäten erneuerbarer Energien geschaffen werden. Mehr als drei Viertel der Befragten fordern, dass Betreiber von Rechenzentren ihren Energieverbrauch (76 Prozent), ihre Energiequellen (77 Prozent) und ihre Umweltauswirkungen (81 Prozent) offenlegen.

Die Umfrageergebnisse offenbaren damit auch eine Kluft zwischen der Mehrheitsmeinung in der Bevölkerung und dem Kurs der Bundesregierung. Digitalminister Karsten Wildberger (CDU) hatte erst Ende September gegenüber der Süddeutschen Zeitung angegeben, dass es für ihn “erst einmal primär um das Rechnen” gehe und Nachhaltigkeit demgegenüber nachrangig sei. Die Mehrheit der Befragten sieht das offensichtlich anders.

Und noch eines wird deutlich: Es reicht nicht aus, nur etwas an der Effizienz zu schrauben oder die Nutzung der Abwärme zu optimieren. Angesichts der Größe des erwarteten Wachstums muss es auch darum gehen, den Verbrauch von Rechenzentren absolut zu begrenzen – und dort, wo er unvermeidbar ist, durch zusätzliche erneuerbare Energien zu decken.

KI-Hype begrenzen – Rechenzentren nachhaltig gestalten

Rechenzentren sind zweifelsfrei wichtige Infrastrukturen und werden in Zukunft weiter an Bedeutung gewinnen. Umso wichtiger ist es, diese Infrastruktur nachhaltig zu gestalten und die Fehler der Vergangenheit nicht zu wiederholen. Dazu gehört auch die Frage: Wie viele solcher Rechenzentren brauchen wir eigentlich? Welche der neuerdings überall eingebauten KI-Anwendungen haben einen gesellschaftlichen Nutzen – und welche nicht?

Wie auch in anderen Bereichen darf sich die Debatte um den nachhaltigen Einsatz von KI nicht in erster Linie auf der Ebene von individuellen Konsum- beziehungsweise Nutzungsentscheidungen abspielen. Es braucht vielmehr eine politische Diskussion und Regulierung.

Aktuell wird einem bei jeder noch so kleinen PDF-Datei eine algorithmische Zusammenfassung aufgedrängt, führt jede Google-Anfrage zum Aufruf von Sprachmodellen und soll auch die staatliche Verwaltung nach dem Willen der Bundesregierung an so vielen Stellen wie möglich KI-Systeme benutzen. Hier bringt es wenig, nur an das Individuum zu appellieren. Stattdessen braucht es politische Entscheidungen, die sowohl bei KI-Systemen als auch bei Rechenzentren die ökologischen Folgen mitdenken. Statt der „KI-Nation“, zu der sich Deutschland laut dem Koalitionsvertrag entwickeln soll, braucht es – wenn man schon von Nation sprechen will – eine „KI-sensible Nation“, die neben dem Nutzen auch die Nebenwirkungen und häufig leeren Versprechungen solcher Anwendungen im Auge behält.

Mein Bahnticket jedenfalls drucke ich mir weder aus, noch lasse ich es mir zusammenfassen. Gar nicht so selten ist der Nicht-Einsatz von KI nämlich ihr bester Einsatz.

Julian Bothe ist als Senior Policy Manager bei der gemeinnützigen NGO AlgorithmWatch verantwortlich für das Thema „KI und Klimaschutz“. An der Schnittstelle von Digital- und Energiepolitik arbeitet er daran, den Ressourcenverbrauch und den Klimaschaden des aktuellen KI-Booms in Grenzen zu halten. Promoviert hat er zur Akzeptanz der Energiewende.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Online-Investmentplattformen: Die Spur eines Millionenbetrugs

30. September 2025 um 12:24

Sie versprechen ihren Opfern das große Geld, doch dann ist alles weg: Vermeintliche Online-Investmentplattformen betrügen Menschen um Millionen. Den Drahtziehern auf die Schliche zu kommen, ist schwierig. Eine Recherche hat neue Informationen zu einem Betrugsnetzwerk aufgedeckt.

Collage, zu sehen sind Trading-Kurse, Krypto-Coins und Menschen.
Schnell reich mit Online-Investmentplattformen? – Alle Rechte vorbehalten Spoovio für Investigate Europe

Im Sommer 2020 klickte Anna Leitner auf eine Online-Anzeige. Die erweckte den Anschein, als würde Red-Bull-Gründer Dietrich Mateschitz ein bislang kaum bekanntes, aber garantiert sicheres Investment-Geheimnis verraten. Die Sekretärin einer Grazer Hochschule folgte dem Link, registrierte sich auf einer Plattform namens PrimeOT und bekam wenige Tage später eine Mail von ihrem vermeintlichen persönlichen Finanzberater.

Schnell wurde der Kontakt vertraulich. Der Mann habe von seinen Wochenenden mit Frau und Kindern erzählt, erinnert sich Leitner heute. Bereits Anfang September 2020, kurz nach dem ersten Telefonat, forderte er sie zur ersten Überweisung auf: 10.000 Euro.

In den Monaten darauf gab der Berater vor, für Leitner das Geld in Kryptowährungen zu investieren. Zunächst wuchsen die Gewinne und mit ihnen die Einsätze. „Es ging schnell darum, ob ich nicht noch mehr Geld auftreiben könnte“, sagt Leitner. In den wenigen Monaten bis zum Jahreswechsel 2021 hatte sie fast 30.000 Euro überwiesen.

Was Leitner damals nicht wusste: Dietrich Mateschitz warb nicht wirklich für das Investment, und ihr angeblicher Finanzberater war keiner. Er arbeitete nicht für eine seriöse Plattform, sondern mutmaßlich für ein Callcenter auf dem Balkan und war so Teil einer millionenschweren Betrugsmasche. Und sie war längst nicht das einzige Opfer.

„Ich besorge dir drei Häuser in Spanien“

Ob PrimeOT oder anders, die Namen der einzelnen Portale wechseln, auch wenn einige von ihnen aus dem gleichen Netzwerk stammen. Gemeinsam ist ihnen die Masche, mit der sie Menschen hereinlegen: Zunächst ködern die Betrüger neue Opfer mit Google- oder Meta-Anzeigen. Nach der Registrierung beginnt sofort der Druck.

Ende 2017 klickte Malcolm, ein teilpensionierter Manager aus der Ölindustrie im Nordosten Englands, auf eine Google-Anzeige von Greenfields Capital. Nach einer ersten Investition von 500 Pfund rief ihn am nächsten Tag ein Broker an, und drängte ihn, 34.000 Pfund einzuzahlen.

„Er versprach mir, das Geld innerhalb einer Woche zu verdoppeln und die Gewinne direkt in mein Bankkonto zu zahlen“, erinnert sich Malcolm. „Natürlich kam nichts zurück.“ Alarmiert durch seinen plötzlichen Verlust, schaute sich Malcolm die Firma genauer an. Bald erkannte er, dass die Londoner Adresse auf der Website gefälscht war.

John, ein 64-jähriger Bauunternehmer aus Schottland, stieß 2018 auf eine Anzeige für FX Trade Market. Die Website prahlte mit angeblicher Unterstützung der britischen Version der Fernsehshow Höhle der Löwen, Dragon’s Den.

Der Broker, der ihn anrief, war charmant und glaubwürdig, erinnert sich John. Von dem Geld wollte er eigentlich ein Haus in Spanien kaufen. Heute erzählt John: „Er sagte mir: Ich besorge dir drei Häuser in Spanien.“ Zwischen 2018 und 2019 überwies er 25.000 Pfund und überzeugte sogar seine Tochter zu investieren. Online wuchs sein Portfolio scheinbar auf 130.000 Pfund. Doch eines Tages war alles verschwunden. „Als ich niemanden mehr erreichen konnte, hat mich das Jahre meines Lebens gekostet.“

Razzia im Callcenter

In Belgrad, keine 500 Kilometer von Graz entfernt, wirkte das Callcenter Olympus Prime eher wie ein florierendes Tech-Start-up. Untergebracht in einem modernen Gebäude in einem aufstrebenden Geschäftsviertel von Belgrad, teilte sich die Firma die Adresse mit einem chinesischen Kulturzentrum und einem gehobenen Hotel. Doch als die serbische Polizei an einem regnerischen Morgen im Januar 2023 die Räume des Callcenters betrat, stieß sie auf die Schaltzentrale eines internationalen Betrugsnetzwerks.

„Die Büros sahen vollkommen normal aus, wie in jedem gewöhnlichen Unternehmen, viele Schreibtische, Stühle und Computer“, sagt der Leiter der Abteilung High-Tech-Kriminalität der serbischen Staatsanwaltschaft, Boris Majlat. Ihn überraschte auch, dass sich die rund 50 Mitarbeiter nicht rührten, obwohl bewaffnete Beamten die Räume durchsuchten. Tatsächlich waren sie auf solche Situationen vorbereitet worden: In einem bei der Razzia beschlagnahmten Trainingsvideo erklärten Manager ihren Angestellten, wie sie sich bei einer Polizeikontrolle verhalten sollten. „Sagen Sie, sie bieten nur Schulungsmaterial an“, hieß es, „nicht mehr.“

Die Razzia war Teil eines sogenannten Aktionstages von Europol. Unter Leitung der Staatsanwaltschaft Stuttgart und des Landeskriminalamts Baden-Württemberg durchsuchten Beamte mehr als 20 Standorte in Serbien, Bulgarien und Zypern. Neben Olympus Prime stürmten Ermittler allein in Belgrad drei weitere Callcenter. Von dort aus kontaktierten Callcenter-Agenten ihre Opfer mutmaßlich überall in Europa. Mit falschen Namen, Identitäten und einstudierten Verkaufsargumenten soll sich die Mitarbeiter als Broker ausgegeben haben, um Vertrauen aufzubauen und den Opfern ihr Geld abzunehmen. Fast 300 Personen wurden festgenommen.

Investment-Betrüger bringen Jahr für Jahr alleine in Deutschland Opfer um mehr als eine Milliarde Euro, schätzt ein führender Ermittler im Gespräch mit Investigate Europe. In Österreich ist die Masche mit den vermeintlichen Online-Investmentplattformen inzwischen das größte Betrugsphänomen. Jedes Jahr verlieren Österreicherinnen und Österreicher wie Anna Leitner so einen hohen Millionenbetrag.

Alleine das Netzwerk, in deren Callcenter die Beamten Anfang 2023 stürmten, soll laut dem LKA Baden-Württemberg weltweit über 70.000 Menschen getäuscht haben, darunter 2.000 Menschen in Deutschland. Die Täter sollen dabei schätzungsweise 250 Millionen Euro mit Anlagebetrug wie dem vermeintlichen Krypto-Handel eingestrichen haben, fast 50 Millionen davon in Europa.

In Belgrad hat die Staatsanwaltschaft nun 21 Personen angeklagt für ihre Beteiligung an dem Betrugsnetzwerk. Das Gericht muss die Anklage noch annehmen. Die mutmaßlichen Drahtzieher blieben für die Behörden bislang im Dunkeln.

Diese Recherche von Investigate Europe und des Balkan Investigative Reporting Network (BIRN), die auch bei netzpolitik.org erscheint, zeigt, wie der Geschäftsmann Eliran Oved und seine Frau Liat Kourtz Oved aus Tel Aviv über ein Geflecht von Briefkastenfirmen und Strohmännern mutmaßlich im Zentrum des Netzwerks stehen.

Die Spur der Oveds

Auf Social Media wirken die Oveds wie eine erfolgreiche Familie: Sie posten Fotos von exotischen Urlauben und Kostümpartys. Eliran Oved besitzt zugleich den israelischen Fußballverein Bnei Yehuda. Kürzlich zeichnete der israelische Präsident Oved sogar aus für das soziale Engagement seines Klubs.

Doch hinter dieser Fassade läuft offenbar ein lukratives Geschäft jenseits der Stadien und Preisverleihungen. Oved ist wegen Geldwäsche vorbestraft und betrieb eine illegale Glücksspiel-Website. Dafür saß er ein Jahr im Gefängnis. Diese Recherche zeigt, wie er und seine Frau mit den mutmaßlichen Scam-Callcentern verbunden sind. Über sechs Monate wertete das Recherche-Team Dutzende Handelsregister-Dokumente aus und legte die geschäftlichen Verbindungen der Oveds zum mutmaßlichen Millionenbetrug offen. Eliran Oved und Liat Kourtz Oved selbst ließen eine umfangreiche Anfrage zu den Vorwürfen unbeantwortet.

Das im Januar 2023 gestürmte Callcenter, Olympus Prime, gehört einem engen Vertrauten der Oveds. Auch die drei weiteren durchsuchten Callcenter lassen sich mit dem Paar in Verbindung bringen. Von den Büros aus sollen die Callcenter-Agenten Produkte von Marken angeboten haben, deren Spur zu den Oveds und ihren Geschäftspartnern führt.

Zu diesen Trading-Plattform-Marken gehören FXVC, Greenfields Capital und PrimeOT, jene Plattform, auf der die Grazer Sekretärin Anna Leitner knapp 30.000 Euro investierte. Inzwischen sind alle Webseiten offline.

Aus den Callcentern, die in Verbindung zum Oved-Netzwerk stehen, sollen Mitarbeiter Menschen in Deutschland, der Schweiz, Großbritannien und Irland betreut haben, aber auch Menschen in Kanada und Australien. Investigate Europe und BIRN liegt eine Opferliste vor, die bei der Durchsuchung bei Olympus Prime sichergestellt worden ist. Darauf sind Verluste einzelner mutmaßlicher Opfer vermerkt, von wenigen hundert bis hin zu mehr als einer Million Euro.

Leeds United, Strohmänner und Sponsorenverträge

Einer der bekanntesten Betrugsmarken, FXVC, wurde 2020 sogar offizieller Partner des britischen Fußballklubs Leeds United. Dokumente, die Investigate Europe und BIRN vorliegen, legen nahe, dass FXVC aus den Räumen von Olympus Prime betrieben wurde. Der Premier-League-Deal verschaffte riesige Sichtbarkeit im britischen Markt: Das Logo prangte im Stadion, Millionen Zuschauer sahen es wöchentlich. Im April 2021 entzog die britische Finanzaufsicht FCA FXVC schließlich die Lizenz wegen „irreführender Finanzwerbung“.

Auf dem Papier gehörte FXVC einer zypriotischen Holding, die vorgeblich von Strohmännern geleitet wurde. Tatsächlich findet sich in den Bilanzen ein anderer Name als ultimativ wirtschaftlich Berechtigte: Kourtz Oved. Dieses Muster zeigte sich immer wieder. Offiziell gehören diverse Unternehmen Geschäftspartnern der Oveds. Doch gesteuert wurden diese offenbar von dem Paar.

Zu den wichtigsten Strohmännern gehörten der zypriotische Ex-Fußballer Nikos A., die bulgarische Anwältin Vera A. und Miloš R., ein Serbe mit bulgarischem Pass. Keine dieser Personen antwortete auf Anfragen zu den Vorwürfen. R. ist derzeit in Serbien wegen des Verdachts auf Geldwäsche angeklagt. Zusammen führten die drei als Direktoren fünf Oved-Firmen und hielten Anteile an 14 weiteren Unternehmen des Netzwerks.

Belgrader Vertriebsbüros

Im Gegensatz zu ihren Opfern sollen die Callcenter-Broker in Belgrad satt verdient haben. Verglichen mit dem serbischen Durchschnittsgehalt von rund 900 Euro im Monat gehörten die Mitarbeiter mit ihren Grundgehältern und Boni zu den Topverdienern des Landes. Manche kassierten monatliche Provisionen von 60.000 bis 80.000 Euro.

Im Olympus-Prime-Callcenter sollen fünf Teams rund um die Uhr gearbeitet haben, aufgeteilt nach Sprache und Region. Das deutschsprachige Team „Panzer“ soll sich um Opfer in Deutschland, Österreich und der Schweiz gekümmert haben, andere Teams kümmerten sich um Skandinavien und den englischsprachigen Raum. Interne Chats, die die Polizei sicherstellte, zeigen die Verachtung gegenüber den Kunden: „Idioten“, hieß es in einem Chat. Als ein Opfer 40.000 Euro investieren wollte, schrieb ein Kollege: „Super, schnapp’s dir!“

Die Mitarbeiter sollen länderspezifische Decknamen wie „Jack Weiss“ oder „James Eastwood“ genutzt haben. Ihre Kunden lockten sie offenbar zunächst mit kleinen, scheinbar realen Gewinnen, dann drängte sie diese zu immer höheren Einzahlungen.

Die serbische Staatsanwaltschaft beschreibt Olympus Prime als ein hierarchisches Unternehmen. An der Spitze sollen israelische Manager gestanden haben, das Tagesgeschäft leiteten serbische Führungskräfte, am Telefon arbeiteten lokale Agenten. Offizieller Eigentümer: Nikos A., der Ex-Fußballer und Strohmann der Oveds.

„Wir haben es nicht mit Amateuren zu tun. Das ist organisierte Kriminalität. Wenn wir nicht reagieren, verlagern sie den Standort einfach und machen weiter“, warnt der serbische Staatsanwalt Boris Majlat, der in dem Fall ermittelt.

„Wenn wir nichts tun, ziehen sie einfach weiter“

Trotz der Festnahmen Anfang 2023 sind viele Schlüsselfiguren noch immer auf freiem Fuß. Majlat sagt: „Wir haben es mit transnationalem, krypto-basiertem Betrug zu tun, aber die Gerichte behandeln es wie einen normalen Fall.“ Er fordert spezialisierte Einheiten. „Ohne diese können wir nicht gewinnen.“

Seit 2019 leitet der Bamberger Staatsanwalt Nino Goldbeck eine Ermittlungsstelle für den Investment-Betrug. Über die Arbeit sagt er, „Wenn wir ein Callcenter mit 200 Beschäftigten durchsuchen, landet davon nur ein Bruchteil in Haft“. Gründe dafür seien Ressourcenknappheit, Priorisierungsfragen sowie unterschiedliche Rechtsrahmen. Die Bamberger Ermittler ließen seit 2019 europaweit 15 Durchsuchungen durchführen. Bisher wurden ungefähr 80 Personen abschließend rechtskräftig verurteilt.

In Serbien laufen die Ermittlungen weiter. Mit führenden Verdächtigen im Ausland und vielen Jurisdiktionen sei es aber extrem schwer, Recht durchzusetzen. Zu den Oveds selbst wollte die Staatsanwaltschaft „keinen Kommentar“ abgeben.

In Deutschland hat inzwischen die Generalstaatsanwaltschaft in Karlsruhe das Verfahren an sich gezogen. Fünf Jahre nach den mutmaßlichen Taten und mehr als zwei Jahre nach den Durchsuchungen in Serbien, Bulgarien und Zypern hat diese noch immer keine Anklage erhoben. Die zuständigen Staatsanwälte äußern sich zu dem laufenden Verfahren nicht.

Gegen die Oveds und deren mutmaßliche Strohmänner wurde bisher keine Anklage erhoben wegen Straftaten im Zusammenhang mit dem serbischen Callcenter-Betrug, der in diesem Artikel geschildert wird.

Viele Opfer kämpfen noch immer mit den Folgen. Manche wollten gar nicht reden, aus Angst, erneut ins Visier zu geraten. Andere sagten, die Erinnerungen seien zu schmerzhaft. Auch Anna Leitner fällt es nicht leicht, darüber zu sprechen, wie sie ihr Erspartes über die vermeintliche Investment-Plattform PrimeOT verlor.

„Die haben mich rausgeschmissen“

Binnen vier Monaten hatte Leitner fast 30.000 Euro investiert. Im Januar 2021 erkannte sie, dass sie in eine Betrugsmasche geraten war. Da war es zu spät. „Ich wollte mein Geld ausgezahlt bekommen“, erinnert sich Leitner heute. Doch ihr vermeintlicher Finanzberater habe nur Ausreden präsentiert. In einer E-Mail bat sie ihn um ein Gespräch. Doch der Mann, der bis dahin auch mal von seiner Familie geplaudert hatte, meldete sich nicht mehr. Kurz darauf konnte Leitner sich nicht mehr auf der Investment-Webseite einloggen. Heute sagt sie: „Die haben mich rausgeschmissen.“

„Dann wurde mir klar, dass ich Scheiße gebaut habe“, sagt Leitner. Mit einer Berliner Anwaltskanzlei versuchte sie im März 2021, ihr Geld zurückzuholen. Doch alle Bemühungen liefen ins Leere. Im Herbst 2023 schrieb ihr Anwalt, dass „trotz unserer Bemühungen, Beschwerde und Übersendung weiterer Ermittlungsansätze“ die Staatsanwaltschaft Graz „die Ermittlungen gegen die PrimeOT eingestellt hat“. Auf Nachfrage bestätigt die Staatsanwaltschaft Graz die Einstellung des Verfahrens.

Trotz allem expandieren die Oveds unterdessen weiter. Unlängst brachten sie über eine Offshore-Gesellschaft neue Marken auf den Markt: Klips.com und 50K.trade.

Dieser Artikel ist der erste Teil der Recherche „Scam Europe“, die vom Balkan Investigative Network (BIRN) geleitet wurde sowie von Investigate Europe, einem Journalistenteam, das länderübergreifend arbeitet. Die Recherche wird gemeinsam mit Medienpartnern in acht Ländern veröffentlicht, darunter auch Altreconomia, Balkan Insight, EU Observer, The Irish Times, La Libre, Público sowie Der Standard. Dieses Projekt wurde unterstützt von IJ4EU (Investigative Journalism for Europe).


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Datenschutz und KI: Schluss mit der Zögerlichkeit!

17. September 2025 um 15:43

Die Folgen des KI-Hypes für den Datenschutz sind schwer absehbar. Im Fall von Metas KI-Training zögern Aufsichtsbehörden, das Oberlandesgericht Köln gab dem Konzern sogar – fürs Erste – grünes Licht. Jura-Professorin Paulina Jo Pesch zeigt Schwächen des Urteils auf und fordert eine entschiedenere Durchsetzung der Datenschutzvorgaben.

Ein altmodisch aussehendes Treppenhaus von oben. Es windet sich in Spiralen nach unten.
Abwärtsspirale: Das Treppenhaus im Oberlandesgericht Köln CC-BY-SA 4.0 1971markus

Hinter weitverbreiteten KI-Anwendungen stehen generative Sprach- und Bildmodelle, die mit riesigen Datenmengen gefüttert werden, auch mit personenbezogenen Daten. Das Problem: Teile der Trainingsdaten, darunter personenbezogene, lassen sich aus vielen der Modelle extrahieren. Unter welchen Umständen sich ein Modell zu viel „merkt“ und wie sich das verhindern lässt, ist bislang wenig erforscht. Zugleich werden Extrahierungsmethoden immer besser. Anbieter*innen können bislang nicht verhindern, dass Modelle personenbezogene Trainingsdaten ausgeben. Auch Chatbots können personenbezogene Daten von anderen verraten.

Außerdem „halluzinieren“ die Modelle. Sie generieren also falsche Informationen, die nicht in den Trainingsdaten enthalten sind. Weil KI-Unternehmen diese nicht offenlegen, können Forscher*innen nicht zuverlässig messen, wann ein Modell Informationen erfindet und wann es unrichtige Trainingsdaten wiedergibt. Zuverlässige Methoden zur Vermeidung von Halluzinationen gibt es bisher nicht.

Werden personenbezogene Daten aus einem Modell extrahiert, kann für Betroffene gerade die Kombination aus „Erinnerung“ und „Halluzination“ gefährlich sein. Ein mit personenbezogenen Daten trainiertes Modell generiert unter Umständen Falschinformationen über sie. Gerade bei öffentlichen Modellen besteht das Risiko, dass Nutzer*innen diese Informationen unkritisch weiterverbreiten.

Meta fragt lieber nicht um Erlaubnis

Mit Llama (Large Language Model Meta AI) ist auch Meta an dem KI-Rennen beteiligt. Meta nutzt Llama für eigene KI-Funktionen wie Transkriptions- oder Suchfeatures auf Instagram, Facebook und WhatsApp sowie für Chatbots oder in KI-Brillen, die das Unternehmen anbietet. Außerdem stellt Meta seine Modelle anderen zur Nutzung bereit. So können etwa Forscher*innen die Modelle testen oder Unternehmen auf Basis von Llama KI-Dienstleistungen oder -Produkte anbieten.

Im Juni 2024 informierte Meta die Nutzer*innen von Instagram und Facebook über eine Aktualisierung seiner Datenschutzrichtlinie. Diese Aktualisierung ließ Metas Vorhaben erkennen, seine KI-Modelle mit Nutzer*innendaten zu trainieren. Die Nutzer*innen konnten dem zwar widersprechen, die Widerspruchsmöglichkeit war jedoch schwer auffindbar.

Nachdem Datenschutzorganisationen wie noyb Meta scharf kritisierten, veröffentlichte der Konzern noch gleichen Monat weitere Informationen zum geplanten Training. Demnach beabsichtigte der Konzern, nur noch öffentliche Daten für das Training zu verwenden. Kurz darauf verkündete Meta, die irische Datenschutzbehörde verzögere das Training in der EU. Im April 2025 verkündete der Konzern dann den baldigen Trainingsstart.

Was trainiert Meta eigentlich mit welchen Daten?

Inzwischen hat der Konzern damit begonnen, seine KI mit den Daten europäischer Nutzer*innen zu trainieren. Unklar ist weiterhin, welche Daten dafür genau genutzt werden. Meta stellt im Vergleich zu anderen KI-Unternehmen zwar mehr Informationen über das Training mit Social-Media-Daten bereit. Diese Informationen haben sich aber immer wieder verändert und lassen Fragen offen.

Das betrifft insbesondere den Umgang mit sensiblen Daten. Bei Llama handelt es sich um ein multimodales Sprachmodell, das neben Texten auch Bilder, Videos und Tondateien verarbeitet. Der für das Training genutzte Social-Media-Content umfasst damit etwa auch Fotos der Nutzer*innen. Metas Datenschutzinformationen verweisen auf öffentliche Inhalte wie Beiträge, Kommentare und Audiospuren.

Inzwischen heißt es in den Datenschutzinformationen, dass auch Daten von Drittpartner*innen und KI-Interaktionen für die KI-Entwicklung genutzt würden. Als Beispiele für KI-Interaktionen nennt Meta Nachrichten, die Nutzer*innen oder andere Personen von der KI erhalten, mit ihr teilen oder an diese senden.

Diese Angaben schließen private Sprachnachrichten und Transkriptionen nicht aus. Metas Umschreibung passt auch auf Chatverläufe mit Chatbots. Solche Chatverläufe können besonders sensible Daten enthalten, wenn etwa Chatbots für intime Gespräche zu mentaler Gesundheit oder parasoziale romantische Beziehungen genutzt werden.

Verbraucherzentrale scheitert vor Gericht

Um den Beginn des Trainings zu verhindern, hat die Verbraucherzentrale Nordrhein-Westfalen im Mai 2025 einen Eilantrag beim Oberlandesgericht (OLG) Köln gestellt. Sie argumentierte insbesondere, dass Meta das Training nicht auf eine wirksame Rechtsgrundlage stützen könne, ist mit dem Eilantrag jedoch gescheitert. Das Urteil und Einblicke in die mündliche Verhandlung in Köln offenbaren erhebliche Mängel.

Meta hatte sich entschieden, keine Einwilligungen einzuholen, sondern beruft sich auf ein berechtigtes Interesse an der Nutzung der Daten für KI-Training. Die Verbraucherzentrale hält das für unzureichend, doch das Gericht folgt Metas Argumentation in seinem Urteil. Nach der Datenschutzgrundverordnung (DSGVO) können berechtigte Interessen die Verarbeitung personenbezogener Daten rechtfertigen, solange die Interessen Betroffener nicht schwerer wiegen. Dabei müssen diese der Datenverarbeitung aber widersprechen können.

Die Verbraucherzentrale NRW hat darauf hingewiesen, dass nicht alle Betroffenen widersprechen können. Facebook- und Instagram-Beiträge enthalten zuhauf personenbezogene Daten von Nicht-Nutzer*innen. Die Widerspruchsfunktion steht aber nur Nutzer*innen offen. Das Gericht ignoriert diesen Einwand. Zudem behauptet es ohne Begründung und trotz gegenteiliger Hinweise, Meta erfülle die Anforderungen der DSGVO an den Schutz von Minderjährigen.

Das Gericht halluziniert niedrige Risiken herbei

Berechtigte Interessen geben außerdem keine Rechtsgrundlage für Verarbeitungen her, die für Betroffene zu riskant sind. Das OLG Köln behauptet, die Risiken für Nutzer*innen seien gering. Dabei legt das Urteil nahe, dass die Richter*innen nicht verstanden haben, was Meta trainiert. Das Wort „Llama“ taucht im gesamten Urteil nicht auf. Auch beschreibt das Gericht keine Anwendungsszenarien.

Auf diese kommt es aber entscheidend an. Ein Transkriptionsfeature gibt wahrscheinlich keine extrahierbaren Daten aus. Aus Llama selbst werden jedoch sicher Daten extrahiert. Forscher*innen wenden Extrahierungsmethoden auf alle bekannten Modelle an. Je nachdem, welche Arten von Daten wie gut extrahierbar sind, könnte es dabei versehentlich auch zu Datenlecks kommen.

Gerichte prüfen in Eilverfahren die Rechtslage nur „kursorisch“, also nicht im Detail. Das OLG Köln reiht dabei aber mit großem Selbstbewusstsein Behauptungen aneinander, die aus Sicht der Datenschutzforschung haltlos sind. Selbst wenn Metas Training transparent genug wäre, fehlt es an tragfähigen Forschungsergebnissen für die Einschätzung des Gerichts.

Ein grober Fehler des Urteils betrifft besondere Kategorien personenbezogener Daten. Das sind sensible Daten, die die DSGVO besonders schützt, zum Beispiel Daten über Race, religiöse Anschauungen oder sexuelle Orientierungen. Social-Media-Daten enthalten viele solcher Daten. Besondere Kategorien personenbezogener Daten dürfen nicht auf Basis berechtigter Interessen verarbeitet werden, sondern nur unter strengeren Voraussetzungen, in vielen Fällen nur aufgrund von Einwilligungen. Das OLG Köln stört sich daran nicht.

Stattdessen behauptet das Gericht, dass die Anwendung der besonderen Schutzanforderungen nicht geboten sei. Das Urteil stellt hier wieder auf ein nicht weiter begründetes geringes Risiko ab. Dabei kommt es gerade im Bereich des maschinellen Lernens leicht zu unbemerkten Modellbias, also zu systematischen Fehleinschätzungen, die zum Beispiel zu rassistischer Diskriminierung führen. Besondere Kategorien personenbezogener Daten bergen dabei potenziell besonders hohe Risiken.

Bedenkliche Informationslage

Bedenklich ist zudem die Informationslage, auf die sich das Gericht stützt. In diesem Fall sind das vor allem die Angaben von Meta selbst. Das ist in einem Eilverfahren an sich nicht zu beanstanden – weil es schnell gehen muss, gelten geringere Beweisanforderungen. Gerichte arbeiten daher mit eidesstattlichen Versicherungen, formellen Erklärungen der Parteien. Um Falschangaben vorzubeugen, sind falsche eidesstattliche Versicherungen nach dem Strafgesetzbuch strafbar.

Das Urteil stellt entscheidend auf eidesstattliche Versicherungen von Metas Produktmanager für generative KI ab. Zwei in der mündlichen Verhandlung in Köln anwesende Personen berichten allerdings, dass die Versicherungen nie formgerecht abgegeben worden sind. (Die Autorin hat von zwei in der Verhandlung in Köln anwesenden Personen Informationen zum Ablauf der mündlichen Verhandlung und dabei getroffenen Aussagen des Gerichts erhalten. Eine der Personen ist seitens der klagenden Verbraucherzentrale am Verfahren beteiligt, die andere Person hat den Prozess beobachtet, ohne daran beteiligt zu sein.)

Eidesstattliche Versicherungen müssen mündlich oder im Original mit händischer Unterschrift abgegeben werden. Selbst wenn die Erklärungen von Meta formgerecht wären, hätte sich das OLG Köln besser nicht darauf verlassen. Es gibt zwar keine Anzeichen dafür, dass diese Falschangaben enthalten. Durch das deutsche Strafgesetzbuch wäre deren Richtigkeit aber nicht abgesichert: Falls der in Kalifornien ansässige Manager nicht einreisen will, hätten Falschangaben keine strafrechtlichen Folgen für ihn.

Zudem legt das Urteil nahe, dass Metas Erklärungen inhaltlich dünn sind. Sie bestätigen etwa das Funktionieren der Widerspruchsfunktion. Eine Pressemitteilung der für Meta zuständigen irischen Datenschutzbehörde (Data Protection Commission, DPC) zeigt jedoch, dass die Behörde Meta zur Nachbesserung der Widerspruchsfunktion aufgefordert hat. Es bleibt somit zweifelhaft, ob Widersprüche in der Vergangenheit einfach genug möglich waren und funktioniert haben.

Datenschutzbehörden lassen Meta erst mal machen

Auch die Pressemitteilung der irischen Datenschutzbehörde und der Umgang des Gerichts damit verdienen besondere Aufmerksamkeit. Die für ihre Nachsicht gegenüber Datenkonzernen bekannte Behörde hat die Pressemitteilung am Vorabend der mündlichen Verhandlung in Köln veröffentlicht. Sollte die Behörde sich etwa mit Meta abgestimmt und so das Verfahren beeinflusst haben?

Das OLG Köln hat nach Berichten Anwesender schon in der mündlichen Verhandlung signalisiert, der Rechtsauffassung der irischen Behörde wahrscheinlich folgen zu müssen, warum auch immer das Gericht sich an deren Einschätzung auch nur lose gebunden fühlt. Das ist nicht nur im Hinblick auf die Gewaltenteilung bedenklich. Die Pressemitteilung enthält auch keinerlei Rechtsauffassung zur Frage nach der Datenschutzkonformität, der das Gericht folgen könnte. Sie enthält schlicht gar keine rechtliche Einschätzung. Es heißt lediglich, Meta habe in Absprache mit der Behörde Maßnahmen zur Verbesserung des Datenschutzes ergriffen und verfolge die Umsetzung weiter.

Aus der Pressemitteilung wird ersichtlich, dass die irische Behörde Meta nur beraten hat. Das war dem OLG Köln auch von Metas Hauptaufsichtsbehörde in Deutschland, dem Hamburger Datenschutzbeauftragten, bekannt. Im Urteil heißt es ausdrücklich, die Behörde habe Meta das Training „bislang“ nicht untersagt und beobachte derzeit die Folgen der Trainings.

Der Hamburger Datenschutzbeauftragte hatte im Juli 2024 die Datenschutzauswirkungen des Trainings generativer Sprachmodelle noch unterschätzt. Nach Berichten aus der mündlichen Verhandlung hat er angesichts seiner Einblicke in Metas Training diese Auffassung zurückgenommen, erhebliche Datenschutzbedenken geäußert und zunächst sogar ein eigenes Verfahren gegen Meta angekündigt. Außerdem berichtete er, dass die irische Behörde plane, ein Verletzungsverfahren im Oktober einzuleiten. Das spricht dafür, dass europäische Datenschutzbehörden von Verstößen wissen, Meta aber zunächst gewähren lassen.

Wider den KI-Hype

Die Bedeutung des Kölner Verfahrens weist über Meta und über Deutschland hinaus. Das Urteil und die Vorgänge im Prozess legen nahe, dass europäische Gerichte und Aufsichtsbehörden bei KI dem Ansatz „Abwarten und Teetrinken“ folgen. Es lässt sich nur spekulieren, welche Rollen hier der Druck des KI-Hypes, Innovationspläne der EU oder auch blanke Naivität spielen.

Dabei macht die DSGVO nicht nur klare Vorgaben an KI-Unternehmen, sondern bietet diesen auch ausreichende Möglichkeiten, sich an die Vorgaben zu halten. Demnach müssen KI-Unternehmen die Datenschutzkonformität ihrer Vorhaben begründet nachweisen. Sie dürfen ihre Modelle trainieren und testen – allerdings nur zu reinen Forschungszwecken und ohne die KI in der Praxis einzusetzen – und damit blind auf die Menschheit loszulassen. Gerichte und Aufsichtsbehörden sollten diese Vorgaben durchsetzen, anstatt sich dem KI-Hype zu beugen.

Prof. Dr. Paulina Jo Pesch ist Juniorprofessorin für Bürgerliches Recht sowie das Recht der Digitalisierung, des Datenschutzes und der Künstlichen Intelligenz am Institut für Recht und Technik der Friedrich-Alexander-Universität Erlangen-Nürnberg. Sie koordiniert das vom Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) geförderte interdisziplinäre Forschungsprojekt SMARD-GOV, das Datenschutzaspekte großer Sprachmodelle erforscht.

Eine englischsprachige Langfassung der Analyse des Verfahrens sowie eines weiteren Verfahrens beim OLG Schleswig-Holstein ist im CR-online blog erschienen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

KI im Krieg: „Wir brauchen mehr kritische Debatten und zivilgesellschaftliches Engagement“

01. Juli 2025 um 15:13

Autonome Waffensysteme treffen zunehmend eigenständig Entscheidungen. Nicht zuletzt der Ukrainekrieg dient dabei als Experimentierfeld für militärische KI-Systeme. Welche Folgen das hat und welche Regulierung es braucht, erläutert der Technikforscher Jens Hälterlein im Gespräch mit netzpolitik.org.

Bundesverteidigungsminister Boris Pistorius (SPD) besucht das Cyber Innovation Hub. Im Vordergrund Technik für die Drohnenabwehr.
Auch beim “ Cyber Innovation Hub“ der Bundeswehr geht es um KI, hier zur Drohnenabwehr. – Alle Rechte vorbehalten IMAGO / Mike Schmidt

Drohnen, die von sogenannter Künstlicher Intelligenz gesteuert werden, gewinnen an Bedeutung. Gerade der Ukrainekrieg dient als Testfeld für neue militärische KI-Anwendungen. Sie ermöglichen nicht nur technologische Fortschritte, sondern werfen auch grundlegende ethische und geopolitische Fragen auf.

Jens Hälterlein ist Technik- und Wissenschaftsforscher an der Universität Paderborn. Er forscht im Projekt Meaningful Human Control zur Regulierung autonomer Waffensysteme. Ein Fokus seiner Arbeit liegt auf Drohnenschwärmen und bestehenden Ansätzen zur ethischen Regulierung KI-basierter Militärtechnologien. Wir haben mit ihm über die Auswirkungen von KI-Anwendungen im Krieg gesprochen.

netzpolitik.org: In Ihrer Forschung beschäftigen sie sich intensiv mit der Entwicklung und dem Einsatz von KI im militärischen Kontext. Der Ukrainekrieg wird zunehmend als „Experimentierfeld“ für militärische KI-Anwendungen beschrieben. Wie schauen Sie auf diese Entwicklung?

Jens Hälterlein: Der Krieg in der Ukraine ermöglicht es – wie im Prinzip jeder Krieg –, neue militärische Entwicklungen unter realen Einsatzbedingungen zu testen. Für die Entwicklung militärischer KI-Anwendungen besteht ein weiterer Vorteil darin, dass auf den Schlachtfeldern der Ukraine große Mengen an Trainingsdaten erzeugt werden. Sie sind für maschinelle Lernprozesse notwendig. Daraus ergeben sich ganz neue Möglichkeiten. Die Ukraine wurde daher auch als „Living Lab“ für militärische KI bezeichnet, also eine Art „Reallabor“.

Nicht ohne Grund hat das US-amerikanische Unternehmen Palantir seine Datenanalyse-Software gleich zu Beginn des Krieges der Ukraine angeboten. Obwohl diese Software zuvor nur für wirtschaftliche und polizeiliche Analysen genutzt wurde, stellte sie schon nach kurzer Zeit ein zentrales Element für die Entscheidungsfindungsprozesse des ukrainischen Militärs dar.

Daten verhelfen der KI zum Druchbruch

netzpolitik.org: Zu Beginn des Ukrainekrieges spielten KI-Systeme bei Drohnen offenbar eine eher unterstützende Rolle. Das verändert sich aus Ihrer Sicht. Können Sie die technologischen Fortschritte und ihre Bedeutung genauer erläutern?

Jens Hälterlein: Am Anfang des Ukrainekrieges wurden die eingesetzten Drohnen noch größtenteils ferngesteuert. KI hat nur in einigen sogenannten „nicht-kritischen“ Funktionen eine Rolle gespielt, beispielsweise im Sinne eines Autopiloten. Das ändert sich derzeit aber anscheinend. Sowohl die Systeme ukrainischer Start-ups als auch die dort eingesetzten westlichen Systeme entsprechen zunehmend dem, was in der internationalen Debatte als tödliche Autonome Waffensysteme (LAWS) bezeichnet wird. Damit sind Systeme gemeint, die kritische Funktionen – also Zielfindung, Zielauswahl und Angriff – ohne menschliches Zutun vollziehen können.

Die in diesen Waffensystemen verwendeten Hardwarekomponenten und Algorithmen sind im Prinzip nicht neu. Aber lange Zeit wurden militärische Innovationen in diesem Bereich durch einen Mangel an Daten ausgebremst. Das ist vergleichbar mit der Entwicklung von Gesichtserkennungssystemen, die erst durch die massenhafte Verfügbarkeit von gelabelten Fotos in sozialen Medien einen Durchbruch erfahren haben.

netzpolitik.org: Über die russischen Systeme, wie etwa die neue Variante der Lancet-Kamikaze-Drohne, ist weit weniger bekannt.

Jens Hälterlein: Im Prinzip sind wir bei allen Kriegsparteien auf die Aussagen von Militärs und Waffenherstellern angewiesen. Und die sind natürlich grundsätzlich mit Vorsicht zu genießen, ganz gleich, ob es sich um westliche oder nicht-westliche Akteure handelt. Seit dem Krieg ist unsere Informationslage zu russischen Systemen allerdings noch eingeschränkter als zuvor. Aber da eine russische KI beziehungsweise eine russische KI-basierte Kampfdrohne grundsätzlich ähnlich funktioniert wie eine US-amerikanische oder eine deutsche sollten auch der jeweilige Kontext ähnlich sein. Auch auf russischer Seite werden diese Waffensysteme daher wohl autonomer werden. Und mit diesem Anspruch wird ja auch das neue Modell der Lancet-Drohne beworben.

Blindes Vertrauen

netzpolitik.org: Wenn militärische KI-Systeme und Autonome Waffensysteme in einem Konflikt wie in der Ukraine getestet werden, wirft dies ethische oder politische Fragen auf. Welche sind das aus Ihrer Sicht?

Jens Hälterlein: Es gibt zahlreiche Probleme. Zum einen ist militärische KI – wie jede KI – notorisch fehleranfällig und vorurteilsbehaftet. Fehler und Vorurteile können hier aber tödliche Folgen haben. Ein System könnte etwa Zivilisten als Kombattanten identifizieren, weil es Daten fehlinterpretiert oder weil es für die Unterscheidung relevante Faktoren übersieht.

Zum anderen droht es durch den Einsatz hochkomplexer Systeme zu einer Verantwortungsdiffusion zu kommen. Formal muss zwar immer ein Mensch als Letztinstanz zustimmen, wenn es zur Tötung von Menschen kommen kann. Allerdings können Bediener*innen nicht im Detail nachvollziehen, wie ein KI-basiertes System seinen Output erzeugt hat. Gleichzeitig kommen sie nicht umhin, auf dessen Basis Entscheidungen zu treffen, und das meist unter Zeitdruck. Auch deshalb könnten sie dazu tendieren, dem Output der Systeme nahezu blind zu vertrauen, was sie angesichts der Fehleranfälligkeit dieser Systeme jedoch keineswegs tun sollten.

Kriegstreiber KI

netzpolitik.org: Ein weiteres Risiko ist die globale Verbreitung dieser Technologien. Wie realistisch ist es, dass in Zukunft immer mehr Staaten autonome Waffensysteme einsetzen – möglicherweise auch im Globalen Süden?

Jens Hälterlein: Drohnen sind wesentlich preisgünstiger als Kampfjets. Gerade kleine Drohnen mit relativ kurzer Flugzeit und geringer Nutzlast sind nicht teuer. In der Ukraine werden sogar kommerzielle Modelle, die wenige hundert Euro kosten, verwendet. Sie werden quasi „in Heimarbeit“ mit Granaten und anderen Kampfmitteln bestückt.

Teuer wird es vor allem dann, wenn besondere Softwarekomponenten entwickelt werden. Aber auch diese Kosten sind kaum mit den Gesamtkosten für die Entwicklung der F-35 oder des Future Combat Air Systems vergleichbar. Es ist also davon auszugehen, dass Finanzen einen zunehmend geringen Faktor bei der globalen Verbreitung KI-basierter Militärtechnologien darstellen. Das türkische Unternehmen Baykar hat beispielsweise seine KI-Kampfdrohe Bayraktar TB2 eben nicht nur in die Ukraine exportiert, sondern auch in zahlreiche afrikanische und asiatische Staaten, wo sie bereits in mehreren Kriegen zum Einsatz gekommen ist.

Unzureichende Regulierung

netzpolitik.org: Mit Blick auf die politische Regulierung von autonomen Waffensystemen und KI-Drohnen sagen Sie, dass wir zunehmend vor vollendete Tatsachen gestellt werden. Gibt es überhaupt noch Chancen auf international verbindliche Regeln?

Jens Hälterlein: Da sehe ich leider wenig Grund zu Optimismus. Im Rahmen der UN-Rüstungskontrolle gibt es seit mehr als zehn Jahren Bemühungen, verbindliche Regulierungen für LAW zu erwirken – bisher ohne Erfolg. Und zwar in erster Linie deshalb, weil solche Regulierungen nicht im Interesse der Nationen liegen, die LAWS entwickeln, einsetzen oder es in Zukunft beabsichtigen. Das sind neben den militärischen Großmächten USA, Großbritannien, Russland und China auch militärische Exportnationen wie Israel, die Türkei und Deutschland.

Deutschland hat sich zwar zusammen mit Frankreich für ein Verbot sogenannter vollautonomer Waffensystemen ausgesprochen. Gleichzeitig aber soll der Einsatz von sogenannten teilautonomen Waffensystemen erlaubt sein. Wenn aber für deren Einstufung bereits ausreichen soll, dass ein Mensch dem Output des Systems final zustimmen muss, halte ich diesen Ansatz aus den genannten Gründen für ungenügend.

Ethik ist kein Ersatz für Recht

netzpolitik.org: Was muss aus Ihrer Sicht passieren, um die unkontrollierte Verbreitung und den Missbrauch solcher Technologien noch zu verhindern?

Jens Hälterlein: Eine Patentlösung habe ich leider nicht. Es benötigt mehr kritische Debatten und zivilgesellschaftliches Engagement. Außerdem müssen wir stärker die Perspektiven der Opfer solcher Technologien in den Blick nehmen. Aber letzten Endes dürften die gegenwärtige globale Polarisierung und Militarisierung ein Klima erzeugen, in dem für Waffenkontrolle wenig Raum ist. Das sehen wir derzeit auch im Bereich der Regulierung von Atomwaffen.

Was aus meiner Perspektive definitiv keine ausreichende Lösung darstellt, ist die Ethik. Mittlerweile gibt es in eine ganze Reihe von Militärstrategien – vor allem westlicher Staaten -, die ein freiwilliges Bekenntnis zum Leitbild eines verantwortungsvollen, erklärbaren und verlässlichen Einsatzes von KI vorsehen. Es ist aber weiterhin unklar, wie die ethischen Prinzipien im Kontext von LAWS eingehalten sowie umgesetzt und kontrolliert werden können.

Vor allem aber sollte Ethik nicht an die Stelle des Rechts treten. Genau diese Gefahr besteht aber. Wir sehen aktuell eine Delegitimierung etablierter internationaler Rechtsnormen seitens westlicher Staaten. Gleichzeitig beziehen sie sich auf Konzepte wie die „regelbasierte internationale Ordnung“, die sich je nach Interessenlage mit Inhalt füllen lassen. In diesem Kontext sollten wir auch die Rhetorik einer „Responsible AI in the Military Domain“ verstehen. Ethik wirkt hier eher ermöglichend als einschränkend.

Erika Dornbusch hat Politikwissenschaften studiert, einige Monate in Syrien gelebt und dort hauptsächlich über den IS geschrieben. Zurzeit arbeitet sie im Bevölkerungsschutz, kommt mit Ordnung jedoch schlechter als mit Chaos zurecht.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

30 Jahre online: Wie das Internet den Journalismus verändert hat

26. Juni 2025 um 18:06

Von Suchmaschinen über soziale Medien bis zu KI: Technische Entwicklungen haben den Journalismus im Netz immer wieder verändert und ihm Reichweite als zentrale Zielgröße aufgezwungen. Die Geschichte der Online-Medien muss deshalb auch als Geschichte vom Verlust der journalistischen Autonomie begriffen werden.

Ein altmodischer Maus-Cursor vor schwarzem Hintergrund
Klicks wurden zur wichtigsten Währung im Online-Journalismus – Gemeinfrei-ähnlich freigegeben durch unsplash.com Liam Briese

Derzeit häufen sich die 30. Geburtstage von Online-Auftritten überregionaler Traditionsmedien. Mit amüsierten Rückblicken auf steinzeitlich anmutende Technik, auf das kleine und eher kuriose Publikum oder die Frage, wer zuerst da war, feiern sie ihr Jubiläum in zahlreichen Texten. Was bei den Erzählungen außen vor bleibt: wie das Internet die Funktionsweise der Massenmedien selbst verändert hat.

Das Netz als Spielwiese und Geschäftsgelegenheit

Als sich das Internet mit Beginn der 1990er Jahre zunehmend kommerzialisiert, ist der Zeitgeist geprägt von Visionen der Entstaatlichung, die sich auch in die Konstruktion des digitalen Raumes einschreiben. Ohne Staat aber, das übersehen die Pionier*innen damals, kann niemand verhindern, dass Großunternehmen den Cyberspace kolonisieren. Das Internet ist schnell nicht mehr Versammlungsort einer Gegenkultur, sondern wird zur Geschäftsgelegenheit.

Die grenzenlose Kommodifizierung ist für viele Zeitgenossen kaum vorherzusehen – dafür bietet der neue Raum zu viele Möglichkeiten. Die deutschen Medien jedenfalls treten mit einem anderen Gefühl den Weg ins Netz an: Sie begeben sich auf eine Spielwiese. Die liegt in einer Gemeinde, der sogenannten Netzgemeinde. Dort ist es zwar nicht so beschaulich wie es heute klingt, in den frühen Foren geht es schon hoch her. Für die Journalist*innen ist sie aber vor allem ein Experimentierfeld, die Grenzen der eigenen Arbeit zu öffnen.

Anders als in der Rückschau oft behauptet, wird in dieser Frühphase des Online-Journalismus durchaus über dessen Finanzierung nachgedacht. Der erste „Spiegel Online“-Chef Uly Foerster etwa erzählt im Interview, dass er damals in der eigenen Anzeigenabteilung und bei Agenturen hausieren ging, um die Möglichkeiten von Internetwerbung auszuloten. Und Dirk Kuhlmann fragt in einer Studienarbeit für die TU Berlin 1995/96 die Zahlungsbereitschaft der ersten Online-Leser*innen der „taz“ ab – mit dem Ergebnis, dass jedenfalls ein Teil der Befragten bereit wäre, ein Abonnement zu beziehen und dafür zu bezahlen.

Der Zeitgeist ist aber ein anderer: Das kommerzielle Internet finanziert sich nicht über Abos, sondern über Werbung. Manch früher US-Onlinedienst wie etwa der Webhoster Tripod spielt sie schon damals passend zu Interessen und persönlichen Merkmalen aus. Weil aber selbst demografisch genaue Daten nur bedingt Rückschlüsse auf individuelle Konsuminteressen zulassen, funktioniert dieses Modell bereits in den 90ern vor allem mittels eines Faktors, die das Internet bis heute prägt: maximale Reichweite.

Wer den Dotcom-Boom überlebte, backte kleine Brötchen

Die Geschäftsgelegenheit Internet nimmt als Dotcom-Boom schnell Fahrt auf. In den späten 90ern provozierten bis dato oft unbekannte Unternehmen mit neuartigen Geschäftsideen immer höhere Gewinnerwartungen bei Anlegern und nährten teilweise mit kriminellen Konzepten eine Börsenblase. Ohne diese Phase lässt sich die Geschichte des Online-Journalismus nicht erzählen.

Zwar profitieren deutsche Medienunternehmen kaum von dem Hype – Werbekunden in Deutschland sind noch nicht auf das neue Anzeigenumfeld eingestellt, nur wenige Online-Medien verdienen wirklich Geld. Trotzdem zieht der Niedergang des Dotcom-Booms sie mit in den Abgrund. Nach dem Platzen der Blase im März 2000 geraten viele Medien unter Druck. Der Internet-Werbemarkt bricht vorübergehend ein und in den gerade erst aufgebauten Online-Redaktionen wird gekürzt. Der Online-Dienst Heise schreibt 2010 rückblickend: „Wer überlebte, backte fortan kleine Brötchen im Web 1.0.“

„Spiegel Online“ aber hat Glück: Kurz vor dem Crash habe er noch personell aufstocken können, erzählt Mathias Müller von Blumencron, der ab 2000 Chefredakteur des Nachrichtenportals ist. Die Zeit nach der geplatzten Blase sei der Redaktion aber „wie eine Ewigkeit vorgekommen“. Es habe nahezu keine Online-Werbung gegeben und große Skepsis in den Verlagen. Kurzum: Die Weiterentwicklung stockte.

Der 11. September und seine Folgen

Eine nachhaltige Depression bleibt dennoch aus. Zu schnell habe sich die Technologie weiterentwickelt, erinnert sich der Journalist Detlef Borchers im Gespräch. Aus den Nischeninteressen Computer und Internet wird ein Lifestyle-Thema, der digitale Raum entwickelt sich bald zum Massenphänomen. Der kollektive Schock, sofern er überhaupt so zu bezeichnen ist, weicht einer gemeinschaftlichen Euphorie über die neue Technik.

Als Durchbruch für den Online-Journalismus muss allerdings ein anderer Krisenmoment gelten: Die Terroranschläge auf das World Trade Center am 11. September. „Ab 2001 reichte es nicht mehr, nur die Tagesschau zu gucken“, so Borchers. In dieser Zeit stellt Google – gerade Marktführer geworden, bis dahin aber keineswegs die dominante Suchmaschine – manuelle Linklisten zu wichtigen Nachrichtenportalen auf seine Homepage. Auf der Startseite finden sich damals Verweise zu Medien aus aller Welt.

Zwar sind deren Web-Auftritte wie Radio und TV teilweise immer noch zu langsam, doch das Publikum ist jetzt da. In Kommentaren zum 30. Geburtstag von „Spiegel Online“ bezeichnen viele Leser*innen die Terroranschläge als Erweckungsmoment. In einem Rückblick von „welt.de“ heißt es: „Das Interesse der Nutzer an aktualisierten Nachrichten ließ in den folgenden Tagen und Monaten nicht nach.“

Bei vielen Medien gehen aber zeitweise die Server in die Knie, sie sind auf den Ansturm der Besucher*innen nicht vorbereitet. Möglicherweise ist dies mitentscheidend dafür, dass Suchmaschinen sich zur ersten Anlaufstelle für Informationen im Netz entwickeln können. Journalist Detlef Borchers jedenfalls macht die Anschläge auf das World Trade Center für den Aufstieg der heute größten Suchmaschine verantwortlich: Google habe damals besser reagiert als viele Zeitungen. Die Suchmaschine blieb in dieser entscheidenden Situation immer erreichbar und machte sich so zum gern genutzten Startfenster für das Web.

Google und Online-Journalismus wären beide als Erfolgsmodell ohne den jeweils anderen zwar vorstellbar, die Geschichte hat sie aber aneinander gebunden. Das erste Mal seit der Mondlandung entstand in der sogenannten westlichen Welt ein Informationsbedürfnis, das von einem Augenblick auf den anderen von einer bis dahin kaum verbreiteten Technologie erfüllt werden konnte: damals war es das Fernsehen, für 9/11 ist es das Internet.

Das Diktat der Suchmaschine

Trotz des wachsenden Publikums läuft das Online-Geschäft der Medien nach dem Dotcom-Crash noch einige Zeit schlecht. Ein wesentlicher Grund ist die Werbeflaute: Noch im Jahr 2000 sagt eine Studie des Prognos-Instituts Netto-Werbeeinnahmen von 944 Millionen Euro auf dem Online-Werbemarkt voraus, real sind es dann nur 246 Millionen – eine Fehlermarge von 380 Prozent.

2003 beginnt es aber zumindest bei „Spiegel Online“ aufwärts zu gehen. Ab da, so erinnert es der damalige Chef Blumencron, habe die Werbeindustrie das Netz entdeckt. Natürlich seien die Online-Geschichten nicht so tief recherchiert gewesen wie jene der Printausgabe. Für das auf Papier nur wöchentlich erscheinende Nachrichtenmagazin ist das tagesaktuelle Geschäft im Netz ohnehin Neuland. „Vieles waren aufgehübschte Agenturmeldungen mit einigen eigenen Gedanken und schnellen Rechercheergebnissen“, so Blumencron. Mit der Zeit habe sich aber eine Mischung aus Geschwindigkeit und zunehmender Hintergrundberichterstattung entwickelt.

Die Tageszeitungsverlage spiegeln da im Netz noch hauptsächlich ihr Programm aus dem Druckprodukt. Ein Glücksfall für „Spiegel Online“, meint Blumencron: „Wir dachten immer: Wie wird uns wohl geschehen, wenn die ihre Redaktionen auf die Digitalplattformen bringen? Dann würden wir untergehen, weil wir gar nicht so schnell analysieren und kommentieren können wie die. Das haben die aber glücklicherweise alle nicht gemacht, weil sie nicht an das Internet geglaubt haben, fünf, sechs, sieben Jahre lang.“ Das sei das große Geschenk der deutschen Zeitungsverleger an den Magazin-Gründer Rudolf Augstein gewesen.

Mehr noch als Augsteins Medienhaus profitiert aber Google. Über die Suchmaschine lassen sich Reichweiten realisieren, die mit einem gedruckten Magazin kaum vorstellbar wären. Dies verspricht dem Verlag neue Erfolge, gibt dem US-Konzern aber zunehmend Macht darüber, wie publiziert wird: Bei „Spiegel Online“ beobachtet die Redaktion, dass 15 bis 20 Prozent der Leserschaft über Google kommt und will den Effekt verstärken. Das funktioniert damals schon mit einer gewissen Boulevardisierung, also etwa der Verwendung emotionalisierender Reizwörter, und mit Überschriften und Text-Snippets, die an die Erfordernisse der Suchmaschine angepasst sind. Zwischen verschiedenen Nachrichtenportalen entsteht ein Wettbewerb um die besten Plätze in den Suchergebnissen, der eine fortlaufende Verschärfung dieser Methoden verlangt.

Google war am geschicktesten

„Das war auch ein bisschen schizophren, aber so ist es nunmal gewesen“, sagt Blumencron. Was er meint: Mit dieser Denkweise bekommt Googles Geschäftsmodell Auftrieb, weil die Online-Redaktionen mehr oder weniger alle diesen Weg gehen und den Mechanismen der Suchmaschine weiter entgegenkommen. Letztlich geht das auf Kosten der Verlage, die sich online zunehmend vom Gutdünken des Konzerns abhängig machen und der Suchmaschine gleichzeitig mit ihren wertvollen Inhalten Nutzer*innen und Klicks auf eigene Werbeanzeigen bescheren. Blumencron sagt aber auch: „Google hat es einfach am geschicktesten gemacht. Ein Internet, in dem sich zunehmend Chaos ausbreitete, wäre ohne Findemechanismus Chaos geblieben.“

Im Jahr 2004 nutzen 74 Prozent der Deutschen Suchmaschinen als wichtigsten Zugang zu Informationen im Netz, Google hält bereits 70 Prozent Marktanteil – eine Monopolstellung, die im Printgeschäft undenkbar wäre. Noch 2005 sieht das Bundeskartellamt in Google aber keinen relevanten Werbemarktakteur und traut dem Internet keine bedeutende Rolle im Mediengeschäft zu, erinnert sich Springer-Chef Mathias Döpfner Jahre später in einem Artikel. Google kann seine Vormachtstellung in der Folge weiter ausbauen.

2009 sagt der damalige CEO Eric Schmidt in bemerkenswert selbstbewussten Worten: „Wir haben entschieden, dass Reichweite der Wert ist, den wir unseren Partnern zur Verfügung stellen.“ Eine folgenschwere Entscheidung für den Journalismus. Neben dem Werbemarkt funktioniert nun also auch die Distribution der Inhalte nach dem Muster „Hauptsache mehr!“. In dem von Blumencron als widersprüchlich beschriebenen Denkmuster, den Verlockungen einer messbar wachsenden Leser*innenschaft zu erliegen, verschiebt sich das Verständnis der Redaktionen darüber, was relevant ist. Lässt sich Erfolg in Zahlen ausdrücken, rücken qualitative Kriterien im hektischen Tagesgeschäft schnell in den Hintergrund – deren Analyse ist schließlich ungleich aufwendiger.

Man könnte wohl von einer metrischen Deformation des kritischen Geistes sprechen, die sich seither in der Arbeitsweise von Journalist*innen vollzieht. Denn diese Rationalität folgt keiner journalistischen Maxime, sondern dem Geschäftsmodell der Suchmaschine.

Reichweite als zentrale Maxime im Social Web

Diese Logik setzt sich auch im zweiten, dem sogenannten Social Web fort. Den Medien erscheint es aber erst einmal wieder als neuer Möglichkeitsraum. Im Interview formuliert der frühere „Bild“-Chefredakteur Kai Diekmann den damals geltenden Branchenkonsens, neue Technologien gelte es zu umarmen. Bei einem Expertengespräch zur „Zukunft des Qualitätsjournalismus“ im Kulturausschusses des Bundestags Anfang 2011 hält es Katharina Borchert, zu jener Zeit Geschäftsführerin von Spiegel Online, für „extrem wichtig“, nicht auf die großen Player wie Google und Facebook zu schimpfen, „sondern ganz im Gegenteil sich Gedanken zu machen, wie wir alle von ihnen profitieren können, denn die meisten von uns profitieren im großen Ausmaß bereits davon.“

Tatsächlich sorgen die Begegnungsmöglichkeiten mit dem Publikum im Web 2.0 anfangs auch für Lichtstreife. Der Ton aber, das berichten Pionier*innen des Social Media-Journalismus, ist vor allem auf Facebook rau. Schnell ist klar: Seriös moderieren lässt sich das nicht. Dazu kommen sich verändernde Voraussetzungen bei den Plattformen: Die Algorithmen werden komplexer und bewirtschaften zunehmend Affekte.

Wieder stellt sich die Frage, wie eigentlich Geld mit diesen neuen Kanälen verdient werden könnte. Die Redaktionen müssen teils selbst nach Argumenten suchen. Wesentlich ist dabei wieder der Traffic – also die Zahl der Rezipient*innen, die über einen Link auf der Plattform auf die Nachrichtenseite kommen. Die Reichweiten-Logik verstetigt sich: Viel hilft viel und ist sowieso fast die einzige Möglichkeit, im Internet Geld zu verdienen.

Journalistische Inhalte müssen dafür an eine zunehmend affektgetriebene Unterhaltungslogik angepasst werden, um in der Mechanik der Algorithmen bestehen zu können – zuerst in der Themenauswahl, dann ihrer Darstellung und schließlich rückwirkend im Denken der Redaktionen, deren Aufgabe es ist, erfolgreich im Sinne von weitreichend diese Kanäle zu bespielen.

„In den sozialen Medien kommt es zu mehr Wechselwirkungen, Journalist*innen lernen über das erhaltene Feedback zu ihren Postings auch, welche Inhalte sich auf der Plattform leichter popularisieren“, beschrieben es kürzlich die Kommunikationswissenschaftler Jonas Schützeneder und Christian Nuernbergk. Wenn der Erfolg in Reichweite gemessen wird, dann wird die dazu passende Auswahl der Inhalte zweckrational – wer will schon nicht erfolgreich sein?

Auch das Publikum wird quantifiziert

Während die Redaktionen sich den fortlaufend verändernden sozialen Netzwerken anzupassen versuchen, ficht Springer-CEO Döpfner, der damals auch Präsident des Zeitungsverlegerverbandes ist, im Frühjahr 2014 ein Distanzduell mit Google-Verwaltungsrat Eric Schmidt: „Wir haben Angst vor Google“, schreibt er damals. „Ich muss das einmal so klar sagen, denn es traut sich kaum einer meiner Kollegen, dies öffentlich zu tun.“

Freiwillige Selbstunterwerfung könne nicht das letzte Wort der Alten Welt gewesen sein, so Döpfner, immerhin selbst Milliardär und Lenker eines global operierenden Konzerns. Wie Blumencron für den Spiegel beschreibt auch er das Verhältnis zu dem Tech-Konzern als schizophren: Leser*innen hätten das jedenfalls so interpretiert, weil Springer Google für die eigene Vermarktung nutze und gleichzeitig verklage. Niemand in der Verlagsbranche könne ohne Google auskommen, so Döpfner.

Reichweite hat sich da längst plattformübergreifend als zentrale Erfolgsgröße durchgesetzt. Am Ende sei der Traffic für den Spiegel nicht über das journalistisch attraktive Twitter, sondern über das journalistisch unerquickliche Facebook gekommen, erinnert Maike Haselmann, die erste Social Media-Redakteurin des „Spiegel“.

In klassischen Printredaktionen stößt die Transformation mit ihren metrischen Analysemöglichkeiten auf Widerstände. Es liegt schließlich eine intellektuelle Abwertung darin: Der Erfolg von Beiträgen bemisst sich nicht mehr in Reaktionen aus der Politik oder in der inhaltlichen Auseinandersetzung in Leser*innenbriefen, sondern in Zahlen, die wenig Deutung zulassen. In einem Berufsbild, das sich über die Qualität der eigenen Deutungskraft definiert, muss das beinahe notwendig befremden.

Auch die Rückmeldung des Publikums wird quantifiziert: Statt den Leser*innen intensiver zu begegnen, wie es das Web 2.0 versprach, wird deren menschliche Regung (oder Erregung) als Reaktion auf einen Beitrag neutralisiert, weil ihre quantitative Messung nichts über den emotionalen Aggregatzustand der Rezeption aussagt. Ein Text könnte große Reichweite gerade deshalb erzielt haben, weil er besonders schlecht ist.

Die Angst der Medien, abgehängt zu werden

Als im Oktober 2022 mit ChatGPT das erste große Sprachmodell für die breite Öffentlichkeit an den Start geht und der Anbieter OpenAI die Konkurrenz überrumpelt, wird der Hype in Massenmedien genährt. Im „Spiegel“ heißt es: „Aber OpenAI ist schneller. Einige sagen: schneller und fahrlässiger, denn ChatGPT spuckt jede Menge Unsinn aus. Binnen weniger Monate nutzen hundert Millionen Menschen ChatGPT. Die Flasche ist geöffnet. Hype ist eine Untertreibung für das, was nun folgt.“

Wieder entsteht das Gefühl einer Spielwiese, in den Verlagen und Redaktionen wird überlegt, wie man sich die Technologie nützlich machen könnte. Das ist weniger naiv als in den 90ern und auch vom Web 2.0 will man gelernt haben. Aus der Erfahrung aber, das Internet schon mal verpasst zu haben, hat sich in vielen Medienhäusern die Angst festgesetzt, sie könnten den Anschluss verlieren. Die Tech-Konzerne wissen darum und spielen mit dieser Sorge. Sie bewerben ihre neuen Produkte gezielt und bauen mit ihren Erzählungen Druck auf, neue Entwicklungen nicht zu verpassen. Befragungen von Medienwissenschaftler*innen zeigen: Dieser Druck kommt in den Redaktionen an.

Zehn Jahre nach seinem Brief an Eric Schmidt schreibt Mathias Döpfner, weshalb er Google nicht mehr fürchte: Bis auf Weiteres habe der Konzern auf ganzer Linie gewonnen. Weil der Springer-Chef – dem es natürlich immer und gerade auch um das eigene Geschäft geht – in seinem Text von 2014 über die Abhängigkeit journalistischer Medien von der Suchmaschine schreibt, bedeutet diese Niederlage auch: Selbstbestimmung ist verloren gegangen. Andere sprechen von einem Zwang zur Unterwerfung.

Google verändert derweil die Erzählung der Reichweite als Wert für die Partner in etwas Feindseligeres. Vor dem Hintergrund des Urheberrechtsstreits mit den Medien veröffentlicht der Konzern im März 2025 einen Report über ein Experiment in Europa. Einem Teil der Nutzer*innen sind in der Suche keine Inhalte von Qualitätsmedien mehr ausgespielt wurden, um so deren Wert für das eigene Geschäft zu taxieren. Wenig überraschend kommt Google zu dem vorteilhaften Ergebnis, dass sich für die Suchmaschine wenig bis nichts ändere, wenn man keine Nachrichteninhalte mehr findet.

Die Botschaft ist klar: Es gibt nichts zu verteilen, wenn Google selbst nichts mit journalistischen Inhalten verdient. Was im Bericht zur Randnotiz verkommt: Die Anfragen bei Google News – also nach hochwertigen journalistischen Informationen – sind im untersuchten Zeitraum deutlich angestiegen.

KI-Zusammenfassungen ersetzen Suchergebnisse

Währenddessen vollzieht sich gerade ein Paradigmenwechsel, der das Ende vom Wert der Reichweite einläutet: KI-Zusammenfassungen ersetzen Suchergebnisse. Damit schwindet der Anlass, die Suchmaschine überhaupt noch zu verlassen. Viele Verlage berichten von einbrechendem Traffic. Nachrichtensuchen nimmt Google bislang zwar der neuen Funktion aus; was eine Nachrichtensuche ist, entscheidet der Konzern aber selbst.

Diese Entwicklung ist seit etwa zwei Jahren abzusehen gewesen. Neue Ideen für die künftige Finanzierung des Online-Journalismus gibt es aber noch nicht. Das zentrale Muster wiederholt sich: Vor allem Google hat viel Geld damit verdient, in der Nachrichtensuche journalistische Inhalte zu verteilen. Die KI-Anbieter versuchen das nun, indem sie ihre Modelle damit trainieren. In der analogen Welt würde man wohl von Hehlerei sprechen.

Zwar haben die Verlage mit Bezahlschranken ein weiteres Standbein entwickelt, das sie ein wenig vor diesen Entwicklungen schützt. Es reicht aber nicht, um auf die Plattformen verzichten zu können. Das gilt insbesondere für Regional- und Lokaltitel. Selbst große Traditionshäuser wie die Rheinische Post oder die Stuttgarter Zeitung verharren mit etwa 25.000 respektive 10.000 Online-Abos seit längerem bei einer Zahl, die ihr Überleben nicht sichern kann.

Schon 1982 schrieb Medienwissenschaftler Siegfried Weischenberg: „Für den Journalismus ist die Technik konstituierend. Der Beruf entstand auf der Grundlage von technisch-ökonomischen Umwälzungen.“ Solche Umwälzungen bringen schließlich herausragende Informationsbedürfnisse hervor, die Gesellschaften als ganze betreffen. Daraus ergibt sich aber ein Spannungsfeld für den Journalismus. Weil er selbst betroffen ist, fehlt ihm bisweilen die kritische Distanz in der Bewertung neuer Technologien. Und während er sie mit Hypes groß macht, fällt er ihnen zum Opfer.


Jann-Luca Künßberg ist Journalist und Autor. Er hat für Medien wie die taz, T-Online und den Südkurier geschrieben und für verschiedene Anstalten des öffentlich-rechtlichen Rundfunks gearbeitet.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

AI Act: Wie die Ausnahmen in der KI-Verordnung landeten

Anfang Februar 2025 gelten die ersten Regel aus dem AI Act. Das Gesetz soll die Gefahren sogenannter Künstlicher Intelligenz eindämmen. Tatsächlich enthält es zahlreiche Ausnahmen. Vor allem Frankreich verhandelte Schlupflöcher mit potenziell weitreichenden Folgen für Europas Grundrechte.

Fotomontage, u.a. mit Emmanuel Macron, einer Überwachungskamera und einer EU-Flagge
Frankreich spielte bei den Ausnahmen im AI Act eine zentrale Rolle. – Alle Rechte vorbehalten Spoovio/Georgina Choleva für Investigate Europe

Dieser Artikel wurde von dem Journalistenteam Investigate Europe recherchiert, das aus Reporterinnen und Reportern aus elf europäischen Staaten besteht. Die Recherche wird gemeinsam mit Medienpartnern wie Disclose (Frankreich), EU Observer (Belgien), Il Fatto Quotidiano (Italien), InfoLibre (Spanien), Publico (Portugal) und Efsyn (Griechenland) veröffentlicht.

Ab dem 2. Februar 2025 sind KI-Systeme, die ein unannehmbares Risiko darstellen, in der EU verboten. Das ist im AI Act, der europäischen KI-Verordnung, geregelt. Die ersten dieser Regeln werden bald gültig, bei anderen dauert es noch etwas. Aber der AI Act enthält Ausnahmen und Schlupflöcher. Deshalb dürfen etwa Strafverfolgungsbehörden weiter Gesichtserkennung auf Videoüberwachungsbilder anwenden und an der Grenze dürfen automatisiert die mutmaßlichen Emotionen von Geflüchteten ermittelt werden. Das sind nur einige der Punkte, die die EU-Staaten in den europäischen AI Act hineinverhandelt haben. Dabei sollte das Gesetz eigentlich die zahlreichen Grundrechtsbedenken beim Einsatz von KI-Systemen ausräumen.

Grund für die Ausnahmen ist unter anderem die geheime Lobbyarbeit Frankreichs und anderer EU-Staaten. Das zeigen interne Dokumente aus den Verhandlungen, die Investigate Europe vorliegen. Sie zeichnen ein Bild von Gesprächen, in denen es den Mitgliedstaaten gelang, den Gesetzestext zu verwässern und damit Polizei und Grenzschützern die Möglichkeit zu geben, Bürgerinnen und Bürger heimlich zu überwachen.

Ausnahmen für die „nationale Sicherheit“

„Eine Reihe von bürokratischen Schlupflöchern führt dazu, dass der AI Act nicht das Gesetz zum Schutz der Menschenrechte ist, auf das viele gehofft hatten“, sagt die Direktorin der Brüsseler Nichtregierungsorganisation Equinox, Sarah Chander, die sich gegen rassistische Diskriminierung einsetzt. „In Wirklichkeit ist der AI Act ein industriefreundliches Instrument, das den europäischen KI-Markt schnell voranbringen und den öffentlichen Dienst digitalisieren soll.“

Für die Recherche konnte Investigate Europe mehr als 100 Dokumente aus den Sitzungen des COREPER-Ausschusses sichten, in dem sich die ständigen Vertreter:innen der 27 Mitgliedstaaten treffen. Sie bereiten die Sitzungen des Rats der EU vor. Die Journalistinnen und Journalisten konnten auch mit mehreren Personen sprechen, die an den Verhandlungen beteiligt waren. Sie zeigen, wie Frankreich strategische Änderungen im Gesetzestext durchsetzen konnte.

Das KI-Gesetz verbietet den Einsatz von Gesichtserkennungssystemen im öffentlichen Raum. Ausnahmen, die von der Regierung Macron und ihren Unterstützern in das Gesetz hineinverhandelt wurden, ermöglichen es jedoch, dass Strafverfolgungsbehörden und Grenzschutzbeamte sich nicht immer an dieses Verbot halten müssen. Dies könnte beispielsweise dazu führen, dass Klimademonstrationen oder politische Proteste mit Hilfe von KI überwacht werden, wenn die Behörden eine Gefährdung der „nationalen Sicherheit“ befürchten.

Harter Kampf um Gesichtserkennung

In einer COREPER-Sitzung im November 2022 brachte der französische Verhandlungsführer die Wünsche seiner Regierung unmissverständlich zum Ausdruck. Er habe gefordert, dass „die Ausnahme von Sicherheit und Verteidigung vom Anwendungsbereich unbedingt beibehalten werden muss“, heißt es in einem Protokoll der Sitzung. Damit bezog er sich auf eine Passage im damaligen Gesetzentwurf, laut der nur das Militär Echtzeit-Gesichtserkennung im öffentlichen Raum einsetzen dürfen sollte. In einer späteren Sitzung unterstützten mehrere Staaten die französische Forderung, darunter Italien, Schweden, Finnland, Tschechien, Litauen, Rumänien, Ungarn und Bulgarien.

„Das war einer der härtesten Kämpfe, den wir am Ende verloren haben“, erinnert sich einer der Verhandlungsführer im Gespräch mit Investigate Europe, der seinen Namen nicht in diesem Bericht lesen möchte. Die endgültige Fassung des Gesetzes erlaubt es Staaten, Überwachungstechnologien einzusetzen, wenn es um die nationalen Sicherheit geht.

In der Praxis könnten sich dank dieser Regelung auch private Unternehmen sowie Drittstaaten an der Überwachung von EU-Bürgern beteiligen, wenn sie den Sicherheitsbehörden des Landes KI-Technologie zur Verfügung stellen. Das Gesetz sieht vor, dass die Überwachung zulässig ist – „unabhängig von der Art der Einrichtung, die diese Tätigkeiten ausübt“.

Schlupfloch für private Unternehmen

„Dieser Artikel verstößt gegen jede Verfassung, gegen die Grundrechte und gegen europäisches Recht“, sagt ein Jurist der konservativen EVP-Fraktion im Europäischen Parlament im Gespräch mit Investigate Europe. „Frankreich könnte zum Beispiel die chinesische Regierung bitten, mit ihren Satelliten Fotos zu machen und diese an die französische Regierung zu verkaufen.“

Die Ausnahme widerspreche auch Urteilen des Europäischen Gerichtshofs, sagt die Rechtswissenschaftlerin Plixavra Vogiatzoglou von der Universität Amsterdam. In den Jahren 2020 und 2022 hatten die Luxemburger Richter geurteilt, dass französische Telekommunikationskonzerne gegen EU-Recht verstoßen hätten, weil sie Daten aus Gründen der nationalen Sicherheit gespeichert hätten. Vogiatzoglou: „Der EU-Gerichtshof hat gesagt, dass private Unternehmen nicht vom EU-Recht ausgenommen sind, auch wenn sie in Fragen der nationalen Sicherheit involviert sind.“

Auch außerhalb der Ratsverhandlungen hat Frankreich in den vergangenen Jahren auf den Einsatz von Überwachungstechnologien gedrängt. So genehmigte das Verfassungsgericht des Landes im Mai 2023 den Einsatz von KI-Systemen zur Videoüberwachung während der Olympischen Spiele in Paris. Diese Maßnahme wurde von Amnesty International als „ernsthafte Bedrohung für bürgerliche Freiheiten und demokratische Prinzipien“ kritisiert. In Zukunft könnte diese Ausnahme zur Regel werden.

Emotionserkennung an der Grenze erlaubt

Ab dem 2. Februar außerdem verboten sind KI-Systeme zur Emotionserkennung am Arbeitsplatz, in Schulen und Universitäten. Außerdem dürfen Unternehmen die Technologie nicht nutzen, um das Verhalten potenzieller Kunden in ihren Geschäften zu analysieren. Auch Arbeitgeber dürfen sie nicht einsetzen, um festzustellen, ob ihre Mitarbeiter zufrieden oder traurig sind. Dank des Einsatzes Frankreichs und anderer EU-Länder dürfen Sicherheitsbehörden und Grenzschützer die Systeme künftig jedoch nutzen.

Bei einer Verhandlungssitzung von COREPER am 29. November 2023 betonte der dänische Vertreter, dass ein Verbot „verhältnismäßig sein muss und nur dann gelten darf, wenn die Gefahr einer Diskriminierung besteht“. Die Niederlande, Portugal und die Slowakei vertraten bei dem Treffen eine ähnliche Position und äußerten sich kritisch zu einer Ausweitung des Verbots auf die Strafverfolgung.

Eine weitere umstrittene Anwendung von KI sind biometrische Kategorisierungssysteme. Deren Betreiber versprechen, damit die ethnische Zugehörigkeit oder sogar die sexuelle Orientierung einer Person bestimmen zu können. Das neue EU-Gesetz verbietet zwar ihren Einsatz, aber hier gibt es ebenfalls eine Ausnahme für Strafverfolgungsbehörden: „Dieses Verbot erstreckt sich nicht auf die Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze … auf der Grundlage biometrischer Daten oder auf die Kategorisierung biometrischer Daten“.

Auch hier war es Frankreich, das die Beschränkungen des AI Act aufweichte. In einem schriftlichen Kommentar zum Gesetzentwurf schrieben die französischen Verhandlungsführer am 24. November 2023, es sei „sehr wichtig, die Suche nach einer Person zu ermöglichen, … die ihre religiösen oder politischen Ansichten zum Ausdruck bringt und beispielsweise ein Abzeichen trägt, wenn diese Person in gewalttätigen Extremismus verwickelt ist oder ein terroristisches Risiko darstellt“.

Gesichtserkennungssoftware kann in Echtzeit eingesetzt werden, wenn dies für die Strafverfolgungsbehörden „unbedingt erforderlich“ ist. Die Polizei kann die Technologie bei Ermittlungen zu 16 bestimmten Straftaten einsetzen, darunter „Umweltkriminalität“. Mehrere Staaten drängten darauf, die Liste um Dutzende von Straftaten zu erweitern. Aus dem Protokoll einer COREPER-Sitzung vom November 2023 geht hervor, dass Frankreich auf eine Ausweitung des Anwendungsbereichs drängte. Unterstützt wurde es dabei von den Vertreter:innen aus Italien, Zypern, Estland, Lettland, Bulgarien und Ungarn.

In derselben Verhandlungssitzung forderte der griechische Vertreter, dass Gefängnisse und Grenzgebiete ausdrücklich von jeglichem Verbot ausgenommen werden sollten. Vielmehr sollten die Behörden die Möglichkeit haben, Bürger und Geflüchtete mit Echtzeit-Überwachungstechnologie zu überwachen.

„Ende der Anonymität“

Mit biometrischen Systemen könnten Millionen von Gesichtern überwacht und mit nationalen Datenbanken abgeglichen werden, um Personen zu identifizieren. Der Einsatz dieser Technologie im öffentlichen Raum würde „das Ende der Anonymität an diesen Orten“ bedeuten, warnte bereits 2020 European Digital Rights. Zivilgesellschaftliche Organisationen warnen seit langem davor, dass der AI Act die Grundrechte in Europa massiv einschränken könnte.

„Wir leben in einem Klima, in dem unsere Regierungen auf immer mehr Ressourcen, Gesetze und Technologien drängen, um Menschen in ihrem Alltag leichter zu überwachen, zu kontrollieren und zu bestrafen“, sagt die Gründerin der Brüsseler Anti-Rassismus-Organisation Equinox, Sarah Chander. „Wir entfernen uns immer weiter von einer Zukunft, in der die wir unsere Ressourcen für soziale Vorsorge und Schutz ausgeben statt für Überwachungstechnologie.“

Als am 6. Dezember 2023 die letzte Verhandlungsrunde zwischen Rat, Parlament und Kommission über die endgültige Fassung des AI Act begann, drängte die spanische Ratspräsidentschaft darauf, den Gesetzestext noch vor den Europawahlen im Juni 2024 zu verabschieden. Offenbar fürchteten die spanischen Diplomaten das Erstarken rechtsradikaler Parteien. Ein Beamter, der an den Gesprächen teilnahm und um Anonymität bat, berichtete Investigate Europe, dass die Unterhändler eineinhalb Tage lang verhandelten. „Wir waren erschöpft, und erst nach einer durchverhandelten Nacht begannen wir um 6 Uhr morgens, über Verbote zu sprechen“, erinnert er sich heute. „Am Ende haben wir erreicht, dass jedes Produkt von einer unabhängigen nationalen Behörde zugelassen werden muss.“

Selbstzertifizierung möglich

Der Einsatz sogenannter Hochrisikotechnologien wie Echtzeitüberwachung ist an bestimmte Bedingungen geknüpft, darunter ein Gerichtsbeschluss, die Registrierung in einer europäischen Datenbank und eine Folgenabschätzung zur Wahrung der Grundrechte. Doch auch hier wurden die strengen Regeln in den Verhandlungen teilweise aufgeweicht. So fügten die Verhandlungsführer dem Gesetz einen Artikel hinzu, der es Unternehmen erlaubt, eine Selbstzertifizierung auszufüllen und damit zu entscheiden, ob es sich bei ihrem Produkt um eine Hochrisikotechnologie handelt oder nicht.

Investigate Europe liegt ein internes Arbeitspapier des juristischen Dienstes des Europäischen Parlaments vor, das diese Lösung in Frage stellt. „Den Unternehmen wird ein hohes Maß an Subjektivität überlassen, was im Widerspruch zum Ziel des AI Act steht, das Risiko von Hochrisiko-KI-Systemen zu regulieren.“

Tatsächlich dürften die Verhandlungspartner auch von dem Interesse getrieben gewesen sein, ihre eigenen Wirtschaftsunternehmen zu schützen. Die Regierung Macron warnte in einer Verhandlungsrunde am 15. November 2023, dass ohne einen breiten Einsatz von KI-Technologien „die Gefahr besteht, dass Unternehmen ihre Aktivitäten in Regionen verlagern, in denen Grundrechte keine Rolle spielen“.

Konkrete Auswirkungen noch nicht absehbar

Es bleibt abzuwarten, inwieweit die Mitgliedstaaten die Ausnahmen nutzen werden. Der niederländische Anwalt für digitale Rechte, Anton Ekker, glaubt, dass die Ausnahmen in der Praxis kaum Auswirkungen haben werden. „Ich bin sehr kritisch, wenn ein Staat Algorithmen einsetzt. Aber zu sagen, dass alles erlaubt ist, weil es Ausnahmen gibt, ist nicht richtig“, sagte er in einem Interview mit Investigate Europe. „Es gibt viele nationale Verfassungen, die Grundrechte schützen.“

Professorin Rosamunde van Brakel forscht an der Vrije Universiteit Brüssel zu ethischen Fragen rund um den Einsatz von KI. Sie befürchtet, dass das Gesetz Betroffenen kaum helfen wird. „In den meisten Fällen greifen Regulierung und Aufsicht erst, nachdem es zu einem Verstoß gekommen ist. Vorher schützen sie uns nicht“, sagt sie. „Außerdem betreffen KI-Anwendungen im öffentlichen Sektor oft schutzbedürftige Bevölkerungsgruppen, die nicht in der Lage sind, eine Beschwerde einzureichen oder darauf zu vertrauen, dass eine Beschwerde ernst genommen wird.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

EDMO: Plattformbeobachter mit großer Plattformnähe

01. Februar 2022 um 08:58
Illustration: Hand hält ein großes Teleskop
Wer beobachtet wen für wen? – Alle Rechte vorbehalten IMAGO / Ikon Images

Eine Stelle, die im Auftrag der EU das Vorgehen von Facebook und Google gegen Desinformationen beobachten soll, hat zahlreiche Verbindungen zu den Technologiekonzernen. Das ist das Ergebnis einer Recherche von Investigate Europe und netzpolitik.org. Die EU-Kommission initiierte im Juni 2020 die Europäische Beobachtungsstelle für digitale Medien (EDMO). An dieser sind laut der Recherche ein ehemaliger Facebook-Manager beteiligt sowie mehrere Organisationen, die von Google finanziert werden. Nun warnen Kritiker, dass die Nähe zu den Plattformen die Arbeit der Beobachtungsstelle beeinflussen könnte. EDMO soll im Auftrag der EU unter anderem beobachten, wie die Plattformen den EU-Verhaltenskodex für Desinformation umsetzen.

Von den 25 Personen im Vorstand sowie im Aufsichtsrat haben elf direkte Verbindungen zu großen Techfirmen. Darunter sind Akademikerinnen und Journalisten, deren Arbeitgeber von Plattformen wie Google oder Facebook finanziell unterstützt werden. In den Gremien arbeiten mehrere Hochschulprofessorinnen, die von den Konzernen Zuschüsse für ihre Lehrstühle und Forschungsprojekte erhalten. Zwei Personen in der EDMO-Führung haben in den vergangenen Jahren sogar unmittelbar für die Tech-Konzerne gewirkt – als Lobbyisten.

Bevor er Mitglied des EDMO-Vorstands wurde, reiste Richard Allan von 2009 bis 2019 als Facebooks Cheflobbyist durch Europa. Bereits 2019 konnte Investigate Europe dokumentieren, dass Allan Druck auf EU-Experten ausgeübt haben soll, die sich für einen strikteren Umgang mit den Plattformen einsetzten. Heute kümmert sich der Brite Nick Clegg um die Interessen Facebooks in Europa als „Vizepräsident für Globale Angelegenheiten. Clegg und der heutige EDMO-Vorstand Allan sind politische Verbündete.

Neben ihrer Tätigkeit als Vorsitzende des EDMO-Aufsichtsrats arbeitet Madeleine de Cock Buning als „Vizepräsidentin Public Policy“ für Netflix. Desinformationen haben für Netflix bisher nur eine nebensächliche Rolle gespielt. Den Verhaltenskodex der EU hat Netflix bisher nicht unterzeichnet.

Drehtüren und befürchtete Interessenskonflikte

Es verstoße gegen die Regeln der guten Organisationsführungen, dass Allan und de Cocking Buning trotz ihrer Nähe zu den Plattformen in der EDMO-Führung arbeiten, kritisieren mehrere Experten im Gespräch mit Investigate Europe und Netzpolitik.org.

„Eine Beobachtungsstelle darf nicht von Personen betrieben werben, die eng mit jenen verbunden sind, die sie beobachten sollen“, sagt die Leiterin des europäischen Verbraucherschutzverbandes BEUC, Monique Goyens. Richard Allans Wechsel von Facebook zur Beobachtsstelle verlief „nahtlos“. Das sei „ein klassisches Beispiel für den Drehtür-Effekt“.

„Personen, die so eng mit der Wirtschaft verbandelt sind, können nicht als unabhängig gelten“, sagt die Lobbyexpertin der Brüsseler Transparenzorganisation Corporate Europe Observatory, Vicky Chase. „Wer für die Technologiekonzerne arbeitet oder von ihnen finanzielle Mittel erhält, sollte nicht Teil einer Organisation wie EDMO sein.“ Laut Chase liegen „eindeutige Interessenskonflikte“ vor.

Neben EDMO hat die EU-Kommission auch den Verband nationaler Regulierungsbehörden (ERGA) damit beauftragt zu prüfen, ob die Technologiekonzerne den Verhaltenskodex einhalten. Anders als bei EDMO können sich bei ERGA nur Organisationen beteiligen, die ausschließlich mit öffentlichen Mitteln finanziert werden.

ERGA und EDMO

Der Leiter der Desinformationsabteilung bei ERGA, Lubos Kuklis, fordert Transparenz von der Beobachtungsstelle. „Es muss offengelegt werden, wer wieviel Geld von den Plattformen erhält“, sagt Kuklis. Ihm sei bisher kein Fall bekannt, den er als „unzulässige Einmischung der Plattformen“ werten würde. Falls es aber dazu komme, werde er es „nicht einfach hinnehmen“, sagt Kuklis.

Andere sehen die Nähe zwischen EDMO-Führung und den Plattformen weniger problematisch. Wie Netflix-Lobbyistin Madeleine de Cock Buning ist auch Sally Reynolds Teil des Aufsichtsrats der Beobachtungsstelle. Dass Personen in der EDMO-Führung Lebensläufen wie die von Allan oder de Cock Buning haben, sei für sie verständlich. „Sie wollen doch nicht, dass Leute über Desinformation sprechen, die nur Ahnung von der Fischerei haben“, sagt Reynolds im Gespräch mit Investigate Europe. Allan und de Cock Buning hätten eine „Meinung“. Reynolds sagt: „Das wird von ihnen erwartet“.

In einer Stellungnahme teilt EDMO mit, dass die Führung der Beobachtungsstelle alle Interessensgruppen repräsentieren solle. Der frühere Facebook-Lobbyist Richard Allan sei Teil des Vorstandes, weil er Erfahrung darin habe, mit der EU zu arbeiten. Die EDMO-Satzung enthalte zudem Vorkehrungen, um potenzielle Interessenskonflikte zu verhindern. Investigate Europe kontaktierte auch Allan und de Cock Buning. Beide verzichteten auf eine Stellungnahme.

Ein Netzwerk aus Plattform-Profiteuren

Auf dem Papier wird EDMO ausschließlich von der EU finanziert. Die Beobachtungsstelle selbst erhält 2,5 Millionen Euro Fördergelder. Weitere elf Millionen Euro erhalten acht regionale Zentren. Viele der Mitglieder von EDMO verfügen jedoch über eigene finanzielle Mittel. Die Beobachtungsstelle ist ein Netzwerk, geflochten aus Partnerschaften zwischen Hochschulen und Faktenprüfern, die nur zu einem kleinen Teil aus den EDMO-Mitteln finanziert werden.

Im Zentrum des EDMO-Netzwerks befindet sich ein Konsortium aus vier Organisationen, die im Jahr 2020 die Beobachtungsstelle gegründet haben: das Europäische Hochschulinstitut (EUI), das Athens Technology Center, die Universtät Aarhus sowie die italienischen Faktenprüfer Pagella Politica. Drei dieser vier Institute werden teilweise von Google finanziert. So erhielt das Athens Technology Center in den Jahren 2016 und 2019 Google-Stipendien. An der Universität von Aarhus finden neun Projekte statt, die von Google und Facebook finanziert werden. Pagella Politica nennt Facebook einen Hauptkunden.

Geld der Plattformen fließt auch an weitere Organisationen, die Teil des EDMO-Netzwerks sind. So kooperieren die Beobachtungsstelle und ihre Regionalzentren mit mindestens acht Hochschulen, die sich von jenen Konzernen mitfinanzieren lassen, die sie im Rahmen von EDMO beobachten sollen. Zudem sind 18 Medienorganisationen Teil des EDMO-Netzwerks, die Geld von den Plattformen erhalten haben, vor allem im Rahmen der Google Digital News Initiative.

Dabei handelt es sich um etablierte Medienorganisationen. Google will mit der Initiative laut eigenen Mitteilungen „Qualitätsjournalismus“ stärken. Doch eine Studie der Otto-Brenner-Stiftung und des Deutschen Gewerkschaftsbundes kommt zu einem anderen Schluss. Darin wird die Initiative als „Werkzeug für Lobbyismus“ beschrieben.

EDMO und die Google-Fördergelder

Die Nähe von EDMO und den Plattformen wird auch bei dem sogenannten Europäischen Medien- und Informationsfonds (EMIF) sichtbar. Der umfasst 25 Millionen Euro und richtet sich laut Website an „Forscher, Faktenprüfer, gemeinnützige Organisationen und andere im öffentlichen Interesse tätige Organisationen, die sich mit Desinformationsforschung und der Stärkung von Medienkompetenz“ befassen. Die finanziellen Mittel des Fonds stammen lediglich von einem Gönner: Google. Wenn künftig entschieden wird, welche Prioritäten mit dem Google-Geld aus dem EMIF unterstützt werden, sitzen auch EDMO-Vertreter mit am Tisch.

Ein Teil des Fonds ist bereits reserviert. Davon soll künftig das Europäische Hochschulinstitut (EUI) bezahlt werden, das Teil des EDMO-Konsortiums ist. Auf Nachfrage teilte das Institut mit, dass es mehr als 260.000 Euro für „Aktivitäten im Zusammenhang mit dem Fonds“ erhalten habe.

Die europäische Verbraucherschützerin Monique Goyens warnt davor, dass der Fonds zu Abhängigkeiten führen könnte. „Die Begünstigten werden wahrscheinlich nicht die Kritischsten gegenüber den Plattformen sein“, sagt Goyens. „Es wird immer schwieriger, Akademiker zu finden, die kein Geld von den Plattformen erhalten.“

Das sieht man bei Google anders. Auf Nachfrage teilte der Konzern zu dem Fonds mit: „Die Stärkung der Medienkompetenz, die Bekämpfung von Desinformation und die Unterstützung von Faktenprüfung sind ein integraler Bestandteil unserer Mission.“

Die EU-Kommission wirbt unterdessen für öffentliche-private Partnerschaften bei der Desinformationsbekämpfung. Auf Nachfrage teilte sie mit: „Der Kampf gegen Desinformation findet nicht im luftleeren Raum statt. Er erfordert die Anstrengung aller Beteiligten.“ Deshalb würden Plattformen mit Faktenprüfern und Forschern kooperieren und deren Arbeit „unterstützen“.

EU-Verhaltenskodex soll strenger werden

Der EU-Verhaltenskodex sieht zwar vor, dass die Plattformen verschiedene Projekte fördern sollen. Doch das Regelwerk selbst steht massiv in der Kritik. Denn geschrieben wurde es teilweise von den Technologiekonzernen selbst. Anschließend erklärten sie sich freiwillig bereit, das Papier zu unterzeichnen. Doch bei Verstößen müssen die Konzerne keine Strafen fürchten. Denn Sanktionen sieht der Kodex nicht vor.

Deshalb fordern einige nun einen strengeren Kodex. Dazu gehört auch der SPD-Europaabgeordnete Tiemo Wölken. „Es ist nicht überraschend, aber enttäuschend zu hören, dass das Gremium, das die Einhaltung des Verhaltenskodex überwachen soll, auch Verbindungen zu Plattformen haben soll“, sagt er. Wie auch der ERGA-Desinformationsexperte Lubos Kuklis fordert Wölken, dass der Verhaltenskodex nachgebessert werden müsse. Unabhängige Stellen müssten dann prüfen, dass die Plattformen die Regeln einhalten und bei Verstößen Sanktionen erlassen können.

Momentan prüft die EU-Kommission eine Änderung des Verhaltenskodex. Eine Neufassung des Textes könnte möglicherweise bereits im März verabschiedet werden. Doch das ist keinesfalls das Ende der Beobachtungsstelle und ihres Netzwerks. Die Pläne der Kommission würden die Rolle von EDMO sogar stärken.

Die Beobachtungsstelle würde dann als Teil einer Taskforce die EU-Kommission künftig dabei unterstützen , die Einhaltung des überarbeiteten Regelwerks zu prüfen. Zudem könnte EDMO weitere Gelder der Plattform in einem EU-Fonds verwalten und entscheiden, wer diese erhalten soll. Sanktionen sieht der Kodex auch in seiner neuen Fassung nicht vor.

„Investigate Europe“ ist ein europäisches Journalistenteam, das europaweit recherchiert und veröffentlicht. IE wird von Leserinnen und Lesern unterstützt sowie von folgenden Stiftungen: Logan Foundation, Rudolf-Augstein-Stiftung, Kennedy-Hübner, Fritt Ord, Adessium und Cariplo Foundation. Mehr zum Projekt und zum kostenlosen Newsletter. Diese Recherche ist ebenfalls auf Englisch erschienen..

Maxence Peigne ist ein französischer Journalist, der in London lebt. Er hat als Reiseschriftsteller, Fernseh- und Radioproduzent und als Großbritannien-Korrespondent gearbeitet. Er hat 11 Reiseführer über die Britischen Inseln und den Südpazifik veröffentlicht und war für Sender wie France Télévision, Radio France und den BBC World Service tätig.

Nico Schmidt studierte Kulturwissenschaft in Hildesheim und Berlin. Er lernte das journalistische Handwerk an der Hamburger Henri-Nannen-Schule. Als freier Journalist erschienen seine Artikel unter anderem im Spiegel, in der Zeit und bei Vice.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Depictions of child abuse: The internet forgets nothing, as long as it’s not supposed to forget

28. Januar 2022 um 14:05
Screen with blurred pictures
Police employees at a hotline for child abuse suspicions in North-Rhine Westfalia. – Alle Rechte vorbehalten IMAGO / Future Image

In December 2021, journalists from ARD political magazine Panorama and NDR format STRG_F (funk), together with Der Spiegel, revealed that photos and videos showing serious sexual abuse of children often remain on the net for years – even though investigating authorities could have them removed. Victim protection organizations and child and youth psychologists subsequently spoke of a „slap in the face of those affected“, a group of MEPs is now seeking clarification.

In their guest article, Robert Bongen and Daniel Moßbrucker, who were part of the research team, describe why a change of strategy in the fight against child abuse would not only be an investigative tactical question, but also a political one.

In one of his last appearances in November 2021, the then acting Federal Minister of the Interior, Horst Seehofer, became unusually emotional. At the autumn conference of the Federal Criminal Police Office (BKA), Seehofer highlighted an area of great personal concern to him: the spread of depictions of sexual abuse of children. The number of such depictions increases enormously from year to year, Seehofer said – and this trend must be stopped by all means. Because behind the depictions there is almost always real abuse:

What immeasurable suffering the perpetrators inflict on the children! Under no circumstances should the image or video material be permanently retrievable. Otherwise, those affected will become victims again and again, and this for a lifetime. The deletion of these pictures and videos is therefore indispensable.

There is really nothing to add to that. And yet, the vehemence of these words surprised us. Because at that time we had already completed our research. And only a few days later we reported that the Federal Criminal Police Office of all places – which as the central agency in Germany has special rights and duties in the fight against child abuse – has for years at best only partially fulfilled Seehofer’s demand.

Photos and videos are mostly filed with ordinary storage services, the download links shared in darknet forums. Yet the BKA does not systematically report these links to these storage services, even though this would mean that illegal material documenting serious child abuse would disappear from the net.

How is it possible that an authority that is subordinate to the Federal Ministry of the Interior fails to do exactly what the responsible minister publicly calls „indispensable“?

(Almost) everything is allowed

The world in which the investigators of the BKA move is disturbing. One example: Everyone who registers with an online service on the internet usually has to accept the „general terms and conditions“. These are often so long and complex that no one reads them.

On the world’s largest platform in the Darknet, where paedo-criminals meet, it is different. Here, the terms and conditions consist of only one sentence: If you want to join the forum, you should never post personal information about yourself. Otherwise, one suspects, everything is allowed here, as long as it is meeting with ever growing approval: In this forum alone, around 3.7 million user accounts were registered at the end of 2021, under the dubious slogan: „For Child Lovers“.

Investigative authorities let the forums grow

This forum was the focus of our research. Never before in the history of the internet has there been a larger platform of this kind. By way of comparison, the „Boystown“ forum, which German authorities were able to shut down in April 2021, had „only“ around 400,000 user accounts at the end. One should not equate these numbers with people, because many paedo-criminals open a new account with every login, which they never use again afterwards. Nevertheless, there is much to suggest that these darknet forums have managed to record enormous growth rates, especially in the last two to three years. At the time of our research, the users of the platform with the slogan „For Child Lovers“ had clicked on the content there about 1.7 billion times, and the trend was rising rapidly.

There are technical reasons for the rise of these forums, for example, the Tor network behind them has become faster and faster in recent years. But above all – and this is the central finding of our research – investigating authorities from many countries, including the German Federal Criminal Police Office, are involuntarily making these platforms more and more attractive. Because there is more and more content available for download – without the investigators intervening.

Darknet takes over the mediating role

According to our data analyses, the largest forum „For Child Lovers“ alone had over 20 terabytes – that’s over 20,000 gigabytes – available for download in November. And this amount could be deleted within a very short time.

This is due to the special architecture of these paedo-criminal networks. The operators of the paedo-platforms operate in the anonymous darknet in order to build a digital meeting place for paedo-criminals. However, the volume of data that can be exchanged there by anyone is too large to be stored on the darknet platforms themselves. Therefore, the paedo-criminals choose storage services on the ordinary internet instead, so-called one-click filehosters.

They put their material in a folder, which they encrypt with a password as a so-called archive, and upload this archive to the file hoster. From the file hoster’s point of view, an encrypted mountain of data has been uploaded. In the darknet forum, the paedophiles then share the corresponding download link and the associated password. The file hosters are usually unaware of this because possible upload filters are not effective due to the password protection.

According to the law, they do not have to look for it themselves. What’s more, it would even be illegal if the operators of a file hoster were to specifically search the internet for photos and videos showing child abuse. The file hosters are therefore dependent on receiving a tip-off.

97 percent of the content is on the Clearweb

The Canadian Center for Child Protection (C3P) estimates that only about three percent of the photos and videos documenting child abuse are hosted on the darknet itself. Ninety-seven percent, on the other hand, are on the Clearweb, the part of the Internet that can be accessed with ordinary browsers such as Firefox or Chrome. The Canadian charity organization C3P maintains, among other things, a hotline where suspected cases of child abuse can be reported. In addition, the organization specifically searches for depictions of abuse and reports them to the responsible internet companies.

According to its own account, C3P is also active in the darknet and searches forums for linked archives that lead to Clearweb hosts. So does the NGO take over the job, so that law enforcement agencies can take care of identifying the perpetrators? German security authorities are well aware of their work; some investigators even speak of the „Canadian approach“. How is it possible that in the largest of these darknet forums, of all places, no one systematically reports the content. C3P answers evasively when asked. Generally, it states:

We do agree with your finding that not enough is being done and this issue is largely being ignored. As your reporting points out, this lack of action continues to put victims in harm’s way and perpetuates trauma.

An NGO is to clean up the internet

In addition, C3P says it wants to decrypt all content first and check it carefully to make sure that only illegal material is reported. Filehosters must be able to trust that only illegal material will be reported. But this takes time. “As a relatively small charity, we have limited resources to tackle the volume of media we find“, C3P writes.

Indeed, it seems grotesque that more than 30 years after the development of the World Wide Web, a single non-profit organization with a small team and budget should have the task of cleansing the entire Internet of abusive depictions. C3P, which operates independently but is about half dependent on mostly Canadian government funding, regularly calls on internet companies to take more consistent action against the content on their servers. A problem for the internet industry, then?

Companies take over 13 terabytes off the net

Initially, we had assumed that the responsibility for the masses of content linked in the darknet forums was to be found with the filehosts. However, when we randomly sent some links to the services and often received the info after a few minutes that everything had been removed, the narrative of the disreputable, anonymous one-click filehosters began to crumble. In the end, in a concentrated effort, we automatically collected around 80,000 working links that paedo-criminals had posted on one platform. Behind them lay around 13.55 terabytes of data. That’s about as much as if a person watched a video of a child being abused for a year, day and night, in HD quality.

After we sent the links to the filehosters, they removed the material from their servers after 48 hours at the latest. Before that, the content had been online for about one and a half years on average. The oldest link we found had been online for over six years and led to a video of a boy being abused and raped.

We sent a German image-hoster links to about 100,000 photos, which it took down from its servers within three hours. Some of these photos had also been lying dormant on the servers for years without the hoster having been informed by German authorities, according to his statement.

Official statistics with an opaque data basis

These figures are in enormous discrepancy to the amount of content that the Federal Criminal Police Office (BKA) retrieves from the net every year. Since a decision in 2011 by the Bundestag, the German parliament, the BKA has been required to have illegal content deleted from the internet as comprehensively as possible. Since then, the approach of „deleting instead of blocking“ has been considered an alternative to netblocking, which was heavily discussed under the title „Zensursula“ in reference to the then Family Minister Ursula von der Leyen, because critics feared that this would lead to state censorship of the internet. (The German word for censorship is “Zensur”.)

According to the annual report, the Federal Criminal Police Office (BKA) followed up on about 6800 tips on links hosting child abuse images. In most cases, the prosecutors succeeded in having the links deleted within a few days. In view of such figures, the approach of „deleting instead of blocking“ is also considered successful in politics. The then Minister of Justice and Family Affairs, Christine Lambrecht, commented on the BKA’s annual report accordingly:

The high deletion rates and the comparatively short processing times prove that the concept of ‚deletion instead of blocking‘ is  overall effective.

However, the BKA’s approximately 6800 cases that appear in the official statistics are only a fraction of the masses we found in the large darknet forums. Many links are apparently not reported by the BKA in the first place. Why not?

The myth of the „servers abroad”

In the course of our research, we did not come across a single file- or image-hoster worldwide who did not respond to our reports. The hosters who were most abused by the paedo-criminals are located in Germany, France, Sweden, Iceland or do not state their place of business at all – but they all cooperated.

Surprising – but also irritatingly quick and easy. Why don’t the law enforcement agencies do this? In conversations with investigators, we heard again and again that the „servers abroad“ were a central problem. Whether this applies to other areas of law, such as copyright infringement or online fraud, is something we cannot judge. However, for the linked content circulating in the darknet forums for the exchange of child abuse material, the server location is definitely not an obstacle.

As far back as 2009, the Scientific Service of the Bundestag stated that the BKA could send an „Abuse E-Mail“ to foreign services to inform them about illegal content. Should the BKA not be able or willing to inform the foreign hosters directly, they could, in case of doubt, ask foreign law enforcement agencies for assistance.

Catch perpetrators, leave photos?

Although it would be technically possible and legally permissible (some lawyers even consider it mandatory), the German Federal Criminal Police Office, BKA, hardly ever reports illegal content to the filehosters. Nor, by the way, do the few German storage services. Particularly striking: Even after the BKA, together with the General Public Prosecutor’s Office in Frankfurt am Main, shut down the „Boystown“ forum in April 2021, it did not remove the links shared there. As a result, a few days after the takedown, paedo-criminals simply shared the links that continued to work in another forum, so that much of the content on „Boystown“ was available again.

This is incomprehensible for child and youth psychologists and the German Child Protection Association. They were „stunned“ that the BKA apparently failed to systematically delete images from the internet, they said in a joint statement in response to the research. This is a „slap in the face of those affected“:

The fact that images of their terrible experiences are still available on the internet is extremely stressful and makes it more difficult for them to come to terms with what they have experienced. Some victims speak of renewed abuse as soon as someone looks at the footage of their abuse.

But the current federal government also defends the procedure. In December, the Secretary of State for the Interior, Markus Richter, answered a written question (Schriftliche Frage) by Konstantin von Notz, a member of the Green Party: „Priority must be given to securing and evaluating the content that is needed for immediate measures to avert danger and for the presentation of criminal evidence.“

This is a typical argument used by prosecutors in the discussion: The priority is to catch the perpetrators and collect evidence for a conviction. In the best case, this could even save children who are still being abused. In contrast, the mere deletion of photos and videos, which can be uploaded elsewhere anyway, actually seems less relevant.

But is it really this sad dilemma that the authorities are facing?

Deletion does not hinder law enforcement, it supports it

On closer analysis, it becomes clear that there is nothing to be said against catching perpetrators and saving children as well as reporting content. This „either/or“ does not exist in this radical form. What’s more, acts could probably even be prevented if deletions were more consistent.

Because with all the content, the forums have long since become a social space in which paedo-criminals are given the impression that it’s normal to perform sexual acts on children, and that the children actually want to do so. Law enforcement officers investigating this area told us during the research that they noticed a disinhibition on these platforms, so that possibly more people „feel like“ trying things in real life. This was also confirmed by child and youth psychologists and the German Child Protection Association in their reaction to our reporting.

One cannot claim that it is time-consuming to search for the links. We needed about six hours with an online crawler, a kind of „search dog for the net“, to find the 80,000 links that led to over 13 terabytes. In fact, we were quite surprised at how easy it was to collect the links, as the paedo-criminals had no safeguards at all against automated downloads in the forum at the time.

Does deletion really destroy evidence?

It is also possible to preserve evidence if it is deleted. There is nothing to be said against automatically clicking on the automatically downloaded links and downloading the linked content once. Police officers could then view the photos and videos at a later time, but by reporting them to the filehoster, they could already contain the distribution. The risk that legal content would be reported as „collateral damage“ (so-called „overblocking“) is de facto excluded: These forums are only there to distribute child abuse material, other content is not tolerated there.

But what good is deletion if paedo-criminals still have the material on their hard drives and can upload it again at any time? We heard this argument again and again. It is not completely wrong, but here too our research suggests a more differentiated understanding: Deleting takes the dynamic out of the forums because an upload takes significantly longer than collecting a link. The users usually use the slower Tor network for the upload so as not to reveal their true IP address to the Clearweb filehoster. Furthermore, the uploaders all live normal lives and are not always in the forum every day to even notice that their links have been deleted.

Annoying users “to death”

Incidentally, we received unexpected confirmation from the administrator of the largest forum at the time: We managed to get in touch with him. He wrote to us that consistent deletion can „annoy users to death“. If you delete long enough, it can happen that people leave and the administrators „shut the place down“. In other words, uploaders are annoyed because their work is destroyed, and consumers are annoyed because many links lead nowhere.

Consistently and permanently pursued, deletion would also help the internet companies to block the once reported content from being uploaded again. Some of the filehosters currently most abused by paedo-criminals already have such upload filters in place. They produce a so-called hash value from reported content and store it in a database.

If a user tries to upload a file with the same hash value again, the upload stops immediately. This even works for the encrypted archive files of the paedo-criminals – but only if the filehosters receive a tip from authorities about which specific files with the associated hash values are illegal.

Not deleting may increase the number of perpetrators

Of course, particularly motivated users could always upload their material to new file hosts with different hash values. But how strong is this argument when not deleting undoubtedly leads to more and more people being able to store more and more material on their hard drives in order to upload it? So not deleting broadens the base of those who have the material on their hard drives, thus creating new uploaders.

This circumstance, the recently increasing dimensions of these darknet forums, is probably the decisive change that makes the priorities of the Federal Ministry of the Interior and the law enforcement agencies, which are perhaps understandable in principle, seem increasingly absurd: How wisely are resources used when, as in the „Boystown“ case, four people are arrested after months of investigation, but then the content is not secured and taken off the net? So that only a few days after the shutdown, „Boystown“ content is posted again elsewhere and thousands of users can still use it today?

There may have been a time, when this was exactly the right strategy: shutting down a forum in order to eliminate an entire infrastructure with a successful investigation. But today, these forums are teeming, all blithely linking to content hidden on the Clearweb.

Our research shows that identical links to filehosters are often shared in different darknet forums. Conversely, this means that deleting the links of particular filehosters can remove the content from several darknet forums at once. The result is an efficient procedure to get criminal content off the net.

New government wants to strengthen the BKA

Horst Seehofer must simply not have known that the Federal Criminal Police Office apparently structurally fails to do exactly this when he so vehemently emphasized at the BKA autumn meeting that deleting the recordings was „indispensable“. In its coalition agreement, the new government has now announced: „In the fight against child abuse, we will strengthen the Federal Criminal Police Office in terms of personnel.“

It is now a political question how Seehofer’s successor Nancy Faeser (SPD) will distribute these resources within the BKA. If she takes „deleting depictions of abuse“ seriously as an essential part of the fight against child abuse, then she could achieve a great deal here with relatively little money and staff.

Robert Bongen works for Norddeutscher Rundfunk and is an editor for the ARD political magazine Panorama.

Daniel Moßbrucker works as a journalist on the topics of surveillance, data protection and internet regulation. He is also a trainer for digital security and darknet research.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Darstellungen von Kindesmissbrauch: Das Netz vergisst nichts, solange es nicht vergessen soll

28. Januar 2022 um 13:25
Ein Bildschirm mit verpixelten Bildern, im Hintergrund eine Mitarbeiterin der Hotline
LKA-Mitarbeiterinnen beim Start des Hinweistelefons zu sexuellem Missbrauch von Kindern und Jugendlichen in NRW. – Alle Rechte vorbehalten IMAGO / Future Image

Anfang Dezember enthüllten Journalisten des ARD-Politikmagazins Panorama und des NDR-Reportageformats STRG_F (funk) gemeinsam mit dem Spiegel, dass Fotos und Videos, die schweren sexuellen Missbrauch von Kindern zeigen, oft jahrelang im Netz bleiben, obwohl Ermittlungsbehörden sie löschen lassen könnten. Opferschutzorganisationen sowie Kinder- und Jugendpsychologen sprachen im Anschluss von einer „Ohrfeige für Betroffene“, auch eine Gruppe von EU-Abgeordneten bemüht sich mittlerweile um Aufklärung.

In ihrem Gastbeitrag schildern Robert Bongen und Daniel Moßbrucker, die Teil des Rechercheteams waren, warum ein Strategiewechsel im Kampf gegen Kindesmissbrauch nicht nur eine ermittlungstaktische, sondern auch eine politische Frage wäre.

Bei einem seiner letzten Auftritte im November 2021 wurde der damals geschäftsführende Bundesinnenminister Horst Seehofer ungewohnt emotional. Auf der Herbsttagung des Bundeskriminalamts (BKA) hob Seehofer einen Bereich hervor, der ihm persönlich große Sorgen bereite: Die Verbreitung von Darstellungen sexuellen Missbrauchs von Kindern. Deren Zahl steige von Jahr zu Jahr enorm an – und dieser Trend müsse mit allen Mitteln gestoppt werden. Denn hinter den Darstellungen stehe fast immer auch ein realer Missbrauch:

Was für ein unermessliches Leid, das die Täter den Kindern zufügen! Das Bild- oder Videomaterial darf auf keinen Fall dauerhaft abrufbar sein. Die Betroffenen werden sonst immer wieder zum Opfer, und zwar ein Leben lang. Die Löschung dieser Bilder und Videos ist daher unverzichtbar.

Dem ist eigentlich nichts hinzuzufügen. Und doch: Die Worte haben uns in ihrer Vehemenz überrascht. Denn zu diesem Zeitpunkt hatten wir unsere Recherche schon abgeschlossen. Und nur wenige Tage später berichteten wir, dass ausgerechnet das Bundeskriminalamt – das in Deutschland als Zentralstelle besondere Rechte und Pflichten beim Kampf gegen Kindesmissbrauch hat – Seehofers Forderung seit Jahren allenfalls teilweise erfüllt.

Fotos und Videos werden meistens bei gewöhnlichen Speicherdiensten abgelegt, die Download-Links in Darknet-Foren geteilt. Doch das BKA meldet diese Links nicht systematisch an diese Speicherdienste, obwohl damit illegales Material, das schweren Kindesmissbrauch dokumentiert, aus dem Netz verschwinden würde.

Wie kann es sein, dass eine Behörde, die dem Bundesinnenministerium untersteht, genau das unterlässt, was der zuständige Minister öffentlich als „unverzichtbar“ bezeichnet?

(Fast) alles ist erlaubt

Die Welt, in der sich die Ermittler:innen des BKA bewegen, ist verstörend. Ein Beispiel: Wer sich im Internet bei einem Online-Dienst registriert, muss in der Regel die „Allgemeinen Geschäftsbedingungen“ akzeptieren. Die sind meist so lang und komplex, dass sie niemand liest.

Auf der weltweit größten Plattform im Darknet, auf der sich Pädokriminelle treffen, ist es anders. Hier bestehen die AGB aus nur einem einzigen Satz: Wer ins Forum wolle, solle niemals persönliche Informationen über sich posten. Ansonsten, so ahnt man, ist hier alles erlaubt, was auf immer größeren Anklang stößt: Allein in diesem Forum waren Ende 2021 rund 3,7 Millionen Nutzerkonten registriert, unter dem zweifelhaften Slogan: „For Child Lovers“.

Ermittlungsbehörden lassen die Foren groß werden

Dieses Forum stand im Mittelpunkt unserer Recherchen. Nie zuvor in der Geschichte des Internets hat es eine größere Plattform dieser Art gegeben. Zum Vergleich: Das Forum „Boystown“, das deutsche Behörden im April 2021 abschalten konnten, hatte zum Schluss „nur“ rund 400.000 Nutzer:innenkonten. Man sollte diese Zahlen nicht mit Menschen gleichsetzen, denn viele Pädokriminelle eröffnen mit jedem Login einen neuen Account, den sie danach nie wieder gebrauchen. Dennoch spricht viel dafür, dass es diese Darknet-Foren insbesondere in den vergangenen zwei bis drei Jahren geschafft haben, gewaltige Zuwachsraten zu verzeichnen. Die User:innen der Plattform mit dem Slogan „For Child Lovers“ hatten die dortigen Inhalte zum Zeitpunkt unserer Recherche rund 1,7 Milliarden mal angeklickt, Tendenz stark steigend.

Für den Aufstieg dieser Foren gibt es technische Gründe, zum Beispiel ist das dahinterliegende Tor-Netzwerk in den vergangenen Jahren immer schneller geworden. Vor allem aber – und das ist die zentrale Erkenntnis unserer Recherche – lassen Ermittlungsbehörden aus vielen Ländern, darunter auch das deutsche Bundeskriminalamt, diese Plattformen unfreiwillig immer attraktiver werden, weil es dort immer mehr Inhalte zum Herunterladen gibt – ohne dass die Ermittler:innen einschreiten.

Darknet übernimmt die Vermittlungsrolle

Allein in dem größten Forum „For Child Lovers“ standen unseren datenjournalistischen Analysen zufolge im November über 20 Terabyte – das sind über 20.000 Gigabyte – zum Download. Und diese Menge könnte binnen kürzester Zeit gelöscht werden.

Dies hängt mit der besonderen Architektur dieser pädokriminellen Netzwerke zusammen. Zwar agieren die Betreiber:innen der Pädo-Plattformen im anonymen Darknet, um dort einen digitalen Treffpunkt für pädokriminelle Menschen aufzubauen. Die Datenmengen der illegalen Aufnahmen, die dort von jedem getauscht werden können, sind allerdings zu groß, um auf den Darknet-Plattformen selbst gespeichert werden zu können. Daher wählen die Pädokriminellen stattdessen Speicherdienste im gewöhnlichen Internet, sogenannte One-Click-Filehoster.

Sie legen ihr Material dafür in einen Ordner, den sie als sogenanntes Archiv mit einem Passwort verschlüsseln, und dieses Archiv laden sie beim Filehoster hoch. Aus Sicht des Filehosters wurde also ein verschlüsselter Datenberg hochgeladen. Im Darknet-Forum teilen die Pädokriminellen dann den entsprechenden Download-Link und das dazugehörige Passwort. Die Filehoster ahnen also meist nichts davon, weil mögliche Upload-Filter durch den Passwortschutz nicht greifen.

Selbst müssen sie laut Rechtslage nicht danach suchen. Mehr noch: Es wäre sogar illegal, würden Betreiber:innen eines Filehosters im Internet gezielt nach Fotos und Videos suchen, auf denen Kindesmissbrauch zu sehen ist. Die Filehoster sind also darauf angewiesen, dass sie einen Hinweis erhalten.

97 Prozent der Inhalte liegen im Clearweb

Das Canadian Center for Child Protection (C3P) schätzt, dass nur etwa drei Prozent der Fotos und Videos, die Kindesmissbrauch dokumentieren, im Darknet selbst gehostet werden. 97 Prozent hingegen liegen im Clearweb, also dem Teil des Internets, der mit gewöhnlichen Browsern wie Firefox oder Chrome ansteuerbar ist.

Die kanadische Charity-Organisation C3P unterhält unter anderem eine Hotline, bei der Verdachtsfälle auf Kindesmissbrauch gemeldet werden können. Außerdem sucht die Organisation gezielt nach Missbrauchsdarstellungen und meldet diese an die zuständigen Internetfirmen.

Nach eigener Darstellung ist C3P auch im Darknet aktiv und sucht in Foren nach verlinkten Archiven, die zu Clearweb-Hostern führen. Übernimmt die NGO also den Job, sodass sich Strafverfolgungsbehörden um die Ermittlung der Täter:innen kümmern können?

Deutschen Sicherheitsbehörden ist ihre Arbeit gut bekannt, manche Ermittler:innen sprechen gar vom „kanadischen Ansatz“. Wie es dann sein kann, dass ausgerechnet im größten dieser Darknet-Foren erkennbar niemand systematisch die Inhalte meldet, beantwortet C3P auf Nachfrage ausweichend. Allgemein heißt es:

Wir stimmen mit Ihrer Feststellung überein, dass nicht genug getan wird und dieses Problem weitgehend ignoriert wird. Wie in Ihrem Bericht dargelegt, bringt diese Untätigkeit die Opfer weiterhin in Gefahr und führt zu einem anhaltenden Trauma.

Eine NGO soll das Internet reinigen

Außerdem, so C3P, wolle man alle Inhalte erst entschlüsseln und genau prüfen. Filterhoster müssten darauf vertrauen können, dass nur illegales Material gemeldet würde. Dies koste aber Zeit. „Als relativ kleine Wohltätigkeitsorganisation haben wir nur begrenzte Ressourcen, um die Menge an Medien zu bewältigen, die wir finden“, schreibt C3P.

In der Tat mutet es grotesk an, dass über 30 Jahre nach der Entwicklung des World Wide Web eine einzige Non-Profit-Organisation mit überschaubarem Team und Budget die Aufgabe haben soll, das gesamte Internet von Missbrauchsdarstellungen zu reinigen. C3P, das zwar unabhängig agiert, aber etwa zur Hälfte von überwiegend kanadischen Regierungsgeldern abhängig ist, fordert regelmäßig Internetunternehmen auf, konsequenter gegen die Inhalte auf ihren Servern vorzugehen. Ein Problem der Internetbranche also?

Firmen nehmen über 13 Terabyte aus dem Netz

Anfangs hatten wir noch vermutet, dass die Verantwortung für die Massen an Inhalten, die in den Darknet-Foren verlinkt werden, bei den Filehostern zu suchen ist. Als wir jedoch stichprobenartig einige Links an die Dienste schickten und häufig nach wenigen Minuten die Info erhielten, dass alles entfernt worden sei, begann das Narrativ von den anrüchigen, anonymen One-Click-Hostern zu bröckeln.

Am Ende sammelten wir in einer konzentrierten Aktion automatisiert rund 80.000 funktionierende Links ein, die Pädokriminelle auf einer Plattform gepostet hatten. Dahinter lagen rund 13,55 Terabyte an Daten. Das ist in etwa so viel, als wenn sich ein Mensch ein Jahr lang ein Video anschauen würde, in dem ein Kind missbraucht wird, Tag und Nacht, in HD-Qualität.

Nachdem wir die Links an die Filehoster geschickt hatten, entfernten diese das Material spätestens nach 48 Stunden von ihren Servern. Zuvor standen die Inhalte im Schnitt rund eineinhalb Jahre im Netz. Der älteste Link, den wir gefunden haben, war über sechs Jahre online und führte zu einem Video, auf dem ein Junge misshandelt und vergewaltigt wird.

Einem deutschen Bilder-Hoster schickten wir Links zu rund 100.000 Fotos, die er binnen drei Stunden von seinen Servern holte. Auch diese Fotos schlummerten zuvor teils jahrelang auf seinen Servern, ohne dass er darüber nach eigener Aussage von deutschen Behörden informiert worden war.

Behördliche Statistik mit undurchsichtiger Datengrundlage

Diese Zahlen stehen in enormer Diskrepanz zu dem, was das Bundeskriminalamt jährlich an Inhalten aus dem Netz holt. Seit einem Entschluss des Bundestages aus dem Jahr 2011 ist das BKA gehalten, die illegalen Inhalte möglichst umfassend aus dem Internet löschen zu lassen. Der Ansatz „Löschen statt Sperren“ gilt seither als Alternative zu Netzsperren, die in Anlehnung an die damalige Familienministerin Ursula von der Leyen unter dem Titel „Zensursurla“ heftig diskutiert worden waren, weil Kritiker:innen den Einstieg in eine staatliche Internetzensur befürchteten.

Laut Jahresbericht ging das BKA im Jahr rund 6.800 Hinweisen auf Links nach, hinter denen sich Aufnahmen von Kindesmissbrauch verbargen. Überwiegend gelang es den Strafverfolger:innen demnach, die Links binnen weniger Tage löschen zu lassen. Der Ansatz „Löschen statt Sperren“ gilt angesichts solcher Zahlen auch in der Politik als erfolgreich. Die damalige Justiz- und Familienministerin Christine Lambrecht kommentierte den Jahresbericht des BKA entsprechend:

Die hohen Löschquoten und die vergleichsweise kurzen Bearbeitungszeiten belegen, dass das Konzept ‚Löschen statt Sperren‘ insgesamt wirkungsvoll ist.

Allerdings sind die rund 6.800 Fälle des BKA, die in der offiziellen Statistik auftauchen, nur ein Bruchteil der Massen, die wir in den großen Darknet-Foren fanden. Viele Links werden vom BKA also offenbar erst gar nicht gemeldet. Wieso nicht?

Die Mär vom „Server im Ausland“

Im Zuge der Recherche begegneten wir weltweit keinem einzigen Hoster, der nicht auf unsere Meldungen reagierte. Die Hoster, die am meisten von den Pädokriminellen missbraucht wurden, sitzen in Deutschland, Frankreich, Schweden, Island oder geben ihren Geschäftssitz gar nicht an – kooperiert haben sie jedoch alle.

Überraschend – aber auch äußerst irritierend schnell und einfach. Warum machen das die Strafverfolgungsbehörden nicht? In Gesprächen mit Ermittler:innen hörten wir immer wieder, dass die „Server im Ausland“ ein zentrales Problem seien. Ob dies für andere Rechtsbereiche wie Urheberrechtsverstöße oder Online-Betrug gilt, können wir nicht beurteilen. Bei den verlinkten Inhalten, die in den Darknet-Foren zum Tausch von Kindesmissbrauchsmaterial kursieren, ist der Serverstandort jedoch definitiv kein Hindernis.

Schon 2009 stellte der Wissenschaftliche Dienst des Bundestages fest, dass das BKA eine „Abuse E-Mail“ an ausländische Dienste schicken könne, um sie über illegale Inhalte zu informieren. Sollte das BKA die ausländischen Hoster nicht direkt informieren können oder wollen, könnten sie im Zweifel ausländische Strafverfolgungsbehörden um Unterstützung bitten.

Täter:innen fassen, Fotos lassen?

Obwohl es also technisch einfach möglich wäre und rechtlich erlaubt (einige Jurist:innen halten es sogar für zwingend), meldet das Bundeskriminalamt den Filehostern die illegalen Inhalte so gut wie nie. Übrigens auch nicht den wenigen deutschen Speicherdiensten.

Besonders frappierend: Auch nachdem das BKA gemeinsam mit der Generalstaatsanwaltschaft Frankfurt am Main im April 2021 das Forum „Boystown“ abgeschaltet hatte, ließ es die dort geteilten Links nicht löschen. Als Folge daraus teilten Pädokriminelle wenige Tage nach dem Takedown schlichtweg die weiterhin funktionierenden Links in einem anderen Forum, sodass viele „Boystown“-Inhalte wieder verfügbar waren.

Für Kinder- und Jugendpsycholog:innen sowie den Deutschen Kinderschutzbund ist das nicht nachvollziehbar. „Fassungslos“ sei man darüber, dass das BKA es offenbar unterlasse, systematisch Bildmaterial aus dem Netz zu löschen, heißt es in einer gemeinsamen Erklärung als Reaktion auf die Recherche. Dies sei eine „Ohrfeige für Betroffene“:

Dass Bilder ihrer schrecklichen Erlebnisse weiter im Internet abrufbar sind, ist extrem belastend und erschwert die Bewältigung des Erlebten. Manche Betroffenen sprechen von erneutem Missbrauch, sobald jemand das Bildmaterial ihres Missbrauchs ansieht.

Doch auch die aktuelle Bundesregierung verteidigt das Vorgehen der Ermittlungsbehörden. Auf eine schriftliche Frage des Grünen-Abgeordneten Konstantin von Notz antwortete Innen-Staatssekretär Markus Richter im Dezember: „Es müssen prioritär die Inhalte, die für unmittelbar gefahrenabwehrende Maßnahmen sowie für die strafrechtliche Beweisführung benötigt werden, gesichert und ausgewertet werden.“

Es ist ein typisches Argument, das Strafverfolger:innen in der Diskussion bringen: Die Priorität liegt darauf, Täter:innen zu fassen und Beweise für eine Verurteilung zu sammeln. Dadurch könnten im Optimalfall sogar noch Kinder gerettet werden, deren Missbrauch andauert. Dagegen mutet das bloße Löschen von Fotos und Videos, die an anderer Stelle ohnehin wieder hochgeladen werden können, tatsächlich weniger relevant an.

Aber: Ist es wirklich dieses traurige Dilemma, vor dem die Behörden stehen?

Löschen behindert Strafverfolgung nicht, sondern unterstützt sie

Bei genauerer Analyse wird deutlich, dass nichts dagegen spricht, sowohl Täter:innen zu fassen und Kinder zu retten, als auch Inhalte zu melden. Dieses „Entweder Oder“ gibt es in dieser radikalen Form gar nicht. Mehr noch: Es könnten vermutlich sogar Taten verhindert werden, wenn konsequenter gelöscht würde.

Denn mit den vielen Inhalten sind die Foren längst ein sozialer Raum geworden, in dem Pädokriminelle das Gefühl vermittelt bekommen, dass es normal sei, an Kindern sexuelle Handlungen vorzunehmen. Strafverfolger:innen, die in diesem Bereich ermitteln, sagten uns während der Recherchen selbst, dass sie eine Enthemmung feststellten auf diesen Plattformen, sodass möglicherweise mehr Menschen „Lust“ bekommen, Dinge auch im realen Leben probieren zu wollen. Dies bestätigten auch die Kinder- und Jugendpsycholog:innen sowie der Deutsche Kinderschutzbund in ihrer Erklärung.

Dass es aufwändig ist, die Links zu suchen, kann man nicht wirklich behaupten. Wir benötigten rund sechs Stunden mit einem Online-Crawler, einer Art „Suchhund fürs Netz“, um die 80.000 Links zu finden, die zu über 13 Terabyte führten. Tatsächlich waren wir ziemlich überrascht, wie einfach es ging, die Links einzusammeln, da die Pädokriminellen seinerzeit noch überhaupt keine Schutzmaßnahmen gegen automatisierte Downloads im Forum hatten.

Vernichtet Löschen wirklich Beweise?

Auch eine Beweissicherung ist möglich, wenn gelöscht wird. Nichts spricht dagegen, die automatisiert geladenen Links ebenso automatisiert anzuklicken und die verlinkten Inhalte einmalig herunterzuladen. Dann könnten Polizeibeamt:innen die Fotos und Videos zu einem späteren Zeitpunkt sichten, durch das Melden beim Filehoster aber die Verbreitung bereits eindämmen.

Dass so legale Inhalte als „Kollateralschäden“ gemeldet würden (sogenanntes „Overblocking“), ist de facto ausgeschlossen: Diese Foren sind nur dazu da, Kindesmissbrauchsmaterial zu verbreiten, andere Inhalte werden dort nicht geduldet.

Doch was hilft das Löschen, wenn Pädokriminelle das Material ja weiterhin auf ihren Festplatten haben und jederzeit erneut hochladen können? Dieses Argument hörten wir immer wieder.

Es ist nicht völlig falsch, aber nach unseren Recherchen auch nicht ganz so einseitig: Ein Upload dauert bedeutend länger als das Einsammeln eines Links. Die User:innen nutzen für den Upload nämlich meist das langsamere Tor-Netzwerk, um gegenüber dem Clearweb-Filehoster nicht ihre wahre IP-Adresse zu verraten. So verlangsamt sich die Dynamik in den Foren.

Ferner führen die Uploader auch ein normales Leben und sind nicht immer täglich im Forum, um überhaupt zu merken, dass ihre Links gelöscht wurden.

Nutzer:innen „zu Tode nerven“

Unvermutete Bestätigung bekamen wir hier im Übrigen vom Administrator des aktuell größten Forums selbst: Uns war es gelungen, mit ihm in Kontakt zu treten. Er schrieb uns, dass konsequentes Löschen die User:innen „zu Tode nerven“ könne: Wenn man lang genug lösche, könne es passieren, dass die Leute gehen und die Administratoren „den Laden dichtmachten“. Heißt also: Uploader sind genervt, weil ihre Arbeit zerstört wird, und Konsument:innen sind genervt, weil viele Links ins Leere führen.

Würden Inhalte konsequent und dauerhaft gemeldet, können auch Internetfirmen das Material für ein wiederholtes Hochladen sperren. Einige der Filehoster, die derzeit am stärksten von den Pädokriminellen missbraucht werden, haben bereits solche Uploadfilter im Einsatz. Sie produzieren dafür aus gemeldeten Inhalten einen sogenannten Hashwert und legen ihn in eine Datenbank.

Versucht ein:e User:in, eine Datei unverändert mit demselben Hashwert erneut hochzuladen, bricht der Upload sofort ab. Dies funktioniert sogar für die verschlüsselten Archivdateien der Pädokriminellen – allerdings nur, wenn die Filehoster von Behörden einen Hinweis erhalten, welche spezifischen Dateien mit den dazugehörigen Hashwerten illegal sind.

Nicht-Löschen-Lassen vergrößert Zahl der Täter:innen

Natürlich könnten User:innen ihr Material immer wieder bei neuen Filehostern mit anderen Hashwerten hochladen. Wie stark ist dieses Argument aber noch, wenn doch ein Nicht-Löschen-Lassen zweifellos auch dazu führt, dass immer mehr Menschen immer mehr Material auf ihren Festplatten bunkern können, um es dann weiterzuverteilen? Nicht-Löschen verbreitert also die Basis derjenigen, die das Material auf ihren Festplatten haben und sorgt für neue potenzielle Uploader:innen.

Die zuletzt immer größeren Dimensionen dieser Darknet-Foren lassen eine im Grundsatz vielleicht nachvollziehbare Prioritätensetzung des Bundesinnenministeriums und der Strafverfolgungsbehörden zunehmend absurd wirken: Wie klug sind Ressourcen eingesetzt, wenn wie im Fall „Boystown“ nach monatelangen Ermittlungen vier Personen verhaftet werden, aber dann die Inhalte nicht gesichert und aus dem Netz geholt werden? Sodass schon wenige Tage nach der Abschaltung „Boystown“-Inhalte an anderer Stelle wieder gepostet werden und sich tausende User:innen daran bis heute bedienen können?

Es mag eine Zeit gegeben haben, als das genau die passende Strategie gewesen sein mag: Ein Forum abschalten, um mit einem Ermittlungserfolg eine ganze Infrastruktur zu beseitigen. Aber heute wimmelt es nur so von diesen Foren, die alle munter im Clearweb versteckte Inhalte verlinken.

Unsere Recherchen zeigen, dass häufig identische Links zu Filehostern in unterschiedlichen Darknet-Foren geteilt werden. Das heißt im Umkehrschluss, dass ein Löschen bei einem Filehoster den Inhalt gleich für mehrere Darknet-Foren entfernen würde. Im Ergebnis ein effizientes Vorgehen, um strafbare Inhalte aus dem Netz zu bekommen.

Ampel-Koalition will BKA stärken

Dass das Bundeskriminalamt genau dies offenbar strukturell unterlässt, dürfte Horst Seehofer schlichtweg nicht gewusst haben, als er auf der BKA-Herbsttagung so vehement betonte, dass das Löschen der Aufnahmen „unverzichtbar“ sei. Die Ampelkoalition hat im Koalitionsvertrag angekündigt: „Im Kampf gegen Kindesmissbrauch stärken wir das Bundeskriminalamt personell.“

Es ist nun eine politische Frage, wie Seehofers Nachfolgerin Nancy Faeser (SPD) diese Mittel im BKA verteilen wird. Wenn sie das „Löschen von Missbrauchsdarstellungen“ als essenziellen Bestandteil im Kampf gegen Kindesmissbrauch ernst nimmt, dann könnte sie hier mit verhältnismäßig wenig Geld und Personal viel bewirken.

Robert Bongen arbeitet beim Norddeutschen Rundfunk und ist Redakteur beim ARD-Politikmagazin Panorama.

Daniel Moßbrucker arbeitet als Journalist zu den Themen Überwachung, Datenschutz und Internetregulierung. Außerdem ist er Trainer für digitale Sicherheit und Darknet-Recherchen.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

  • Es gibt keine weiteren Artikel
❌