Der Großkonzern Palantir geht presserechtlich gegen das Schweizer Magazin „Republik“ vor. Das hatte in Recherchen nachgezeichnet, warum die Systeme des Unternehmens problematisch für Staaten und deren Souveränität sind. Das Magazin will sich von der Klage nicht einschüchtern lassen.
Palantir Geschäftsführer Alex Karp beim World Economic Forum in Davos. – Alle Rechte vorbehalten IMAGO / Avalon.red
Im Dezember hatte das Magazin berichtet, wie Palantir versuchte, in der Schweiz Fuß zu fassen – und wie das Schweizer Militär eine Zusammenarbeit ablehnte, weil es unter anderem zum Schluss kam, dass ein Abfluss von Daten aus den Palantir-Systemen technisch nicht verhindert werden könne.
Wenige andere Medien haben in letzter Zeit so viel und so detailliert über Palantir berichtet wie das kleine leser:innenfinanzierte Schweizer Magazin mit seinen 30.000 Abonnent:innen. Palantir hingegen ist ein milliardenschwerer Überwachungs- und Datenkonzern, dessen Software zahlreiche Polizeibehörden, Militärs und Geheimdienste weltweit verwenden. Auch in Deutschland arbeiten Polizeien mit dem Unternehmen zusammen. Obwohl der Einsatz der Software von Palantir höchst umstritten ist, schaffen hierzulande neue Polizeigesetze gerade die rechtliche Grundlage für den ausgeweiteten Einsatz derartiger Software.
Offenbar macht investigativer Journalismus den Überwachungsriesen nervös: Im Dezember hatte Republik eine zweiteilige Recherche veröffentlicht, in der das Medium nachzeichnete, wie der Überwachungskonzern um unterschiedliche Schweizer Behörden geworben hatte. Grundlage der Recherche waren Dokumente, die das Rechercheteam durch Informationsfreiheitsanfragen erhalten hatte. Trotz sieben Jahren Klinkenputzen gelang es Palantir demnach nicht, einen Vertrag mit Schweizer Institutionen und Behörden abzuschließen.
Die Republik fand dabei etwa heraus, dass der Generalstab der Schweizer Armee die Software evaluiert hatte und zu dem Schluss gekommen war, dass die Armee auf den Einsatz von Palantir-Produkten verzichten sollte. Die Militärexperten fürchteten, dass ein Abfluss von Daten aus den Palantir-Systemen hin zu US-amerikanischen Geheimdiensten wie CIA und NSA technisch nicht verhindert werden könne.
Die Recherche fand international Widerhall, auch der Guardian berichtete. Britische Abgeordnete verwiesen auf die Schweizer Einschätzung. „Ich denke, die Schweizer Armee hat das Recht, misstrauisch zu sein“, sagte etwa der Labour-Abgeordnete Clive Lewis.
Weltpolitik vor dem Handelsgericht
Gegen diese Berichterstattung hatte Palantir laut der verantwortlichen Tech-Reporterin Adrienne Fichter in der Weihnachtszeit einen Blogbeitrag bei LinkedIn in Stellung gebracht, in dem der Palantir-Manager Courtney Bowman der Republik unter anderem Verzerrungen, Andeutungen und grenzwertige Verschwörungstheorien vorwarf. Am 29. Dezember verlangte Palantir Fichter zufolge dann per Anwaltsschreiben eine Gegendarstellung in der Republik. Das lehnte das Magazin nach eigener Aussage ab. Im Januar wiederholte der Konzern demnach seine Forderung. Die Republik lehnte wieder ab. Nun zieht Palantir also vor das Handelsgericht in Zürich um eine Gegendarstellung durchzusetzen.
Adrienne Fichter schreibt, dass der Krieg, den die autoritäre Tech-Oligarchie gegen die Medien führe, mit der Klage eine neue Stufe erreicht habe. Palantir wolle nicht, dass die Republik die Wahrheit schreibe. Die Berichterstattung mache das Unternehmen nervös. „Selbstverständlich haben wir uns stets an die hohen Standards journalistischer Arbeit gehalten. Vor der Veröffentlichung haben wir eine gründliche Faktenprüfung durchgeführt“, so Fichter weiter. Die Recherchen in Bezug auf die Schweiz und Zürich basierten neben den eigenen Erkenntnissen zudem auf der Berichterstattung renommierter Medien.
Laut Fichter hat die Republik eine „umfassende Verteidigungsschrift“ eingereicht. „Alle unsere Feststellungen können wir mit verschiedenen Dokumenten und öffentlich zugänglichen Medienberichten belegen.“ In Zürich werde nun vor dem Gericht bald Weltpolitik verhandelt, so Fichter weiter. Für sie ist klar: „Wir lassen uns nicht einschüchtern.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Ubuntu 24.04.4 LTS is now available to download. This fourth point release brings the Linux 6.17 HWE kernel and Mesa 25.2 graphics stack for better hardware support.
Der sächsische Landesverband der Gewerkschaft der Polizei nutzt ein KI-generiertes Bild mit einem blutenden Polizisten, um eine Pressemitteilung zu illustrieren. Begründet wird dies mit Persönlichkeitsrechten und laufenden Ermittlungen, das Bild sei eine „symbolische Illustration“.
Wieviel sind Bilder wert, wenn sie nicht die Realität zeigen? Das Bild hier ist eine verpixelte Version des generierten Bildes der Polizeigewerkschaft. – Public Domain CVatGPT / GdP Sachsen / netzpolitik.org
Beim einem Zweitligaspiel der Fußball-Männerteams des 1. FC Magdeburg und Dynamo Dresden am vergangenen Samstag gab es Ausschreitungen. Nach Polizeiangaben soll es 70 verletzte Polizisten gegeben haben. Der sächsische Landesverband der Gewerkschaft der Polizei (GdP) gab dazu eine Pressemitteilung heraus und bebilderte sie mit einem KI-generierten fotorealistischen Bild. Darauf zu sehen: ein blutender Polizist, der von zwei Kollegen gestützt wird.
Dieses Bild war klein mit dem Hinweis „KI: ChatGPT“ gekennzeichnet, erweckt aber auf den ersten Blick den Eindruck, dass dies ein echtes Bild sei. In sozialen Medien sorgte die Bebilderung für Empörung. So kritisierte der Forscher Daniel Mullis auf Bluesky: „Es ist das erste Mal, dass ich solche Bilder von seriösen Stellen sehe, die Ereignisse so darstellen, dass sie besser ins eigene Bild passen.“ Das sei nicht gut, der Deutsche Gewerkschaftsbund, in dem die Gewerkschaft Mitglied ist, dürfe hier nicht schweigen.
Polizeigewerkschaft: „Symbolische Illustration“
Auf Nachfrage, warum die Gewerkschaft hier ein solches Bild einsetze, hat der GdP-Landesvorsitzende Jan Krumlovsky netzpolitik.org geantwortet, dass das KI-generierte Bild als „symbolische Illustration“ eingesetzt worden sei. „Diese Entscheidung erfolgte bewusst, um auf das Thema Gewalt gegen Einsatzkräfte im Zusammenhang mit dem Fußballspiel aufmerksam zu machen, ohne reale Einsatzkräfte, Beteiligte oder konkrete Einsatzsituationen abzubilden“, so Krumlovsky weiter. Als Begründungen nennt der Polizeigewerkschafter den Schutz von Persönlichkeitsrechten, laufende Ermittlungen sowie den respektvollen Umgang mit betroffenen Kolleginnen und Kollegen.
Krumlovsky betont, dass das Bild als KI-generiert gekennzeichnet ist. „Es sollte keine dokumentarische Abbildung eines realen Ereignisses darstellen, sondern der thematischen Einordnung dienen“, so der Gewerkschafter weiter. Für die Gewerkschaft sei entscheidend, dass der Einsatz von Illustrationen – unabhängig davon, ob sie KI-generiert oder auf andere Weise erstellt sind – transparent erfolge und keinen dokumentarischen Anspruch erheben würde.
DJV: „Immer ein Grund, hellhörig zu werden“
Unabhängig davon würde die GdP Sachsen die internen Abläufe im Umgang mit KI-generierten Inhalten „weiter präzisieren“, insbesondere bezüglich Kennzeichnung und Kontextualisierung. Nach unserer Presseanfrage hat die Polizeigewerkschaft noch einen weiteren Hinweis auf das generierte Foto unter dem Text angebracht und expliziter in der Quellenangabe den Zusatz „KI-generiert“ ergänzt. Das Bild selbst nutzt sie weiter.
Alles netzpolitisch Relevante
Drei Mal pro Woche als Newsletter in deiner Inbox.
Der Bundesvorsitzende des Deutschen Journalisten-Verbands Mika Beuster kommentiert gegenüber netzpolitik.org: „KI-Fotos sind immer ein Grund, hellhörig zu werden.“ Journalist:innen, aber auch die Öffentlichkeit, sollten sich immer kritisch fragen, warum auf KI-Material zurückgegriffen wird, so Beuster weiter. Der Verband spreche sich zudem bei der Nutzung von KI-generierten Bildern für größtmögliche Transparenz aus.
Der Fotojournalist Kai Schwerdt kritisierte bei Bluesky: „Auch wenn das Bild als KI-generiert gekennzeichnet ist, finde ich es bedenklich, wenn die Gewerkschaft der Polizei (GdP) solche Bilder zu dramaturgischen Zwecken einsetzt. Es ist eine bewusste Abkehr von der Realität. Als wäre die nicht schon übel genug.“
Update 29.1.26:
Die GdP Sachsen hat das Bild ausgetauscht.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
X hat sich in den letzten Jahren nicht nur zur rechten Propagandaschleuder entwickelt, die Plattform erlaubte seit Ende Dezember auch das Generieren von sexualisierten Deepfake-Bildern. Wir haben Politiker, Ministerien und EU-Kommission gefragt, warum sie trotzdem auf der degenerierten Plattform bleiben.
Auch Bundeskanzler Friedrich Merz postet unbeeindruckt weiter auf der Deepfake-Plattform X, die früher mal Twitter hieß. – Alle Rechte vorbehalten IMAGO / Hanno Bode
Auf der Plattform X war es seit Ende Dezember möglich, mit dem Chatbot Grok sexualisierte Deepfakes von Erwachsenen und Minderjährigen zu erstellen. Eine Deepfake-Forscherin geht laut Bloomberg davon aus, dass stündlich etwa 6.700 sexualisierte Deepfake-Bilder mittels des Chatbots generiert wurden, die meisten davon von Frauen und ohne deren Zustimmung. Laut dem Bericht wurden solche Bilder auch nach einer Beschwerde-Meldung nicht durch die Moderation der Plattform entfernt. Nachdem die EU-Kommission am Donnerstag angewiesen hatte, dass X interne Dokumente zu Grok aufbewahren muss, hat die Plattform heute die Bildgenerierung eingeschränkt.
Eine Sprecherin der Unabhängigen Bundesbeauftragten gegen sexuellen Missbrauch von Kindern und Jugendlichen bewertet das Generieren von Deepfakes auf X kritisch: „Die niedrige Zugangsschwelle verändert das Ausmaß. Was früher technisches Wissen und verdeckte Netzwerke erforderte, ist heute per Texteingabe möglich.“ Dabei seien die Produkte hochrealistisch. Sie ließen sich kaum von echten Aufnahmen unterscheiden.
„Durch KI-generierte Missbrauchsdarstellungen entsteht konkreter Schaden: Sexualisierung kindlicher Körper, Weiterverbreitung von Gewaltbildern und die Normalisierung einer Täterperspektive“, so die Sprecherin weiter.
Wir haben deswegen exemplarisch beim Innen- und Familienministerium sowie zufällig ausgesuchten Bundestagsabgeordneten aller demokratischen Fraktionen, die X für ihre Kommunikation nutzen, angefragt, warum sie weiterhin auf so einer Plattform posten und ob sie nicht befürchten, dass die Plattform ihrer eigenen Reputation schaden könnte. Zudem haben wir in Brüssel die EU-Kommission gefragt, ob sie Konsequenzen aus den jetzigen Deepfakes zieht.
Abgeordnete von Grünen, Linken und Union zögern
Bei der Linken hatten wir die Vorsitzende und Bundestagsabgeordnete Ines Schwerdtner gefragt. Sie sagte, dass in Partei und Fraktion derzeit Gespräche über den weiteren Umgang mit X laufen würden. „Entscheidend ist, dass wir dabei zu einem gemeinsamen Vorgehen kommen.“ Ob und wann mit Ergebnissen in diesem Prozess zu rechnen ist, sagte Schwerdtner nicht.
Bei den Grünen hatten wir Britta Haßelmann, Konstantin von Notz und Agnieszka Brugger angefragt – und bekamen eine Sammelantwort der Pressestelle der Bundestagsfraktion. Die sagt lediglich, dass es für Politiker immer wichtig sei, den Dialog zu suchen und dafür auch Social Media zu nutzen. „Die Vorgänge auf X sind allerdings zweifellos indiskutabel“, heißt es weiter im Statement. Die Bundestagsfraktion beobachte die Entwicklungen der Plattform schon seit einiger Zeit mit Sorge und diskutiere auch die Konsequenzen in der Fraktion. Wann ein Punkt für Konsequenzen erreicht sei und warum man das Indiskutable diskutiere, sagte die Pressestelle nicht.
„Zunehmend eine Gratwanderung“
Bei der Union hat der Außenpolitiker Roderich Kiesewetter geantwortet: „Ich sehe die Nutzung von X zunehmend als Gratwanderung und bin zwiegespalten.“ Zwar sprächen die Veränderung der Diskussionskultur, die mangelnde Durchsetzung von Richtlinien, die Intransparenz der Algorithmen und auch die Ermöglichung von Deepfakes „eher dafür“ die Plattform zu verlassen, vieles davon treffe aber auch auf andere Plattformen zu.
Als Politiker sei es seine Aufgabe mit Argumenten und Inhalten Bürgerinnen und Bürger von politischen Lösungen oder Einschätzungen zu überzeugen und politisch zu kommunizieren. Solange die Abkehr von bestimmten Plattformen aus rechtlichen oder sicherheitsrelevanten Gründen nicht von Deutschland oder der EU empfohlen werde, setze er darauf, dass die EU durch Durchsetzung von Regelungen den Einfluss behalte.
„Die Gefahr, dass die Reputation leidet, gibt es leider bei vielen Internetmedien, insbesondere rechtspopulistischen, die z.B. Aussagen in seriösen Medien aus dem Zusammenhang reißen, verkürzen und zu Desinformationszwecken nutzen, dies halte ich persönlich für nochviel gravierender“, so Kiesewetter weiter.
Innen- und Familienministerium mit Standard-Antwort
Dürr fallen die Antworten der angefragten Ministerien aus. Das Bundesinnenministerium (BMI) antwortet auf die Frage, warum es weiterhin auf einer solchen Plattform poste: „Im Rahmen seiner Presse- und Öffentlichkeitsarbeit informiert das BMI auf vielfältige Weise über seine Arbeit und kommt seinem verfassungsrechtlich gebotenen Auftrag nach, Bürgerinnen und Bürger über Regierungshandeln zu informieren.“ Auf die Frage, ob das Ministerium nicht eine Gefahr für seine Reputation in einem solchen Umfeld sehe, antwortet es lapidar: „Die Fortsetzung unserer Präsenzen auf Social Media Plattformen überprüfen wir fortlaufend.“
Eine ähnliche Antwort gibt auch das Familienministerium (BMBFSFJ). Es gehöre zur Erfüllung des Informationsauftrags, in den sozialen Medien mit verlässlichen Informationen präsent zu sein. „Dabei verstehen wir unsere Aktivitäten nicht als Unterstützung der Plattformen, sondern als Erfüllung unseres Informationsauftrages an den digitalen Orten, an denen Menschen sich informieren und austauschen.“ Das Ministerium beobachte „die aktuellen Entwicklungen auf den verschiedenen Plattformen genau“. Dazu gehöre auch, dass das Ministerium fortlaufend kritisch hinterfrage, auf welchen Plattformen es kommuniziere.
Ähnliche Antworten haben die Ministerien seit Monaten und auch schon unter der Ampel-Regierung gegeben.
EU-Kommission will „diversifizieren“
Kommissionssprecher Thomas Regnier sagte auf einer Pressekonferenz auf Nachfrage von netzpolitik.org: „Wir sind noch immer auf X aktiv, aber wir sind dabei, stark zu diversifizieren“. Man sei auf 14 Social-Media-Plattformen aktiv und überprüfe die Social-Media-Präsenz der EU-Kommission regelmäßig, das gelte auch für X.
Ähnlich wie die deutschen Ministerien argumentierte Kommissionssprecherin Arianna Podestà, dass es wichtig sei das „Publikum mit unseren Botschaften zu erreichen.“ Wenn dieses Publikum auf X sei, werde die EU-Kommission dort mit diesem in Kontakt treten.
Die Sprecherin dementierte den Vorwurf eines Journalisten, dass die EU-Kommission X bevorzuge. Was die Zukunft der EU-Kommission auf der Plattform angehe, wollte sich die Sprecherin nicht festlegen: „Nichts ist in Stein gemeißelt. Wir versuchen immer, unsere Präsenz zu verbessern.“
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Nach Risikoprüfung des Einsatzes von Palantir-Software in der Schweiz bekam der US-Konzern eine Absage, trotz jahrelanger Hofierung von Behörden und Armee. Den Eidgenossen sind die Risiken zu groß. Da drängt sich die Frage auf, warum die Palantir-Software für deutsche Polizeien gut genug sein soll. Innenminister Dobrindt wird sie beantworten müssen.
Der Chef von Palantir, Alex Karp, residiert auch in einem Anwesen in der Schweiz. Der US-Tech-Konzern expandiert sein Geschäft mit Analysesoftware schon mehrere Jahre nach Europa. Was liegt da näher, als auch den Eidgenossen die Palantir-Systeme anzudienen? Genau das versuchte das militärnahe Unternehmen über Jahre – aber biss sich die Zähne aus.
Das berichtet das Magazin „Republik“ aus der Schweiz. Die Journalisten haben mit Hilfe von 59 Anfragen nach dem Öffentlichkeitsgesetz in einer lesenswerten Analyse nachvollzogen, wie sich der Konzern an öffentliche Stellen ranwanzte, um seine Software bei den Schweizer Bundesbehörden und beim Militär an den Mann zu bringen. Der Palantir-CEO und Milliardär Karp gab sich höchstselbst die Ehre und empfing den damaligen Bundeskanzler Walter Thurnherr.
Die Analyse enthält auch einen 20-seitigen internen Evaluationsbericht der Armee. Darin werden Vorzüge, aber auch Risiken eines Palantir-Einsatzes beschrieben, die letztlich zur Ablehnung einer Kooperation mit dem Konzern führten. Die Militärexperten kommen zu dem Schluss, dass ein Abfluss von Daten aus den Palantir-Systemen technisch nicht verhindert werden könne.
Das jedoch lässt die von polizeilichen Palantir-Nutzern in Deutschland gebetsmühlenartig wiederholte Behauptung, ein Abfluss der polizeiinternen Daten sei technisch gar nicht möglich, unglaubwürdig erscheinen. Sie dürfte sich eher auf bloße Zusicherungen des US-Konzerns, nicht aber auf technische Fakten stützen. Denn die Software ist proprietär, weswegen technische Einblicke darin nur begrenzt möglich sind.
Die vier deutschen Landespolizeien und deren Innenminister, die Verträge mit Palantir eingegangen sind, wirken einmal mehr ignorant gegenüber diesen ernsten Risiken, die eine Kooperation mit dem Konzern mit sich bringen: Nordrhein-Westfalen, Hessen, Bayern und nun auch Baden-Württemberg.
Palantir
Wir berichten mehr über Palantir als uns lieb wäre. Unterstütze unsere Arbeit!
Daumen runter für Palantir
Palantir-Software, wie sie auch von deutschen Polizeien eingesetzt wird, verbindet heterogene Datenbanken und analysiert Verbindungen von Datenpunkten oder Mustern darin. Zuvor fragmentierte Daten werden also zusammengeführt. Damit werden beispielsweise Verbindungen von Menschen sichtbar oder geographische Bewegungen verfolgbar.
Im Evaluationsbericht heißt es zu den Risiken für die in die Palantir-Systeme eingepflegten Daten:
Palantir ist ein Unternehmen mit Sitz in den USA, bei dem die Möglichkeit besteht, dass sensible Daten durch die amerikanische Regierung und Geheimdienste eingesehen werden können.
Die Risikoeinschätzung der Militärs weist auf weitere Problemfelder, die von den polizeilichen Palantir-Vertragspartnern in Deutschland auch gern wegdiskutiert werden. Die Palantir-Software führe zu einer Abhängigkeit vom US-Anbieter, insbesondere „von externem hochqualifizierten Personal“. Ob „für die Implementierung, den Betrieb und die Wartung der Systeme dauerhaft technisches Fachpersonal von Palantir vor Ort benötigt wird“, sei unklar.
Auch drohe der Verlust der Datenhoheit und der „nationalen Souveränität“. Das Kostenrisiko sei außerdem schwer abzuschätzen, da es keine Preislisten gebe. Das betrifft die Implementierung und Anpassung der Software und die Datenmigration, aber auch Lizenzgebühren und Wartungskosten. Man könne „genaue Beträge nur durch direkte Verhandlungen“ ermitteln.
Zudem werden die starken Eingriffe in die Privatsphäre in dem Bericht problematisiert, die durch die umfassende Datensammlung und -analyse entstehe. Auch die Diskriminierung spielt dabei eine Rolle, denn es könne dazu kommen, „dass bestimmte Personen aufgrund statistischer Zusammenhänge ungewollt ins Visier geraten“.
Das Schweizer Bundesamt für Rüstung prüfte den Einsatz von Palantir-Software für ein bestimmtes Softwaresystem, das „Informatiksystem Militärischer Nachrichtendienst“. Dafür lagen vorgegebene Kriterien der Ausschreibung vor. Eines davon erfüllt das Palantir-Angebot nicht. Das Amt gibt den Journalisten aber keine Auskunft, um welches Kriterium es sich handelte. Das dazu veröffentlichte Schreiben besteht fast nur aus Schwärzungen.
Die Eidgenossen entschieden sich gegen den Einsatz von Palantir-Produkten. Es war ihnen ein zu großes Risiko. Die Empfehlung lautet knapp: „Die Schweizer Armee sollte Alternativen zu Palantir in Betracht ziehen.“
Der Bericht stammt von Anfang Dezember 2024. Seither hat der 2003 gegründete US-Anbieter seine überaus engen Verbindungen zur Trump-Regierung noch intensiviert und durch Karp-Interviews medial begleitet. Die Software wird zwar in Kriegsgebieten von US-Geheimdiensten und -Militärs schon jahrelang intensiv genutzt. Doch seit dem Börsengang im Jahr 2020 wuchs Palantir zu einem der größten US-Tech-Konzerne heran.
Wenn die Risiken der Zusammenarbeit in Fragen der Datenhoheit und gar dauerhaften Abhängigkeit, der digitalen Souveränität, des Datenabflusses und bei den Grundrechtseingriffen von den Schweizern als so erheblich eingeschätzt werden, drängt sich die Frage auf, warum die deutschen Landespolizeien und Landesinnenminister zu einer anderen Einschätzung kommen. Es bleibt ihr Geheimnis.
Der deutsche Bundesinnenminister Alexander Dobrindt (CSU) weigert sich bisher, diese Fakten anzuerkennen. Denn er schließt nicht aus, Palantir-Produkte bei den Polizeien des Bundes einzuführen. Sein geplantes „Sicherheitspaket“ umfasst auch die sog. automatisierte Datenanalyse, so dass auch die Polizeien des Bundes ihre Datenbanken automatisiert erschließen und auswerten könnten.
Wenn er für die polizeiliche Datenanalysesoftware mit dem US-Konzern kooperieren wollte, würden Millionen Datensätze, auch von völlig unverdächtigen Menschen, diesen nun hinlänglich bekannten Risiken ausgesetzt. Aber eigentlich müsste Palantir als möglicher Vertragspartner schon wegfallen, weil er mit der vielgepriesenen „digitalen Souveränität“ nicht kompatibel ist. Denn selbst bei lockerer Auslegung von „digital souverän“ kann die proprietäre Softwarelösung des US-Konzerns nicht akzeptabel sein.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Berufung der ehemaligen Meta-Angestellten Niamh Sweeney zur neuen irischen Datenschutzbeauftragten sorgt weiter für Empörung. Mehr als 40 Nichtregierungsorganisationen wenden sich nun in einem offenen Brief an die EU-Kommission.
Dürfte sich über die Ernennung Sweeneys freuen: Meta-Chef Mark Zuckerberg – Alle Rechte vorbehalten IMAGO / Cover-Images
Mehr als 40 Nichtregierungsorganisationen sprechen sich in einem offenen Brief gegen die neuberufene irische Datenschutzbeauftragte aus. Zu den Unterzeichnern zählen unter anderem Access Now, ARTICLE 19, European Digital Rights (EDRi) und Statewatch. Ihren offenen Brief gegen die Ernennung von Niamh Sweeney zur dritten Datenschutzkommissarin der irischen Data Protection Commission (DPC) reichten die Organisationen gestern bei der irischen Regierung ein.
Die ehemalige Journalistin Sweeney arbeitete mehrere Jahre in unterschiedlichen Funktionen für den Tech-Konzern Meta. Sie war unter anderem die irische „Head of Public Policy“ von Facebook. Im September dieses Jahres hatte die irische Regierung sie zur Commissioner for Data Protection ernannt.
„Wir haben jetzt buchstäblich eine Lobbyistin der US-Big-Tech-Branche, die die US-Big-Tech-Branche für Europa überwacht. 20 Jahre lang hat Irland das EU-Recht nicht wirklich durchgesetzt. Aber zumindest hatte die irische Regierung genug Schamgefühl, um die Durchsetzung heimlich zu untergraben.“
Die NGOs sehen in der Entscheidung ein „besorgniserregendes Level von Missachtung von europäischem Recht“. Sweeney habe sich vor wenigen Monaten noch für große Tech-Unternehmen eingesetzt. Auch fürchten die Unterzeichnenden, dass Sweeney an sogenannte Non-disclosure Agreements gebunden sein könnte, die sie dazu verpflichten, Geschäftsgeheimnisse etwa von Meta zu wahren. Ihre Ernennung stelle die Unabhängigkeit der DPC ernsthaft in Zweifel, so die NGOs.
Undurchsichtiges Auswahlverfahren
Auch das Auswahlverfahren von Niamh Sweeney kritisieren die Nichtregierungsorganisationen in ihrem Schreiben. Laut einem Bericht von Politico gehörte dem Ausschuss, der Sweeney rekrutiert hat, unter anderem der Anwalt Leo Moore an. Moore ist Partner bei der Kanzlei William Fry. Er vertritt nationale sowie multinationale Unternehmen in der Technologiebranche. Ein Mitbewerber Sweeneys hatte Moore Interessenskonflikte unterstellt, seine Beschwerde gegen die Zusammenstellung des Ausschusses blieb allerdings erfolglos.
Auch die DPC selbst wird von den NGOs kritisiert. „Das Fehlen einer wirksamen Durchsetzung ist mittlerweile systemisch geworden, wodurch Irland zum Nadelöhr bei der Anwendung der Datenschutz-Grundverordnung wurde“, schreiben die Bürgerrechtsorganisationen.
Um das Vertrauen in die DPC zu fördern, schlagen die NGOs zwei Maßnahmen vor. Sie fordern zum einen ein neues Auswahlverfahren, um die Stelle der Datenschutzbeauftragten mit einer Person zu besetzen, die nachgewiesenermaßen über ausreichend Qualifikationen bei den Themen Grundrechte und Datenschutz verfügt. Zum anderen drängen sie darauf, das bestehende Auswahlverfahren unabhängig prüfen zu lassen.
Der offene Brief in Wortlaut
Date 14-10-2025
Re: Concerns Regarding the Independence of the Irish Data Protection Commission Following Recent Appointment
For the attention of Michael McGrath, European Commissioner for Democracy, Justice, the Rule of Law and Consumer Protection.
Dear Commissioner,
We, a large group of civil society organisations are writing to you to express our extreme concern regarding the recent appointment of the new Commissioner at the Irish Data Protection Commission (DPC). The person in question has held a long-standing senior public affairs position at one of the largest technology platforms that the DPC is mandated to regulate, and indeed in her latest role (which ended only last August) continued to advocate on behalf of these platforms. All this raises serious questions about the perception and reality of the DPC’s independence at a time when its impartiality is of critical importance for the entire Union.
The GDPR requires, under Article 52, that supervisory authorities act with full independence. Equally, Article 41 of the Charter requires that procedures are handled ‚impartially‘ and ‚fairly‘. This principle is fundamental to the credibility of the Regulation and to the rights it is designed to protect. Its importance is amplified in Ireland, where the DPC has responsibility as lead supervisory authority for many of the world’s largest technology companies. Indeed, the importance of independence has already been affirmed by the Court of Justice in Case C-288/12 Commission v. Hungary, where the premature ending of a data protection supervisor’s mandate was found to have violated EU law. This precedent underlines both the necessity of safeguarding supervisory authorities‘ independence and the Commission’s role in ensuring compliance.
Concerns about enforcement are long-standing and ongoing. At the Irish DPC, investigations against major companies have been seldom in the last several years, with critical decisions often only materialising, if at all, under pressure from the European Data Protection Board (EDPB) and other Member State authorities, or indeed even after intervention by the Court of Justice of the European Union (CJEU). Patterns of delayed or limited enforcement continue to undermine trust in the DPC as an effective enforcer of the law.
Furthermore, recent revelations have confirmed that intimate data, including sensitive information about survivors of sexual abuse, is still being traded through real-time bidding systems with the case having been discussed at a session in the Irish parliament in the last weeks. That this continues today is the direct result of years of inaction by the Irish DPC, despite clear evidence of unlawful practices. This failure is not limited to one case. Since 2017, civil society organisations have filed highly important and strategic complaints in Ireland, yet these cases have either not been treated or have faced years of delay. The absence of meaningful enforcement has become systemic, making Ireland the bottleneck in the application of the GDPR.
The appointment of a Commissioner with such close ties to an industry under investigation threatens to only reinforce perceived distrust in the Irish DPC at precisely a time when even greater assurances of independence are needed given wider geo-political events. Any contractual obligations, such as non-disclosure agreements with entities regulated by the DPC, would exacerbate these risks from the outset.
The broader context only further compounds these concerns. Across the Union, data protection is increasingly under pressure, with proposals to weaken safeguards under the guise of simplification. Enforcement of the GDPR has too often been treated as a secondary priority, despite being essential to the protection of fundamental rights. The credibility of the EU’s digital rulebook depends on strong, impartial, and effective supervisory authorities.
We therefore respectfully urge the European Commission to:
Assess whether the independence of the Irish DPC can be guaranteed under Article 52 GDPR and Article 41 CFR in light of this appointment;
Clarify the steps the Commission will take if the independence of a supervisory authority is compromised, including the initiation of infringement procedures where appropriate;
Develop a work programme to demonstrate how the task entrusted to you in this mandate – the effective enforcement of the GDPR (as set out in your mandate letter) – will be put into practice as a political priority, including EU-level safeguards to prevent conflicts of interest in supervisory authorities, including transparent appointment processes and revolving-door restrictions.
Ensuring that supervisory authorities are independent, impartial, and effective is not only a legal requirement but also a political necessity for safeguarding rights and maintaining public trust. Undermining supervisory authority independence also risks weakening protections guaranteed under the Charter of Fundamenta Rights. We remain at your disposal for further discussion and would be glad to contribute to the Commission’s reflections on this matter.
Yours sincerely,
Access Now
AI Accountability Lab, Trinity College Dublin
AI Forensics
Albanian Media Council
Alliance4Europe
ARTICLE 19
Asociația pentru Tehnologie și Internet (ApTI)
Balanced Economy Project
Bits of Freedom
Center for Countering Digital Hate
Civil Liberties Union for Europe
Coalition for Women In Journalism
Corporate Europe Observatory
Defend Democracy
Ekō
Electronic Frontier Norway
European Digital Rights (EDRi)
Global Witness
HateAid
Homo Digitalis
Hope and Courage Collective
ICCL
Irish Network Against Racism
IT-Pol
Lie Detectors
LobbyControl
New School of the Anthropocene
noyb
Open Markets Institute
Panoptykon Foundation
People Vs Big Tech
Politiscope
The Good Lobby
SOMI
Statewatch
SUPERRR Lab
Uplift, People Powered Change
Vrijschrift.org
Waag Futurelab
WHAT TO FIX
Xnet, Institute for Democratic Digitalisation
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Von Suchmaschinen über soziale Medien bis zu KI: Technische Entwicklungen haben den Journalismus im Netz immer wieder verändert und ihm Reichweite als zentrale Zielgröße aufgezwungen. Die Geschichte der Online-Medien muss deshalb auch als Geschichte vom Verlust der journalistischen Autonomie begriffen werden.
Klicks wurden zur wichtigsten Währung im Online-Journalismus – Gemeinfrei-ähnlich freigegeben durch unsplash.com Liam Briese
Derzeit häufen sich die 30. Geburtstage von Online-Auftritten überregionaler Traditionsmedien. Mit amüsierten Rückblicken auf steinzeitlich anmutende Technik, auf das kleine und eher kuriose Publikum oder die Frage, wer zuerst da war, feiern sie ihr Jubiläum in zahlreichen Texten. Was bei den Erzählungen außen vor bleibt: wie das Internet die Funktionsweise der Massenmedien selbst verändert hat.
Das Netz als Spielwiese und Geschäftsgelegenheit
Als sich das Internet mit Beginn der 1990er Jahre zunehmend kommerzialisiert, ist der Zeitgeist geprägt von Visionen der Entstaatlichung, die sich auch in die Konstruktion des digitalen Raumes einschreiben. Ohne Staat aber, das übersehen die Pionier*innen damals, kann niemand verhindern, dass Großunternehmen den Cyberspace kolonisieren. Das Internet ist schnell nicht mehr Versammlungsort einer Gegenkultur, sondern wird zur Geschäftsgelegenheit.
Die grenzenlose Kommodifizierung ist für viele Zeitgenossen kaum vorherzusehen – dafür bietet der neue Raum zu viele Möglichkeiten. Die deutschen Medien jedenfalls treten mit einem anderen Gefühl den Weg ins Netz an: Sie begeben sich auf eine Spielwiese. Die liegt in einer Gemeinde, der sogenannten Netzgemeinde. Dort ist es zwar nicht so beschaulich wie es heute klingt, in den frühen Foren geht es schon hoch her. Für die Journalist*innen ist sie aber vor allem ein Experimentierfeld, die Grenzen der eigenen Arbeit zu öffnen.
Anders als in der Rückschau oft behauptet, wird in dieser Frühphase des Online-Journalismus durchaus über dessen Finanzierung nachgedacht. Der erste „Spiegel Online“-Chef Uly Foerster etwa erzählt im Interview, dass er damals in der eigenen Anzeigenabteilung und bei Agenturen hausieren ging, um die Möglichkeiten von Internetwerbung auszuloten. Und Dirk Kuhlmann fragt in einer Studienarbeit für die TU Berlin 1995/96 die Zahlungsbereitschaft der ersten Online-Leser*innen der „taz“ ab – mit dem Ergebnis, dass jedenfalls ein Teil der Befragten bereit wäre, ein Abonnement zu beziehen und dafür zu bezahlen.
Der Zeitgeist ist aber ein anderer: Das kommerzielle Internet finanziert sich nicht über Abos, sondern über Werbung. Manch früher US-Onlinedienst wie etwa der Webhoster Tripod spielt sie schon damals passend zu Interessen und persönlichen Merkmalen aus. Weil aber selbst demografisch genaue Daten nur bedingt Rückschlüsse auf individuelle Konsuminteressen zulassen, funktioniert dieses Modell bereits in den 90ern vor allem mittels eines Faktors, die das Internet bis heute prägt: maximale Reichweite.
Wer den Dotcom-Boom überlebte, backte kleine Brötchen
Die Geschäftsgelegenheit Internet nimmt als Dotcom-Boom schnell Fahrt auf. In den späten 90ern provozierten bis dato oft unbekannte Unternehmen mit neuartigen Geschäftsideen immer höhere Gewinnerwartungen bei Anlegern und nährten teilweise mit kriminellen Konzepten eine Börsenblase. Ohne diese Phase lässt sich die Geschichte des Online-Journalismus nicht erzählen.
Zwar profitieren deutsche Medienunternehmen kaum von dem Hype – Werbekunden in Deutschland sind noch nicht auf das neue Anzeigenumfeld eingestellt, nur wenige Online-Medien verdienen wirklich Geld. Trotzdem zieht der Niedergang des Dotcom-Booms sie mit in den Abgrund. Nach dem Platzen der Blase im März 2000 geraten viele Medien unter Druck. Der Internet-Werbemarkt bricht vorübergehend ein und in den gerade erst aufgebauten Online-Redaktionen wird gekürzt. Der Online-Dienst Heise schreibt 2010 rückblickend: „Wer überlebte, backte fortan kleine Brötchen im Web 1.0.“
„Spiegel Online“ aber hat Glück: Kurz vor dem Crash habe er noch personell aufstocken können, erzählt Mathias Müller von Blumencron, der ab 2000 Chefredakteur des Nachrichtenportals ist. Die Zeit nach der geplatzten Blase sei der Redaktion aber „wie eine Ewigkeit vorgekommen“. Es habe nahezu keine Online-Werbung gegeben und große Skepsis in den Verlagen. Kurzum: Die Weiterentwicklung stockte.
Der 11. September und seine Folgen
Eine nachhaltige Depression bleibt dennoch aus. Zu schnell habe sich die Technologie weiterentwickelt, erinnert sich der Journalist Detlef Borchers im Gespräch. Aus den Nischeninteressen Computer und Internet wird ein Lifestyle-Thema, der digitale Raum entwickelt sich bald zum Massenphänomen. Der kollektive Schock, sofern er überhaupt so zu bezeichnen ist, weicht einer gemeinschaftlichen Euphorie über die neue Technik.
Als Durchbruch für den Online-Journalismus muss allerdings ein anderer Krisenmoment gelten: Die Terroranschläge auf das World Trade Center am 11. September. „Ab 2001 reichte es nicht mehr, nur die Tagesschau zu gucken“, so Borchers. In dieser Zeit stellt Google – gerade Marktführer geworden, bis dahin aber keineswegs die dominante Suchmaschine – manuelle Linklisten zu wichtigen Nachrichtenportalen auf seine Homepage. Auf der Startseite finden sich damals Verweise zu Medien aus aller Welt.
Zwar sind deren Web-Auftritte wie Radio und TV teilweise immer noch zu langsam, doch das Publikum ist jetzt da. In Kommentaren zum 30. Geburtstag von „Spiegel Online“ bezeichnen viele Leser*innen die Terroranschläge als Erweckungsmoment. In einem Rückblick von „welt.de“ heißt es: „Das Interesse der Nutzer an aktualisierten Nachrichten ließ in den folgenden Tagen und Monaten nicht nach.“
Bei vielen Medien gehen aber zeitweise die Server in die Knie, sie sind auf den Ansturm der Besucher*innen nicht vorbereitet. Möglicherweise ist dies mitentscheidend dafür, dass Suchmaschinen sich zur ersten Anlaufstelle für Informationen im Netz entwickeln können. Journalist Detlef Borchers jedenfalls macht die Anschläge auf das World Trade Center für den Aufstieg der heute größten Suchmaschine verantwortlich: Google habe damals besser reagiert als viele Zeitungen. Die Suchmaschine blieb in dieser entscheidenden Situation immer erreichbar und machte sich so zum gern genutzten Startfenster für das Web.
Google und Online-Journalismus wären beide als Erfolgsmodell ohne den jeweils anderen zwar vorstellbar, die Geschichte hat sie aber aneinander gebunden. Das erste Mal seit der Mondlandung entstand in der sogenannten westlichen Welt ein Informationsbedürfnis, das von einem Augenblick auf den anderen von einer bis dahin kaum verbreiteten Technologie erfüllt werden konnte: damals war es das Fernsehen, für 9/11 ist es das Internet.
Das Diktat der Suchmaschine
Trotz des wachsenden Publikums läuft das Online-Geschäft der Medien nach dem Dotcom-Crash noch einige Zeit schlecht. Ein wesentlicher Grund ist die Werbeflaute: Noch im Jahr 2000 sagt eine Studie des Prognos-Instituts Netto-Werbeeinnahmen von 944 Millionen Euro auf dem Online-Werbemarkt voraus, real sind es dann nur 246 Millionen – eine Fehlermarge von 380 Prozent.
2003 beginnt es aber zumindest bei „Spiegel Online“ aufwärts zu gehen. Ab da, so erinnert es der damalige Chef Blumencron, habe die Werbeindustrie das Netz entdeckt. Natürlich seien die Online-Geschichten nicht so tief recherchiert gewesen wie jene der Printausgabe. Für das auf Papier nur wöchentlich erscheinende Nachrichtenmagazin ist das tagesaktuelle Geschäft im Netz ohnehin Neuland. „Vieles waren aufgehübschte Agenturmeldungen mit einigen eigenen Gedanken und schnellen Rechercheergebnissen“, so Blumencron. Mit der Zeit habe sich aber eine Mischung aus Geschwindigkeit und zunehmender Hintergrundberichterstattung entwickelt.
Die Tageszeitungsverlage spiegeln da im Netz noch hauptsächlich ihr Programm aus dem Druckprodukt. Ein Glücksfall für „Spiegel Online“, meint Blumencron: „Wir dachten immer: Wie wird uns wohl geschehen, wenn die ihre Redaktionen auf die Digitalplattformen bringen? Dann würden wir untergehen, weil wir gar nicht so schnell analysieren und kommentieren können wie die. Das haben die aber glücklicherweise alle nicht gemacht, weil sie nicht an das Internet geglaubt haben, fünf, sechs, sieben Jahre lang.“ Das sei das große Geschenk der deutschen Zeitungsverleger an den Magazin-Gründer Rudolf Augstein gewesen.
Mehr noch als Augsteins Medienhaus profitiert aber Google. Über die Suchmaschine lassen sich Reichweiten realisieren, die mit einem gedruckten Magazin kaum vorstellbar wären. Dies verspricht dem Verlag neue Erfolge, gibt dem US-Konzern aber zunehmend Macht darüber, wie publiziert wird: Bei „Spiegel Online“ beobachtet die Redaktion, dass 15 bis 20 Prozent der Leserschaft über Google kommt und will den Effekt verstärken. Das funktioniert damals schon mit einer gewissen Boulevardisierung, also etwa der Verwendung emotionalisierender Reizwörter, und mit Überschriften und Text-Snippets, die an die Erfordernisse der Suchmaschine angepasst sind. Zwischen verschiedenen Nachrichtenportalen entsteht ein Wettbewerb um die besten Plätze in den Suchergebnissen, der eine fortlaufende Verschärfung dieser Methoden verlangt.
Google war am geschicktesten
„Das war auch ein bisschen schizophren, aber so ist es nunmal gewesen“, sagt Blumencron. Was er meint: Mit dieser Denkweise bekommt Googles Geschäftsmodell Auftrieb, weil die Online-Redaktionen mehr oder weniger alle diesen Weg gehen und den Mechanismen der Suchmaschine weiter entgegenkommen. Letztlich geht das auf Kosten der Verlage, die sich online zunehmend vom Gutdünken des Konzerns abhängig machen und der Suchmaschine gleichzeitig mit ihren wertvollen Inhalten Nutzer*innen und Klicks auf eigene Werbeanzeigen bescheren. Blumencron sagt aber auch: „Google hat es einfach am geschicktesten gemacht. Ein Internet, in dem sich zunehmend Chaos ausbreitete, wäre ohne Findemechanismus Chaos geblieben.“
Im Jahr 2004 nutzen 74 Prozent der Deutschen Suchmaschinen als wichtigsten Zugang zu Informationen im Netz, Google hält bereits 70 Prozent Marktanteil – eine Monopolstellung, die im Printgeschäft undenkbar wäre. Noch 2005 sieht das Bundeskartellamt in Google aber keinen relevanten Werbemarktakteur und traut dem Internet keine bedeutende Rolle im Mediengeschäft zu, erinnert sich Springer-Chef Mathias Döpfner Jahre später in einem Artikel. Google kann seine Vormachtstellung in der Folge weiter ausbauen.
2009 sagt der damalige CEO Eric Schmidt in bemerkenswert selbstbewussten Worten: „Wir haben entschieden, dass Reichweite der Wert ist, den wir unseren Partnern zur Verfügung stellen.“ Eine folgenschwere Entscheidung für den Journalismus. Neben dem Werbemarkt funktioniert nun also auch die Distribution der Inhalte nach dem Muster „Hauptsache mehr!“. In dem von Blumencron als widersprüchlich beschriebenen Denkmuster, den Verlockungen einer messbar wachsenden Leser*innenschaft zu erliegen, verschiebt sich das Verständnis der Redaktionen darüber, was relevant ist. Lässt sich Erfolg in Zahlen ausdrücken, rücken qualitative Kriterien im hektischen Tagesgeschäft schnell in den Hintergrund – deren Analyse ist schließlich ungleich aufwendiger.
Man könnte wohl von einer metrischen Deformation des kritischen Geistes sprechen, die sich seither in der Arbeitsweise von Journalist*innen vollzieht. Denn diese Rationalität folgt keiner journalistischen Maxime, sondern dem Geschäftsmodell der Suchmaschine.
Reichweite als zentrale Maxime im Social Web
Diese Logik setzt sich auch im zweiten, dem sogenannten Social Web fort. Den Medien erscheint es aber erst einmal wieder als neuer Möglichkeitsraum. Im Interview formuliert der frühere „Bild“-Chefredakteur Kai Diekmann den damals geltenden Branchenkonsens, neue Technologien gelte es zu umarmen. Bei einem Expertengespräch zur „Zukunft des Qualitätsjournalismus“ im Kulturausschusses des Bundestags Anfang 2011 hält es Katharina Borchert, zu jener Zeit Geschäftsführerin von Spiegel Online, für „extrem wichtig“, nicht auf die großen Player wie Google und Facebook zu schimpfen, „sondern ganz im Gegenteil sich Gedanken zu machen, wie wir alle von ihnen profitieren können, denn die meisten von uns profitieren im großen Ausmaß bereits davon.“
Tatsächlich sorgen die Begegnungsmöglichkeiten mit dem Publikum im Web 2.0 anfangs auch für Lichtstreife. Der Ton aber, das berichten Pionier*innen des Social Media-Journalismus, ist vor allem auf Facebook rau. Schnell ist klar: Seriös moderieren lässt sich das nicht. Dazu kommen sich verändernde Voraussetzungen bei den Plattformen: Die Algorithmen werden komplexer und bewirtschaften zunehmend Affekte.
Wieder stellt sich die Frage, wie eigentlich Geld mit diesen neuen Kanälen verdient werden könnte. Die Redaktionen müssen teils selbst nach Argumenten suchen. Wesentlich ist dabei wieder der Traffic – also die Zahl der Rezipient*innen, die über einen Link auf der Plattform auf die Nachrichtenseite kommen. Die Reichweiten-Logik verstetigt sich: Viel hilft viel und ist sowieso fast die einzige Möglichkeit, im Internet Geld zu verdienen.
Journalistische Inhalte müssen dafür an eine zunehmend affektgetriebene Unterhaltungslogik angepasst werden, um in der Mechanik der Algorithmen bestehen zu können – zuerst in der Themenauswahl, dann ihrer Darstellung und schließlich rückwirkend im Denken der Redaktionen, deren Aufgabe es ist, erfolgreich im Sinne von weitreichend diese Kanäle zu bespielen.
„In den sozialen Medien kommt es zu mehr Wechselwirkungen, Journalist*innen lernen über das erhaltene Feedback zu ihren Postings auch, welche Inhalte sich auf der Plattform leichter popularisieren“, beschrieben es kürzlich die Kommunikationswissenschaftler Jonas Schützeneder und Christian Nuernbergk. Wenn der Erfolg in Reichweite gemessen wird, dann wird die dazu passende Auswahl der Inhalte zweckrational – wer will schon nicht erfolgreich sein?
Auch das Publikum wird quantifiziert
Während die Redaktionen sich den fortlaufend verändernden sozialen Netzwerken anzupassen versuchen, ficht Springer-CEO Döpfner, der damals auch Präsident des Zeitungsverlegerverbandes ist, im Frühjahr 2014 ein Distanzduell mit Google-Verwaltungsrat Eric Schmidt: „Wir haben Angst vor Google“, schreibt er damals. „Ich muss das einmal so klar sagen, denn es traut sich kaum einer meiner Kollegen, dies öffentlich zu tun.“
Freiwillige Selbstunterwerfung könne nicht das letzte Wort der Alten Welt gewesen sein, so Döpfner, immerhin selbst Milliardär und Lenker eines global operierenden Konzerns. Wie Blumencron für den Spiegel beschreibt auch er das Verhältnis zu dem Tech-Konzern als schizophren: Leser*innen hätten das jedenfalls so interpretiert, weil Springer Google für die eigene Vermarktung nutze und gleichzeitig verklage. Niemand in der Verlagsbranche könne ohne Google auskommen, so Döpfner.
Reichweite hat sich da längst plattformübergreifend als zentrale Erfolgsgröße durchgesetzt. Am Ende sei der Traffic für den Spiegel nicht über das journalistisch attraktive Twitter, sondern über das journalistisch unerquickliche Facebook gekommen, erinnert Maike Haselmann, die erste Social Media-Redakteurin des „Spiegel“.
In klassischen Printredaktionen stößt die Transformation mit ihren metrischen Analysemöglichkeiten auf Widerstände. Es liegt schließlich eine intellektuelle Abwertung darin: Der Erfolg von Beiträgen bemisst sich nicht mehr in Reaktionen aus der Politik oder in der inhaltlichen Auseinandersetzung in Leser*innenbriefen, sondern in Zahlen, die wenig Deutung zulassen. In einem Berufsbild, das sich über die Qualität der eigenen Deutungskraft definiert, muss das beinahe notwendig befremden.
Auch die Rückmeldung des Publikums wird quantifiziert: Statt den Leser*innen intensiver zu begegnen, wie es das Web 2.0 versprach, wird deren menschliche Regung (oder Erregung) als Reaktion auf einen Beitrag neutralisiert, weil ihre quantitative Messung nichts über den emotionalen Aggregatzustand der Rezeption aussagt. Ein Text könnte große Reichweite gerade deshalb erzielt haben, weil er besonders schlecht ist.
Die Angst der Medien, abgehängt zu werden
Als im Oktober 2022 mit ChatGPT das erste große Sprachmodell für die breite Öffentlichkeit an den Start geht und der Anbieter OpenAI die Konkurrenz überrumpelt, wird der Hype in Massenmedien genährt. Im „Spiegel“ heißt es: „Aber OpenAI ist schneller. Einige sagen: schneller und fahrlässiger, denn ChatGPT spuckt jede Menge Unsinn aus. Binnen weniger Monate nutzen hundert Millionen Menschen ChatGPT. Die Flasche ist geöffnet. Hype ist eine Untertreibung für das, was nun folgt.“
Wieder entsteht das Gefühl einer Spielwiese, in den Verlagen und Redaktionen wird überlegt, wie man sich die Technologie nützlich machen könnte. Das ist weniger naiv als in den 90ern und auch vom Web 2.0 will man gelernt haben. Aus der Erfahrung aber, das Internet schon mal verpasst zu haben, hat sich in vielen Medienhäusern die Angst festgesetzt, sie könnten den Anschluss verlieren. Die Tech-Konzerne wissen darum und spielen mit dieser Sorge. Sie bewerben ihre neuen Produkte gezielt und bauen mit ihren Erzählungen Druck auf, neue Entwicklungen nicht zu verpassen. Befragungen von Medienwissenschaftler*innen zeigen: Dieser Druck kommt in den Redaktionen an.
Zehn Jahre nach seinem Brief an Eric Schmidt schreibt Mathias Döpfner, weshalb er Google nicht mehr fürchte: Bis auf Weiteres habe der Konzern auf ganzer Linie gewonnen. Weil der Springer-Chef – dem es natürlich immer und gerade auch um das eigene Geschäft geht – in seinem Text von 2014 über die Abhängigkeit journalistischer Medien von der Suchmaschine schreibt, bedeutet diese Niederlage auch: Selbstbestimmung ist verloren gegangen. Andere sprechen von einem Zwang zur Unterwerfung.
Google verändert derweil die Erzählung der Reichweite als Wert für die Partner in etwas Feindseligeres. Vor dem Hintergrund des Urheberrechtsstreits mit den Medien veröffentlicht der Konzern im März 2025 einen Report über ein Experiment in Europa. Einem Teil der Nutzer*innen sind in der Suche keine Inhalte von Qualitätsmedien mehr ausgespielt wurden, um so deren Wert für das eigene Geschäft zu taxieren. Wenig überraschend kommt Google zu dem vorteilhaften Ergebnis, dass sich für die Suchmaschine wenig bis nichts ändere, wenn man keine Nachrichteninhalte mehr findet.
Die Botschaft ist klar: Es gibt nichts zu verteilen, wenn Google selbst nichts mit journalistischen Inhalten verdient. Was im Bericht zur Randnotiz verkommt: Die Anfragen bei Google News – also nach hochwertigen journalistischen Informationen – sind im untersuchten Zeitraum deutlich angestiegen.
KI-Zusammenfassungen ersetzen Suchergebnisse
Währenddessen vollzieht sich gerade ein Paradigmenwechsel, der das Ende vom Wert der Reichweite einläutet: KI-Zusammenfassungen ersetzen Suchergebnisse. Damit schwindet der Anlass, die Suchmaschine überhaupt noch zu verlassen. Viele Verlage berichten von einbrechendem Traffic. Nachrichtensuchen nimmt Google bislang zwar der neuen Funktion aus; was eine Nachrichtensuche ist, entscheidet der Konzern aber selbst.
Diese Entwicklung ist seit etwa zwei Jahren abzusehen gewesen. Neue Ideen für die künftige Finanzierung des Online-Journalismus gibt es aber noch nicht. Das zentrale Muster wiederholt sich: Vor allem Google hat viel Geld damit verdient, in der Nachrichtensuche journalistische Inhalte zu verteilen. Die KI-Anbieter versuchen das nun, indem sie ihre Modelle damit trainieren. In der analogen Welt würde man wohl von Hehlerei sprechen.
Zwar haben die Verlage mit Bezahlschranken ein weiteres Standbein entwickelt, das sie ein wenig vor diesen Entwicklungen schützt. Es reicht aber nicht, um auf die Plattformen verzichten zu können. Das gilt insbesondere für Regional- und Lokaltitel. Selbst große Traditionshäuser wie die Rheinische Post oder die Stuttgarter Zeitung verharren mit etwa 25.000 respektive 10.000 Online-Abos seit längerem bei einer Zahl, die ihr Überleben nicht sichern kann.
Schon 1982 schrieb Medienwissenschaftler Siegfried Weischenberg: „Für den Journalismus ist die Technik konstituierend. Der Beruf entstand auf der Grundlage von technisch-ökonomischen Umwälzungen.“ Solche Umwälzungen bringen schließlich herausragende Informationsbedürfnisse hervor, die Gesellschaften als ganze betreffen. Daraus ergibt sich aber ein Spannungsfeld für den Journalismus. Weil er selbst betroffen ist, fehlt ihm bisweilen die kritische Distanz in der Bewertung neuer Technologien. Und während er sie mit Hypes groß macht, fällt er ihnen zum Opfer.
— Jann-Luca Künßberg ist Journalist und Autor. Er hat für Medien wie die taz, T-Online und den Südkurier geschrieben und für verschiedene Anstalten des öffentlich-rechtlichen Rundfunks gearbeitet.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Sie lassen nicht ab: Digitalcourage, der AK Vorrat und 23 betroffene prominente Verbände, Künstlerinnen, Journalisten, Anwältinnen und Ärzte gehen weiter gegen die Vorratsdatenspeicherung (VDS) vor. Das lose Bündnis hat letzte Woche seinen Antrag vor dem Bundesverfassungsgericht angepasst, um auf die im Dezember in Kraft getretene Novelle des Telekommunikationsgesetzes (TKG) zu reagieren.
Obwohl die anlasslose Speicherung von Verbindungs- und Standortdaten aller Nutzer:innen aufgrund von Verfahren vor dem Europäischen Gerichtshof (EuGH) hierzulande ausgesetzt ist, übernahm die vergangene schwarz-rote Koalition die auf Eis liegende Regelung praktisch wortgleich in das neue TKG. Würde der EuGH ein ihr genehmes Urteil sprechen, so die Überlegung der damaligen Regierung, könnte die VDS unmittelbar und ohne langwierige Gesetzesänderung umgesetzt werden.
Das wollen die Aktivist:innen verhindern. Ihre ursprüngliche Verfassungsbeschwerde stammt aus dem Jahr 2016, an ihrer Kritik ändern auch die neu nummerierten, aber inhaltlich unveränderten Paragrafen nichts. Zudem gelte laut dem EU-Abgeordneten Patrick Breyer: „Selbst wenn eine IP-Vorratsdatenspeicherung rechtlich machbar wäre, dürfen nicht alle Internetnutzer unter Generalverdacht gestellt und die Anonymität im Netz abgeschafft werden“, so der Pirat in einer Pressemitteilung.
Regelung könnte auch Messenger treffen
Die aktualisierte Verfassungsbeschwerde weist etwa darauf hin, dass unter Umständen bestimmte Messenger-Dienste von der VDS-Regelung betroffen sein könnten, die Zweckbindung der gesammelten Daten unzureichend ausfalle und Vertrauensberufe wie Anwält:innen oder Ärzt:innen nicht genügend geschützt seien.
Abgesehen hat es die Beschwerde aber auch auf die Vorratsdatenspeicherung von IP-Adressen. „Eine generelle und undifferenzierte Vorratsspeicherung der Identität der Internet-Nutzer würde die Erstellung aussagekräftiger Persönlichkeits- und Bewegungsprofile praktisch jeden Bürgers in noch höherem Maße als durch den Rückgriff auf Telefon-Verbindungsdaten ermöglichen“, heißt es in dem Schreiben.
Die Kenntnis der IP-Adressen von Internetnutzer:innen mache potenziell deren gesamte Internetnutzung sowie ihre Aufenthaltsorte nachvollziehbar, warnen die Aktivist:innen. Eine generelle und undifferenzierte VDS würde das Ende der Anonymität im Internet bedeuten und zu einer Verhaltensänderung von Bürger:innen führen – obwohl es keine belastbaren Untersuchungen gebe, die einen Zusammenhang zwischen Aufklärungsquote und anderorts in Kraft befindlicher VDS belegen könne.
Quick Freeze als Ausweg?
Für das umstrittene Überwachungsinstrument wird es ohnehin eng. Auf EU-Ebene erteilte ihm der EuGH-Generalanwalt Manuel Campos Sánchez-Bordona jüngst eine Absage. Oft folgt das Gericht den Empfehlungen des Generalanwalts, ein Urteil in dem Verfahren wird für das kommende Jahr erwartet. Zugleich ist erfahrungsgemäß davon auszugehen, dass selbst eine erneute Schlappe vor Gericht den „Zombie VDS“ nicht totkriegen wird.
In Deutschland will der neue Bundesjustizminister Marco Buschmann (FDP) die VDS hingegen „endgültig aus dem Gesetz streichen“, bestätigte er letzte Woche die Position der Ampel-Koalition. Stattdessen dürfte wohl Quick Freeze zum Einsatz kommen. In solchen Fällen werden Vorratsdaten erst nach einem konkreten Anfangsverdacht und einer gerichtlichen Anordnung „eingefroren“ und Ermittlungsbehörden zur Auswertung übergeben. Richtig umgesetzt gilt dieser Ansatz als grundrechtsschonende Alternative zur Vorratsdatenspeicherung und wird von Breyer, aber etwa auch vom Bundesbeauftragten für den Datenschutz und die Informationsfreiheit, Ulrich Kelber, befürwortet.