Netzpolitik wird allzu oft als technische Detailfrage für Nerds verkannt. Doch dort verhandeln wir längst individuelle wie kollektive Freiheit, Hoheit und Macht. Zwischen staatlichen Kontrollansprüchen und der Dominanz globaler Techkonzerne geraten die Interessen der Nutzer:innen ins Hintertreffen.
Wer hat die Macht? Wer nimmt sie sich? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Clay Banks
Netzpolitik ist längst keine Nischendisziplin mehr. Sie ist zu einem Feld geworden, in dem Macht ausgeübt, verschoben und abgesichert wird. Wer reguliert, überwacht oder moderiert, entscheidet nicht nur über technische Abläufe, sondern über die Bedingungen öffentlicher Kommunikation und die Hoheit über Technologien. Netzpolitik ist Machtpolitik: Das wurde im vergangenen Jahr besonders deutlich.
Ein Blick auf die großen netzpolitischen Debatten des Jahres zeigt, wie wenig es dabei um technische Fragen im engeren Sinne geht. Abgesehen von Spartenmedien, spezialisierten Interessenvertretungen und Thinktanks spricht öffentlich kaum jemand darüber, mit welchem Werkzeug was wie umgesetzt werden kann. Stattdessen wird darüber diskutiert, wer wessen Verhalten beeinflussen, Daten nutzen und Aktivitäten beobachten darf.
Bipolare digitale Welt
2025 haben Tech-Konzerne ihre faktische Rolle als Regulierungsakteure weiter ausgebaut. Plattformen wie Meta, Google oder ByteDance entscheiden täglich über Sichtbarkeit, Reichweite und Sanktionen. Und sie haben gezeigt, wie opportunistisch die Plattformbetreiber sind, wenn es darum geht, diese Gatekeeper-Stellung und die mit ihr verbundene Macht zu erhalten. Quasi im Gleichschritt gehen sie den von Trumps neofaschistischer Administration eingeschlagenen Weg mit. Stiefel schmecken im Silicon Valley anscheinend besonders gut.
Änderungen an Empfehlungsalgorithmen, der gezielte Einsatz politischer Werbung oder die Verwendung sowie der Umgang mit generativer KI können Auswirkungen auf Wahlkämpfe und mediale Öffentlichkeit haben. Diese höchst relevanten Eingriffe in die politische Öffentlichkeit erfolgen ohne demokratische Legitimation, geleitet von den Interessen der Tech-Giganten. Staatliche Regulierung könnte dieses Problem mildern, birgt damit aber auch die Gefahr, selbst Einfluss zu nehmen, der sich von den Interessen der Bevölkerung unterscheidet oder gar zulasten der Grundrechte der Nutzer:innen geht.
Der Konflikt verläuft dabei regelmäßig nicht zwischen Freiheit und Regulierung, sondern zwischen unterschiedlichen Machtzentren. Der Kampf um die Hoheit über das Netz ist überwiegend bipolar. Staatliche Stellen versuchen, Kontrolle zurückzugewinnen, die sie im digitalen Raum verloren haben, und damit staatliche Interessen zu sichern. Das können Schutz der Nutzer:innen vor der Willkür der Plattformbetreiber auf der einen Seite, aber auch etwa die angebliche Sicherstellung der öffentlichen Ordnung durch die massenhafte Überwachung der Nutzerverhalten sein. Tech-Konzerne verteidigen ihre Deutungshoheit über Plattformregeln, Datenflüsse und Aufmerksamkeit. Primär motiviert durch ihre eigenen wirtschaftlichen Interessen und die Maximierung ihrer Profitaussichten. Dazwischen stehen die Nutzenden, deren Rechte zwar nahezu gebetsmühlenartig beschworen, aber strukturell selten abgesichert werden.
Kein Raum für Freiheitsrechte?
Wer digitale Freiheitsrechte verteidigt, gerät damit in eine doppelte Abwehrhaltung. Auf der einen Seite steht der Staat, der im Namen von Sicherheit, Ordnung, Jugendschutz oder der Bekämpfung von politischer Einflussnahme immer weitergehende Eingriffsbefugnisse fordert. In diesem Jahr wurde erneut über EU-weite Chatkontrolle, biometrische Überwachung im öffentlichen Raum und den Zugriff auf Kommunikationsmetadaten diskutiert.
Auf der anderen Seite stehen Konzerne, die sich als neutrale Infrastrukturbetreiber inszenieren, tatsächlich aber eigene Interessen verfolgen. Ihre Moderationsentscheidungen sind allzu oft intransparent, ihre Beschwerdewege ineffektiv und ihre Prioritäten wirtschaftlich motiviert. Wenn Plattformbetreiber Konten sperren, Inhalte herauf- oder herabstufen oder Nutzerdaten automatisiert entwerten, fehlt es in der Praxis an rechtsstaatlichen Garantien. Nutzer:innen sind Adressaten von Regeln, an deren Entstehung sie nicht beteiligt waren.
Wer bestimmt die Regeln?
2025 hat auch gezeigt, wie eng diese Machtfragen mit geopolitischen und wirtschaftlichen Interessen verknüpft sind. Debatten über chinesische Plattformen, europäische Souveränität oder US-amerikanische KI-Modelle sind Fragen der nationalen und globalen Sicherheit. Es geht um Kontrolle über Infrastrukturen und Technologien. Wer die Plattform betreibt, bestimmt die Regeln. Wer die Daten besitzt, kontrolliert die Auswertung. Und derjenige, in dessen Land sich die Infrastrukturen befinden, hat die Souveränität, sie zu regulieren – oder nicht.
Eine um den Erhalt von Freiheitsrechten bemühte Netzpolitik kann sich deshalb nicht mit abstrakten Bekenntnissen begnügen. Sie muss konkrete Anforderungen stellen: rechtsstaatliche Verfahren auch auf Plattformen, effektive Transparenz über algorithmische Entscheidungen, einklagbare Nutzerrechte und klare Grenzen für staatliche Überwachung. Regulierung ist notwendig, aber sie muss sich stets im rechtsstaatlichen Rahmen bewegen. Das heißt, sie muss in ständiger Abwägung der verschiedenen betroffenen Grundrechte geschehen und immer wieder neu vor den Nutzenden erklärt und gerechtfertigt werden. Und sie darf nicht an private Akteure delegiert werden, ohne demokratische Kontrolle sicherzustellen.
Das Netz ist politisch und bleibt es auch
Der Rückblick auf das Jahr 2025 zeigt vor allem eines: Die Illusion eines unpolitischen Netzes ist endgültig vorbei. Wer TikTok, Instagram, WhatsApp und Co. heute immer noch primär als Unterhaltungsprogramme für Teenager sieht, hat in den letzten zwölf Monaten nicht aufgepasst. Entscheidungen über Moderation, Sichtbarkeit und Zugriff sind politische Entscheidungen. Sie verteilen Macht zwischen Staat, Konzernen und Nutzer:innen. Wer Netzpolitik weiterhin als technische Detailfrage behandelt, überlässt diese Macht anderen.
Eine wesentliche Aufgabe besteht darin, digitale Räume so zu gestalten, dass sie demokratischer Kontrolle unterliegen, ohne staatlicher Totalaufsicht zu verfallen. Das ist kein einfacher Ausgleich, aber ein notwendiger. Denn wenn Netzpolitik Machtpolitik ist, dann ist die Frage nicht, ob Plattformen reguliert werden, sondern in wessen Interesse – und auf wessen Kosten.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Der Datenatlas soll die Bundesverwaltung effizienter machen. Ein wissenschaftliches Gutachten zeigt nun jedoch, dass er mitunter nicht einmal dem Stand der Technik aus dem Jahr 1986 entspricht. Anstatt den Gutachter zu konsultieren, erwägt die zuständige Bundesdruckerei „rechtliche Schritte“ gegen ihn.
Schwere Last: der Datenatlas der Bundesdruckerei (Symbolbild)
Die Verwaltung sollte wissen, was die Verwaltung weiß. Doch Informationen liegen mal diesem Ministerium, mal jener Behörde vor. Damit interne Daten innerhalb der Bundesverwaltung besser aufgefunden werden können, setzt die Bundesdruckerei seit dem Jahr 2022 das Projekt Datenatlas Bund um.
Der „souveräne Datenkatalog für die Bundesverwaltung“ soll erstmals ressortübergreifend Metadaten bereitstellen. Metadaten sind Daten über Daten, also Zusatzinformationen wie etwa das Erstellungsdatum, der Dateityp oder der Speicherort. Die Federführung für das Projekt hat das Bundesfinanzministerium, in den jeweiligen Ministerien sind die Datenlabore für den Atlas zuständig. Grundlage dafür bildet die Bundesdatenstrategie aus dem Jahr 2021.
Modern, digital souverän und KI-fähig soll der Datenatlas sein, schreibt die Bundesdruckerei auf ihrer Website. Doch diese Versprechen kann sie nicht einlösen, wie David Zellhöfer in einem wissenschaftlichen Gutachten schreibt, das er pro bono – also eigeninitiativ und unentgeltlich – verfasst hat. Zellhöfer ist Professor an der Hochschule für Wirtschaft und Recht Berlin und lehrt zu Digitale Innovation in der öffentlichen Verwaltung.
Das Projekt basiert laut Gutachten auf proprietärer Software, greift wahrscheinlich nicht auf übliche Standards zurück und auch für die Einbindung von KI-Anwendungen sei es ungeeignet. Denn die Daten seien weder von verlässlicher Qualität noch maschinenlesbar. Damit falle der Datenatlas teilweise hinter den Stand der Technik von 1986 zurück, so Zellhöfers Resümee. „Aufgrund der eklatanten Mängel ist das Software-Entwicklungsprojekt Datenatlas mit sofortiger Wirkung zu stoppen“, so seine Empfehlung, „um nicht weitere Mittel in eine technisch und konzeptionell wenig überzeugende Lösung zu investieren, welche kaum den Stand der Technik erreicht.“
Die Reaktion der Bundesdruckerei auf das Gutachten fällt deutlich aus. Sie zieht die Seriosität Zellhöfers in Zweifel und erwägt, „nach eingehender Prüfung des Gutachtens“ rechtliche Schritte einzuleiten. Als wir David Zellhöfer davon in Kenntnis setzen, nimmt er das Gutachten vorübergehend offline, um die Vorwürfe selbst rechtlich prüfen zu lassen. Inzwischen ist das Gutachten wieder online abrufbar.
Großprojekt für datengetriebene Verwaltung
Der Titan Atlas schultert in der griechischen Mythologie den gesamten Kosmos. Der Datenatlas soll „nur“ die internen Daten der Bundesverwaltung schultern und es der öffentlichen Verwaltung erlauben, ressort- und behördenübergreifend Daten auszutauschen. Dafür nutzt und ergänzt das Projekt bestehende Verwaltungsdatenübersichten wie die Verwaltungsdaten-Informationsplattform (VIP) des Statistischen Bundesamtes, die Registerlandkarte des Bundesverwaltungsamtes oder das Metadatenportal GovData zu offenen Daten von Bund, Ländern und Kommunen.
Auf den Datenatlas kann standardmäßig nur die Bundesverwaltung zugreifen. Laut Bundesdruckerei seien inzwischen die Ressorts des Bundesfinanzministerium, des Bundesinnenministeriums und weitere an den Datenatlas angeschlossen. Nutzen können sie ihn im Intranet des Bundes. Dafür müssen sich die einzelnen Mitarbeiter:innen registrieren. Bürger:innen, die organisierte Zivilgesellschaft und die Wissenschaft haben damit keinen Einblick in den Datenatlas, wie der Pressesprecher der Bundesdruckerei auf Anfrage unterstreicht.
Bislang hat der Datenatlas laut Zellhöfers Grobschätzung mindestens 2,3 Millionen Euro gekostet. Allerdings lägen die Kosten mutmaßlich deutlich darüber, wie anonyme Quellen Zellhöfer gegenüber sagten. Die tatsächlichen Kosten legt die Bundesdruckerei auf Anfrage von netzpolitik.org nicht offen.
Wie Technik aus dem vergangenen Jahrtausend
Das Stichwort „Stand der Technik“ taucht im Gutachten gut einhundert Mal auf. Ausführlich zeichnet Zellhöfer nach, welche Funktionen der Datenatlas aus informationswissenschaftlicher Sicht im Jahr 2025 haben sollte. Zellhöfer zufolge bleibt der Datenatlas weit hinter den Erwartungen zurück.
Titelwortabfrage im historischen digitalen Katalog der ETH Zürich (15.04.1986) - CC-BY-SA 4.0 ETH Zürich
Besonders deutliche Defizite weisen demnach die Anfragemöglichkeiten auf. So sollen Beschäftigte der Bundesverwaltung in der Datenbank gezielt Metadaten recherchieren können. Für diese Suche sind andernorts verschiedene Hilfsmittel üblich, etwa das Suchen mittels Boolscher Operatoren wie „UND“, „ODER“ oder „NICHT“. Ebenso gängig sind sogenannte Wildcards, Sonderzeichen wie das Sternchen- oder Fragezeichen-Symbol, die als Platzhalter für eine beliebige Zahl an Zeichen dienen.
Nutzer:innen kennen solche Möglichkeiten der gezielten Suche etwa von gewöhnlichen Internetsuchmaschinen. Der Datenatlas verfügt über diese Funktionen allerdings nicht. Damit biete er erheblich weniger Funktionen als vergleichbare Datenbanksysteme aus dem Jahr 1986, konstatiert Zellhöfer.
Gefangen in proprietärer Software
Auch dem Ziel der Bundesdatenstrategie werde der Datenatlas nicht gerecht, nämlich einen „Beitrag zur digitalen Souveränität Europas“ zu leisten.
Vielmehr mache sich die Bundesverwaltung vom IT-Dienstleister abhängig, den die Bundesdruckerei mit dem Projekt des Datenatlas beauftragt hat. Denn der Datenatlas baue auf proprietärer Software auf, obwohl verfügbare Open-Source-Lösungen nach informationswissenschaftlicher Expertise teilweise ausgereifter seien. Als Beispiele nennt Zellhöfer die Open-Source-Lösungen Fedora und Piveau.
Der Bundesdruckerei verpasse damit die Chance, verlässlicher zu wirtschaften. Denn die laufenden Kosten ließen sich mit einer Open-Source-Lösung besser kalkulieren. Auch die Gefahr eines sogenannten Vendor Lock-in ließen sich so vermeiden. Vendor Lock-in bezeichnet die starke Abhängigkeit von einem bestimmten Anbieter, bei der ein Wechsel zu einem anderen Anbieter nur mit unverhältnismäßig hohem Aufwand oder zu hohen Kosten möglich ist.
Es drohen weitere Datensilos
Die Gefahr der Abhängigkeit steige zusätzlich, wenn der Datenatlas keine gebrauchsüblichen Datenstandards oder Schnittstellen nutze. Stattdessen habe der beauftragte IT-Dienstleister auf eigene Entwicklungen zurückgegriffen.
Das aber erschwert es Nutzer:innen aus der Verwaltung, ihre eigenen Datensätze in den Datenatlas zu überführen, weil sie diese zuvor noch anpassen müssen. Und auch der Datenexport wird unnötig behindert, etwa für den Fall, dass Nutzer:innen das System wechseln wollen.
Würde der Einsatz des Datenatlas verpflichtend, „führte dies unmittelbar zu der Bildung eines weiteren, wenig interoperablen Datensilos“, warnt Zellhöfer in seinem Gutachten. Obendrein ein Silo mit Daten von minderer Qualität. Denn die Nutzer:innen können die Metadaten-Felder mit frei wählbaren Beschreibungen belegen. Das mache es zusätzlich kompliziert, einzelne Datensätze wiederzufinden, etwa wenn sich Rechtschreibfehler einschleichen.
Bundesdruckerei erwägt rechtliche Schritte
Auf unsere Anfrage an die Bundesdruckerei, wie sie die Ergebnisse des Gutachtens bewerte, ging die bundeseigene GmbH nicht ein. Stattdessen zweifelt sie in ihrer Antwort die Neutralität des Gutachters an. „Wir können aktuell nur mutmaßen, dass der Autor für sein Werk womöglich unseriöse Quellen benutzt haben könnte“, schreibt die Bundesdruckerei an netzpolitik.org, „und zudem einen unlauteren Zweck verfolgt: die Reputation unseres Unternehmens zu schädigen.“ Und sie kündigt an, gegebenenfalls rechtlich gegen das Gutachten vorzugehen: „Sollten sich nach eingehender Prüfung dieses ‚Gutachtens‘ unsere Mutmaßungen erhärten, werden wir die Einleitung rechtlicher Schritte erwägen“.
Als wir Zellhöfer über die Reaktion der Bundesdruckerei informierten, nimmt er sein Gutachten vorübergehend offline. „Ich war unmittelbar eingeschüchtert“, sagt er gegenüber netzpolitik.org, „obwohl die Antwort der Bundesdruckerei in keiner Weise sachlich nachvollziehbar ist.“ Die Reaktion kann er sich nicht erklären. „Der Datenatlas ist ein Nischenthema“, sagt er, „das hätten sie auch einfach aussitzen können.“
„Wenn man es positiv sehen will, könnte der Datenatlas als Projekt eines Retro-Computing-Enthusiasten durchgehen“, sagt Zellhöfer. Aber vermutlich müsse man den Datenatlas in seiner jetzigen Form vielmehr als „einen zynischen Kommentar zur Verwaltungsmodernisierung“ sehen. „Super ist, dass sie methodisch sinnvoll eine Dateninventur gemacht haben.“
Weder das BMF noch das Bundesministerium für Digitales und Staatsmodernisierung wollten das Gutachten auf Anfrage bewerten. Das Bundesdigitalministerium soll die Federführung für den Datenatlas übernehmen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Der Streit um die Berufung der ehemaligen Meta-Angestellten Niamh Sweeney zur irischen Datenschutzbeauftragten erreicht Brüssel. Doch auch nach einer formalen Beschwerde des Irish Council for Civil Liberties will die EU-Kommission offenbar nicht in das Verfahren eingreifen.
Die EU-Kommission sei nicht zuständig, sagt die Kommission. – Alle Rechte vorbehalten IMAGO / Michael Kneffel
Das Irish Council for Civil Liberties (ICCL) hat am 28. Oktober eine formale Beschwerde bei der EU-Kommission eingereicht. Darin kritisiert die Menschenrechtsorganisation die Ernennung von Niamh Sweeney zur Leiterin der irischen Data Protection Commission (DPC). Die Berufung stelle die Unabhängigkeit der Datenschutzbehörde infrage.
Bereits vergangene Woche hatten mehrere Nichtregierungsorganisationen der irischen Regierung einen Beschwerdebrief übergeben, in dem sie die Ernennung Sweeneys kritisieren. Als Grund führen sie zum einen an, dass diese mehr als sechs Jahre als Lobbyistin für den Tech-Konzern Meta tätig war. Meta ist eines der Unternehmen, das die DPC überwacht.
Zum anderen kritisieren die NGOs das Auswahlverfahren selbst. Dafür stellte das Unternehmen publicjobs ein Gremium aus fünf Personen zusammen. Darunter war auch Leo Moore. Der Anwalt der Kanzlei William Fry hat mit mehreren Big-Tech-Unternehmen zusammengearbeitet. Neben Moore gehörte außerdem ein Vertreter des irischen Justizministeriums dem Auswahlgremium an: Deputy Secretary General Doncha O’Sullivan.
Irland: Liebling der Tech-Branche
In seiner Beschwerde betont das ICCL, dass die DPC eine Schlüsselposition bei der Durchsetzung der europäischen Datenschutzgrundverordnung (DSGVO) einnehme. Außerdem müsse die irische Datenschutzkommission laut EU-Recht vollkommen unabhängig gegenüber jeglichen Weisungen von außen agieren – auch gegenüber möglicher Einflussnahme der irischen Regierung.
Viele Technologiekonzerne haben ihren europäischen Hauptsitz in Irland, darunter Meta, Google, Apple, Microsoft und TikTok. Die Unternehmen tragen einen erheblichen Teil zu Irlands Wirtschaft bei. Und Meta allein zahlte im Jahr 2023 mehr als 280 Millionen Euro Steuern an die irischen Behörden.
Derweil geriet die Durchsetzung der DSGVO in Irland den vergangenen Jahren immer wieder ins Stocken. Im Jahr 2022 klagte die DPC sogar gegen eine Entscheidung des ihr übergeordneten European Data Protection Board, um keine weitergehenden Ermittlungen zu Metas Datenverarbeitung aufnehmen zu müssen.
Die Berufung Sweeneys zur dritten Datenschutzkommissarin lässt den ICCL an der Unabhängigkeit der Datenschutzbehörde zweifeln. In ihrer Beschwerde an die EU Kommission schreibt die Organisation:
„Angesichts der bisherigen Bilanz der irischen Datenschutzkommission und der begründeten Zweifel an ihr hätte Irland sich über jeden Vorwurf [der Parteilichkeit] erheben müssen, unter anderem durch die Einführung von Verfahrensgarantien für die Ernennung der Mitglieder seiner Behörde.“
EU-Kommission will offenbar nicht eingreifen
Bei einer Pressekonferenz der EU-Kommission am 29. Oktober erkundigte sich eine Journalistin bei einem Kommissionssprecher, ob die Kommission die Beschwerde des ICCL annehmen werde. Der Sprecher antwortete, dass die europäischen Mitgliedstaaten für die Besetzung ihrer jeweiligen Datenschutzbehörde zuständig seien.
Die Kommission sei nicht in das Auswahlverfahren involviert gewesen und habe auch keine Kompetenzen einzuschreiten. Zugleich versuche die Kommission „immer sicherzustellen […], dass alle europäischen Datenschutzbehörden die Mittel und Unabhängigkeit haben, um ihrer Arbeit nachzugehen“.
Die Reaktion der EU-Kommission kritisiert Itxaso Domínguez de Olazábal vom Verband europäischer Digitalorganisationen European Digital Rights (EDRi): „Die Kommission kann nicht weiter wegschauen, während eine nationale Regulierungsbehörde die Grundsätze der Union untergräbt“, sagt de Olazábal gegenüber netzpolitik.org. „Der Schutz personenbezogener Daten und Grundrechte ist Teil dessen, wofür die EU steht – und die Kommission muss entsprechend handeln.“
Domínguez betont, dass die Beschwerde des ICCL nicht nur auf das Auswahlverfahren, sondern auch auf die Unabhängigkeit der DPC beziehe. Daher liege das Verfahren durchaus im Zuständigkeitsbereich der Kommission. „Die Kommission konzentriert sich offenbar auf das Auswahlverfahren und übersieht dabei das tieferliegende Problem: die anhaltende mangelnde Unabhängigkeit der irischen Datenschutzbehörde, die durch diese Ernennung offengelegt wird“.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
TikTok, Instagram und Facebook lassen Forschende nicht ausreichend an ihre Daten heran. Und bei Instagram und Facebook ist das Melden von Inhalten zu schwer. Das hat die EU-Kommission festgestellt und fordert Nachbesserungen – sonst drohen Geldstrafen.
Schnell und einfach sollen Instagram-Nutzende in der EU Inhalte melden können. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Claudio Schwarz
Im Frühjahr 2024 hat die EU-Kommission die jeweils ersten Verfahren nach dem Gesetz über digitale Dienste (DSA) für Meta (Instagram, Facebook) und für TikTok eröffnet. Seitdem hat die Behörde vorläufig mehrere Verstöße festgestellt, etwa im Bereich des Jugendschutzes und der Desinformation vor Wahlen. Heute hat sie weitere Untersuchungsergebnisse geteilt.
Alle drei Plattformen – also TikTok, Instagram und Facebook – setzen demnach den Zugang zu Daten für Forschende nicht ausreichend um. Es sei sehr umständlich, die Daten zu beantragen und es gebe Probleme im Überprüfungsprozess der Forschenden. Und auch wenn die Daten bereitgestellt würden, seien diese oft unvollständig und nicht zuverlässig. Ähnliche Punkte hatte die Kommission bereits vor einem Jahr bei X bemängelt. Laut DSA ist die Kommission die zuständige Aufsichtsbehörde für „sehr große Plattformen“ (VLOPs).
Die weiteren der heute vorgestellten Ergebnisse betreffen nur Instagram und Facebook. Die Meldewege seien zu kompliziert, sagte eine Kommissionsbeamtin heute in einem Pressebriefing. Wenn Nutzende auf den Plattformen auf illegale Inhalte stoßen, etwa die Darstellung von Missbrauch oder Betrugsmaschen, sollen sie diese selbst möglichst einfach bei den Plattformen melden können. Der DSA will so die Nutzendenrechte stärken und ein System schaffen, das sich quasi “selbst reinigt”.
Manipulative Designs beim Meldeweg
Doch in der Realität sei der Weg so anspruchsvoll und lang, dass viele Nutzende die Meldungen abbrechen würden, heißt es aus der Kommission. Außerdem kämen hier manipulative Designs zum Einsatz. Das bedeutet, dass Meldewege etwa irreführend oder kompliziert gestaltet sind, zum Beispiel über schwer auffindbare Buttons oder unnötig viele Klicks.
In der Folge würden Inhalte nicht gemeldet, Plattformen also nicht darauf aufmerksam gemacht, und es könnten entsprechend auch keine Maßnahmen ergriffen werden, um die Inhalte zu entfernen. Hierzu hätten die Kommission viele Beschwerden erreicht. Es sei klar, dass Meta hier nachbessern müsse.
Darüber hinaus kritisiert die Kommission den Mechanismus zum Umgang mit Beschwerden zur Inhaltsmoderation. Wenn Plattformen Inhalte oder Accounts sperren, können sich betroffene Nutzende an die Plattformen wenden und Beschwerde einreichen. Allerdings laufe auch das bei Meta nicht zufriedenstellend ab, so die Kommission. Zum Beispiel sei es nicht möglich, in der Kommunikation mit den Plattformen Dokumente anzuhängen, um etwa zu beweisen, dass eine Facebook-Seite einem selbst gehöre. In der Konsequenz würden Beschwerden nicht beantwortet.
So geht es jetzt weiter
Meta und TikTok können nun die Dokumente der Kommission einsehen und schriftlich auf die Kritikpunkte antworten – etwas, das nach Einschätzung der Kommissionsbeamtin zwei bis drei Monate in Anspruch nehmen könne. Im nächsten Schritt soll es weitere Gespräche zwischen Kommission und betroffenen Unternehmen geben. Die Hoffnung der Kommission dabei ist, dass die Plattformen ihre Mechanismen anpassen und damit die Vorgaben des DSA erfüllen.
Sollte dies nicht passieren, könnte die Kommission abschließend feststellen, dass sich die Plattformen nicht an den DSA halten und eine Geldstrafe verhängen – in Höhe von bis zu sechs Prozent des jährlichen weltweiten Umsatzes. Auch dann hätten die Plattformen noch die Möglichkeit, diese Entscheidung vor Gericht anzufechten.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Tech-Gigant Meta will Daten, die Nutzer*innen in seinen Chatbot eingeben, künftig auslesen und speichern. Damit sollen Anzeigen treffsicherer personalisiert werden. Es gibt nur einen Weg, sich der Datensammlung zu entziehen.
Unterhaltungen mit dem Meta-Chatbot sind nicht privat – Alle Rechte vorbehalten IMAGO / NurPhoto
Den Meta-Chatbot können Menschen über Instagram, Whatsapp und Facebook ansprechen. Laut Meta nutzen ihn monatlich mehr als eine Milliarde Menschen. Viele davon teilen intime Informationen mit der Software.
Die Gespräche, die Menschen mit der sogenannten Künstlichen Intelligenz führen, will Meta künftig auslesen und speichern. Damit sollen Anzeigen treffsicherer personalisiert werden und die Daten sollen auch beeinflussen, welche Posts Nutzer*innen in den Sozialen Netzwerken angezeigt bekommen. Das erklärte Meta gestern in einem Blogpost. Der Konzern behält sich dabei vor, die Informationen aus den Gesprächen in allen seinen Produkten zu nutzen.
Ein Beispiel nannte der Konzern direkt: Wer sich mit der KI etwa übers Wandern unterhalte, bekomme danach womöglich Empfehlungen für Wandergruppen, Wanderstrecken von Bekannten und Werbung für Wanderschuhe angezeigt.
Auch sensible Konversationen werden ausgelesen
Meta gibt zwar an, sensible Konversationen über religiöse Ansichten, die sexuelle Orientierung, politische Meinungen, Gesundheit und ethnische Herkunft nicht für personalisierte Werbung nutzen zu wollen, die Daten werden aber dennoch mit ausgelesen.
Die neue Regelung will Meta ab dem 16. Dezember umsetzen, allerdings zunächst nicht in der EU und Großbritannien. Dort solle das Feature später ausgerollt werden, weil die hiesigen Datenschutzbestimmungen strenger seien. Für das KI-Training werden die Chatprotokolle in Europa wohl schon genutzt.
Seit Juni ist bereits bekannt, dass Meta mit Hilfe von KI Anzeigen erstellen will. Werbetreibende müssen dann nur ein Produktbild und ein Budget vorgeben. Meta möchte durch diese Investitionen die größte Einnahmequelle Werbung noch rentabler machen. Hier bieten sich auch Spielräume für individuelle Personalisierung von Anzeigen – anhand der mit dem Chatbot erhobenen Daten.
Die Nutzer*innen können einstellen, in welchem Ausmaß die ihnen ausgespielte Werbung personalisiert werden soll, aber es gibt keine Möglichkeit, sich gegen die Datenerfassung zur Personalisierung zu wehren – außer, den Chatbot nicht zu nutzen. In Whatsapp kann es allerdings sein, dass andere Nutzer*innen ihn zu einer Konversation hinzuziehen. Das lässt sich mit der Funktion „erweiterter Chat-Datenschutz“ verhindern. Oder mit dem Verzicht auf die datensammelwütige App zugunsten von datensparsamen Alternativen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Das vietnamesischsprachige Nachrichtenportal Thoibao, das in Berlin sitzt, kämpft um sein Überleben. Facebook gefährdet die Finanzierung des Exilmediums. Und der größte private Konzern Vietnams überzieht den Chefredakteur mit Abmahnungen.
Der Journalist und Chefredakteur Trung Khoa Lê kämpft seit Jahren gegen Zensur und Angriffe auf sein Nachrichtenportal Thoibao. – CC-BY-SA 4.0 Trung Khoa Lê
Thoibao ist eines der reichweitenstärksten Nachrichtenportale in vietnamesischer Sprache außerhalb Vietnams. Die Redaktion besteht vor allem aus einem Raum, in dem Chefredakteur Trung Khoa Lê zwischen mehreren großen Bildschirmen, die an den Wänden montiert sind, hin und her blickt. Auf einem sieht Lê in Echtzeit, wo und wie oft seine Webseite thoibao.de weltweit aufgerufen wird. Einen anderen nutzt er, um Beiträge auf Facebook und YouTube zu posten – Plattformen, über die er seine Leser*innenschaft in Vietnam erreicht. Ein weiterer zeigt Aufnahmen von Überwachungskameras, die rund um das Büro installiert sind. Denn aufgrund seiner Berichterstattung lebt Lê in ständiger Gefahr.
Im Jahr 2018 hat die vietnamesische Armee Lê als Staatsfeind eingestuft. Er hat mehrfach Morddrohungen von mutmaßlichen Anhänger*innen des vietnamesischen Regimes erhalten. Der Journalist steht unter Personenschutz des Landeskriminalamtes Berlin, die Polizei kommt regelmäßig zu seinem Büro im Dong Xuan Center, Berlins größtem Markt für asiatische Waren.
Nun ist auch seine Plattform Thoibao gefährdet. „Wir werden gerade massiv von vielen Seiten gleichzeitig angegriffen: Cyberattacken, unsere Konten auf Facebook werden gelöscht und der größte Konzern Vietnams versucht uns einzuschüchtern“, sagt Lê. Die Angriffe seien politisch motiviert, da Thoibaos unabhängige Berichterstattung der vietnamesischen Regierung in Hanoi ein Dorn im Auge ist. Insbesondere die Löschung der Facebook-Konten bedrohe die finanzielle Grundlage der Redaktion.
Die Leser*innenschaft wächst rasant
Lê berichtet seit 2008 zu politischen Entwicklungen in Vietnam und weltweit. Thoibao hat dank eines großen Netzes an Informant*innen viele exklusive Nachrichten aus der vietnamesischen Politik. Seit der Einstellung vietnamesischsprachiger Medienangebote in Voice of Amerika und Radio Free Asia in den USA durch die Trump-Administration wächst die Leser*innenschaft rasant. Laut eigenen Angaben erhalten alle Kanäle der Redaktion zusammen rund 700 Millionen Zugriffe im Monat, die meisten davon aus Vietnam.
Facebook ist der wichtigste Kanal. Aufgrund der vom Staat zensierten Medien ist die Plattform die Hauptnachrichtenquelle in Vietnam. Doch nun entfernt Facebook nach und nach die Konten der Redaktion. Zwei Konten, Thoibao.eu und Thoibao.news, wurden vergangenes Jahr gelöscht. Nun ist auch das Hauptkonto Thoibao.de mit 1,2 Millionen Followern vom Löschen bedroht. Ein Beitrag im August soll laut Facebook gegen die Gemeinschaftsstandards zu Suizid, Selbstverletzung und Essstörungen verstoßen haben. Das Video enthalte möglicherweise etwas, das andere Personen zu Selbstverletzung veranlassen könnte, heißt es in der Begründung. Allerdings berühre das Video diese Themen nicht annähernd, sagt Lê, es gehe um vietnamesische Polizeigeneräle.
Auch über dem persönlichen Profil von Lê mit rund einer Viertelmillion Followern prangt ein gelbes Warn-Icon: „Für das Profil liegen einige Probleme vor“. Beiträge wurden wegen angeblicher Verletzung der Gemeinschaftsstandards entfernt. Die Redaktion erhob zwar Einspruch, doch das war bislang vergeblich. Nach erneuter Überprüfung blieben die Videos offline – bei den bereits gelöschten Konten war es genau so.
„Sollte auch thoibao.de von Facebook gelöscht werden, sind wir als Medium tot“, sagt der Chefredakteur. Denn dieses Konto ist Thoibaos wichtigste Einnahmequelle. Mit den Werbeeinnahmen bezahlt Lê die Technik und seine 20 Mitarbeiter*innen weltweit. Schon jetzt haben die Einschränkungen zur Folge, dass die Inhalte weniger Menschen ausgespielt werden. Die Einnahmen sind drastisch eingebrochen. Sie betragen nicht mehr rund 17.000 Euro im Monat sondern unter 500 Euro. Lê musste seine Mitarbeiter*innen bereits darum bitten, weniger Inhalte zu produzieren.
Facebook in Vietnam: eine Geschichte der Unterdrückung
Die jüngsten Einschränkungen durch Facebook treffen Thoibao zwar besonders hart, sind aber nicht die ersten. 2018 machten Unbekannte Lê ohne sein Wissen zum Administrator einer Facebookseite, die massiv gegen Gemeinschaftsstandards verstieß. Daraufhin sperrte Facebook zeitweise alle von ihm administrierten Seiten inklusive Thoibao. 2021 erschien eine gefälschte Todesanzeige auf Lês Profil. Weil er angeblich tot war, konnte er keine Beiträge mehr posten.
„Vietnams Zensurbehörden ordnen an – Facebook führt aus. Anders kann man die Störmanöver nicht beschreiben, denen das Medienunternehmen Thoibao.de ausgesetzt ist“, sagt die Journalistin und Mitarbeiterin von Thoibao Marina Mai. „Als globales Soziales Netzwerk muss sich Facebook solchen Angriffen widersetzen und Pressefreiheit garantieren“, fügt sie hinzu.
Die vietnamesische Abteilung von Facebook löscht immer wieder regimekritische Posts auf Wunsch der Regierung. Auf Grundlage des sogenannten Cybersicherheitsgesetzes kann Hanoi die Entfernung „schädlicher“ Inhalte – ein weit gefasster Begriff, der oft Kritik am Staat umfasst – innerhalb von 24 Stunden verlangen. So hat Facebook allein im Zeitraum von Juli bis Dezember 2024 4.520 Inhalte gesperrt.
Um weiterhin im bevölkerungsreichen Land seine Dienste anbieten zu können, macht die Plattform bereitwillig Zugeständnisse an den Einparteienstaat. Mark Zuckerberg, Chef von Meta, dem Konzern dem Facebook gehört, hat Mitarbeiter*innen persönlich angewiesen, sich den Zensurwünschen der Regierung zu beugen, wie die Whistleblowerin Frances Haugen vor dem US-Senatsausschuss berichtete. Das Land mit den siebtmeisten Facebook-Nutzer*innen weltweit ist für den Konzern ein lukrativer Markt. Etwa 75 Prozent der 100 Millionen Einwohner*innen nutzen die Plattform.
Facebook bestreitet nicht, eng mit der vietnamesischen Regierung zusammenzuarbeiten. „Sollten wir feststellen, dass wir zur Einschränkung von Inhalten verpflichtet sind, beschränken wir dies ausschließlich auf das Land, in dem sie illegal sind“, schreibt Meta auf unsere Anfrage. „So stellen wir sicher, dass der Eingriff so gering wie möglich bleibt und diese Regierungsanfragen keine unverhältnismäßigen Auswirkungen auf das Recht auf freie Meinungsäußerung unserer globalen Community haben“. Unsere Frage, wieso Beiträge und sogar ganze Konten von Thoibao gelöscht und somit auch nicht mehr in Deutschland verfügbar sind, ließ Meta unbeantwortet.
Laut Anja Osterhaus, Geschäftsführerin von Reporter ohne Grenzen in Deutschland, komme Meta dem eigenen Anspruch, Meinungsfreiheit zu garantieren, nicht nach. „Facebook kennt den Fall von Thoibao seit Jahren und weiß, dass die Nachrichtenseite im Visier des vietnamesischen Regimes steht.“ Facebook müsse den Fall gründlich untersuchen und prüfen, ob Hanoi eine mögliche Sicherheitslücke ausnutzt. Osterhaus fordert, „Meta muss seiner Verantwortung endlich nachkommen und die Einschränkungen beenden.“
Lê und Mai setzen sich dafür ein, dass die Inhalte von Thoibao auf Facebook gemäß deutscher Gesetze moderiert werden. Da die Redaktion in Berlin ansässig ist, sind ihre Inhalte durch die im Grundgesetz verankerte Pressefreiheit geschützt. „Thoibao ist ein deutsches Medienunternehmen. Deutschland muss unsere Pressefreiheit schützen“, sagt Lê. Die beiden Journalist*innen haben Bundestagsabgeordnete kontaktiert, damit diese auf Meta einwirken und das Recht auf Pressefreiheit für Thoibao verteidigen. „Wenn Deutschland nicht aufpasst, werden die für unsere Demokratie wertvollen Rechte wie Meinungsfreiheit und Pressefreiheit durch Facebook langsam sterben“, warnt Lê vor möglichen Entwicklungen, die auch andere deutsche Medien in Zukunft treffen könnten.
Alte und neue Cyberangriffe
Die Website thoibao.de wird regelmäßig Opfer von Ddos-Angriffen. Dabei überlasten Hunderttausende gleichzeitige Aufrufe den Server der Seite und legen sie absichtlich lahm. Kürzlich hat ein Cyberangriff es so aussehen lassen, als ob Thoibao selbst einen Ddos-Angriff vorgenommen hätte, und zwar gegen eine Webseite einer Schweizer Universität. Dabei wurde die IP-Adresse des eigentlichen Ddos-Angreifers manipuliert und mit der von Thoibao ersetzt. Ganz so, als ob jemand ein Paket mit einer falschen Absenderadresse sendet. Dass nun auch derartiges IP-Spoofing gegen Thoibao eingesetzt wird, ist laut Lê neu.
Eine weitere Taktik, mit der Thoibao bekämpft wird, sind Beschwerden wegen Urheberrechtsverletzungen. Eine Seite namens Song Ngam News, die sich als vietnamesisches Nachrichtenportal präsentiert, hat mehrfach eine solche Beschwerde gegen Thoibao eingereicht. In diesen Beschwerden wird verlangt, dass der angeblich kopierte Inhalt aus dem Internet entfernt wird. Doch Lê betont, dass genau das Gegenteil der Fall ist: Inhalte von Thoibao werden kopiert und mit einem älteren Datum versehen, damit diese Version wie das Original aussieht.
Unklar ist, ob es sich bei Song Ngam News um eine seriöse und echte Nachrichtenseite handelt. Eine Analyse des Unternehmens EvenInsight, das auf Cybersicherheit und Website-Analyse spezialisiert ist, zeigt, dass die Seite weitgehend unbekannt ist und kaum Besucher*innen verzeichnet. Die Domain songngam.com wurde vor weniger als zwei Jahren in den Niederlanden registriert. Die Identität des Eigentümers ist nicht öffentlich zugänglich. Als Chefredakteur ist ein gewisser Lê Toàn Khánh genannt, jedoch bleibt unklar, ob es sich hierbei um eine tatsächlich existierende Person handelt.
Besonders problematisch bei solchen Angriffen: Nach jedem Vorfall hat Lê lediglich ein Zeitfenster von 24 Stunden um zu reagieren. Verstreicht die Frist, droht die Abschaltung von Thoibaos Server. Lê vermutet, dass hinter diesen Angriffen die Cyberarmee Vietnams steht, die laut offiziellen vietnamesischen Angaben 10.000 Personen umfasst und unter dem Kommando des Ministeriums für öffentliche Sicherheit agiert. Diese versuche alles, um Thoibao zum Schweigen zu bringen, sagt Lê.
Einschüchterung durch reichsten Mann Vietnams
Anfang des Monats ist außerdem eine Abmahnung vom reichsten Mann Vietnams, Phạm Nhật Vượng, eingetroffen. Dieser ist Vorsitzender des größten vietnamesischen Konzerns VinGroup und gilt als der erste Milliardär Vietnams. Er wirft Lê sowie weiteren 67 Organisationen und Einzelpersonen vor, Falschinformationen über seine Unternehmensgruppe und seine Person verbreitet zu haben. Nachdem Lê über die Abmahnung in seinen Videos berichtet hatte, kam vergangenen Donnerstag gleich die zweite an.
Journalist*innen und Blogger*innen hatten auf TikTok, Facebook und YouTube berichtet, dass VinGroups Immobilien-Tochter VinHomes mit enorm hohen Schulden wirtschaftet und das Unternehmen VinFast, das Elektroautos herstellt, Verluste macht. Diese Wirtschaftsdaten stützen sich auf öffentliche Angaben des Konzerns sowie auf Einschätzungen von Finanzanalyst*innen.
Lês Presserechtsanwalt Raphael Thomas schätzt die Abmahnungen als einen recht hilflosen Versuch ein, Lê einzuschüchtern und kritische Berichterstattung über die Vingroup und Phạm Nhật Vượng zu unterdrücken. „Herrn Phạm Nhật Vượng oder der Vingroup fehlt offenbar das Verständnis dafür, dass auch scharfe Kritik an einem großen Unternehmen im Rahmen der Berichterstattung zulässig ist“, so Thomas. Die Abmahnungen muten dilettantisch an, die Erfolgsaussichten einer Klage gegen Thoibao seien nicht besonders hoch.
Auch der Menschenrechtsanwalt und Vietnams prominentester Dissident Nguyễn Văn Đài, der in Hessen lebt, ist von der internationalen Abmahnungs- und Klagewelle durch VinGroup betroffen. Seine Anwältin Loan Truong kommt zu der ähnlichen Einschätzung, dass die Abmahnung mangelhaft und die Zuständigkeit deutscher Gerichte äußerst zweifelhaft sind. Đài hat mehrere Gefängnisstrafen in Vietnam abgesessen. 2017 hat er den Menschenrechtspreis des Deutschen Richterbundes verliehen bekommen.
Laut Lê ist die Kampagne ein Versuch von VinGroup, die Justiz demokratischer Staaten für die Behinderung von Pressefreiheit in Vietnam zu missbrauchen. Neben dem Kampf gegen diese Angriffe bleibt dem Journalisten kaum mehr Zeit für die eigentliche Aufgabe: die Menschen in Vietnam mit Nachrichten jenseits staatlicher Propaganda zu versorgen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Die Folgen des KI-Hypes für den Datenschutz sind schwer absehbar. Im Fall von Metas KI-Training zögern Aufsichtsbehörden, das Oberlandesgericht Köln gab dem Konzern sogar – fürs Erste – grünes Licht. Jura-Professorin Paulina Jo Pesch zeigt Schwächen des Urteils auf und fordert eine entschiedenere Durchsetzung der Datenschutzvorgaben.
Hinter weitverbreiteten KI-Anwendungen stehen generative Sprach- und Bildmodelle, die mit riesigen Datenmengen gefüttert werden, auch mit personenbezogenen Daten. Das Problem: Teile der Trainingsdaten, darunter personenbezogene, lassen sich aus vielen der Modelle extrahieren. Unter welchen Umständen sich ein Modell zu viel „merkt“ und wie sich das verhindern lässt, ist bislang wenig erforscht. Zugleich werden Extrahierungsmethoden immer besser. Anbieter*innen können bislang nicht verhindern, dass Modelle personenbezogene Trainingsdaten ausgeben. Auch Chatbots können personenbezogene Daten von anderen verraten.
Außerdem „halluzinieren“ die Modelle. Sie generieren also falsche Informationen, die nicht in den Trainingsdaten enthalten sind. Weil KI-Unternehmen diese nicht offenlegen, können Forscher*innen nicht zuverlässig messen, wann ein Modell Informationen erfindet und wann es unrichtige Trainingsdaten wiedergibt. Zuverlässige Methoden zur Vermeidung von Halluzinationen gibt es bisher nicht.
Werden personenbezogene Daten aus einem Modell extrahiert, kann für Betroffene gerade die Kombination aus „Erinnerung“ und „Halluzination“ gefährlich sein. Ein mit personenbezogenen Daten trainiertes Modell generiert unter Umständen Falschinformationen über sie. Gerade bei öffentlichen Modellen besteht das Risiko, dass Nutzer*innen diese Informationen unkritisch weiterverbreiten.
Meta fragt lieber nicht um Erlaubnis
Mit Llama (Large Language Model Meta AI) ist auch Meta an dem KI-Rennen beteiligt. Meta nutzt Llama für eigene KI-Funktionen wie Transkriptions- oder Suchfeatures auf Instagram, Facebook und WhatsApp sowie für Chatbots oder in KI-Brillen, die das Unternehmen anbietet. Außerdem stellt Meta seine Modelle anderen zur Nutzung bereit. So können etwa Forscher*innen die Modelle testen oder Unternehmen auf Basis von Llama KI-Dienstleistungen oder -Produkte anbieten.
Im Juni 2024 informierte Meta die Nutzer*innen von Instagram und Facebook über eine Aktualisierung seiner Datenschutzrichtlinie. Diese Aktualisierung ließ Metas Vorhaben erkennen, seine KI-Modelle mit Nutzer*innendaten zu trainieren. Die Nutzer*innen konnten dem zwar widersprechen, die Widerspruchsmöglichkeit war jedoch schwer auffindbar.
Inzwischen hat der Konzern damit begonnen, seine KI mit den Daten europäischer Nutzer*innen zu trainieren. Unklar ist weiterhin, welche Daten dafür genau genutzt werden. Meta stellt im Vergleich zu anderen KI-Unternehmen zwar mehr Informationen über das Training mit Social-Media-Daten bereit. Diese Informationen haben sich aber immer wieder verändert und lassen Fragen offen.
Das betrifft insbesondere den Umgang mit sensiblen Daten. Bei Llama handelt es sich um ein multimodales Sprachmodell, das neben Texten auch Bilder, Videos und Tondateien verarbeitet. Der für das Training genutzte Social-Media-Content umfasst damit etwa auch Fotos der Nutzer*innen. Metas Datenschutzinformationen verweisen auf öffentliche Inhalte wie Beiträge, Kommentare und Audiospuren.
Inzwischen heißt es in den Datenschutzinformationen, dass auch Daten von Drittpartner*innen und KI-Interaktionen für die KI-Entwicklung genutzt würden. Als Beispiele für KI-Interaktionen nennt Meta Nachrichten, die Nutzer*innen oder andere Personen von der KI erhalten, mit ihr teilen oder an diese senden.
Diese Angaben schließen private Sprachnachrichten und Transkriptionen nicht aus. Metas Umschreibung passt auch auf Chatverläufe mit Chatbots. Solche Chatverläufe können besonders sensible Daten enthalten, wenn etwa Chatbots für intime Gespräche zu mentaler Gesundheit oder parasoziale romantische Beziehungen genutzt werden.
Verbraucherzentrale scheitert vor Gericht
Um den Beginn des Trainings zu verhindern, hat die Verbraucherzentrale Nordrhein-Westfalen im Mai 2025 einen Eilantrag beim Oberlandesgericht (OLG) Köln gestellt. Sie argumentierte insbesondere, dass Meta das Training nicht auf eine wirksame Rechtsgrundlage stützen könne, ist mit dem Eilantrag jedoch gescheitert. Das Urteil und Einblicke in die mündliche Verhandlung in Köln offenbaren erhebliche Mängel.
Meta hatte sich entschieden, keine Einwilligungen einzuholen, sondern beruft sich auf ein berechtigtes Interesse an der Nutzung der Daten für KI-Training. Die Verbraucherzentrale hält das für unzureichend, doch das Gericht folgt Metas Argumentation in seinem Urteil. Nach der Datenschutzgrundverordnung (DSGVO) können berechtigte Interessen die Verarbeitung personenbezogener Daten rechtfertigen, solange die Interessen Betroffener nicht schwerer wiegen. Dabei müssen diese der Datenverarbeitung aber widersprechen können.
Die Verbraucherzentrale NRW hat darauf hingewiesen, dass nicht alle Betroffenen widersprechen können. Facebook- und Instagram-Beiträge enthalten zuhauf personenbezogene Daten von Nicht-Nutzer*innen. Die Widerspruchsfunktion steht aber nur Nutzer*innen offen. Das Gericht ignoriert diesen Einwand. Zudem behauptet es ohne Begründung und trotz gegenteiliger Hinweise, Meta erfülle die Anforderungen der DSGVO an den Schutz von Minderjährigen.
Das Gericht halluziniert niedrige Risiken herbei
Berechtigte Interessen geben außerdem keine Rechtsgrundlage für Verarbeitungen her, die für Betroffene zu riskant sind. Das OLG Köln behauptet, die Risiken für Nutzer*innen seien gering. Dabei legt das Urteil nahe, dass die Richter*innen nicht verstanden haben, was Meta trainiert. Das Wort „Llama“ taucht im gesamten Urteil nicht auf. Auch beschreibt das Gericht keine Anwendungsszenarien.
Auf diese kommt es aber entscheidend an. Ein Transkriptionsfeature gibt wahrscheinlich keine extrahierbaren Daten aus. Aus Llama selbst werden jedoch sicher Daten extrahiert. Forscher*innen wenden Extrahierungsmethoden auf alle bekannten Modelle an. Je nachdem, welche Arten von Daten wie gut extrahierbar sind, könnte es dabei versehentlich auch zu Datenlecks kommen.
Gerichte prüfen in Eilverfahren die Rechtslage nur „kursorisch“, also nicht im Detail. Das OLG Köln reiht dabei aber mit großem Selbstbewusstsein Behauptungen aneinander, die aus Sicht der Datenschutzforschung haltlos sind. Selbst wenn Metas Training transparent genug wäre, fehlt es an tragfähigen Forschungsergebnissen für die Einschätzung des Gerichts.
Ein grober Fehler des Urteils betrifft besondere Kategorien personenbezogener Daten. Das sind sensible Daten, die die DSGVO besonders schützt, zum Beispiel Daten über Race, religiöse Anschauungen oder sexuelle Orientierungen. Social-Media-Daten enthalten viele solcher Daten. Besondere Kategorien personenbezogener Daten dürfen nicht auf Basis berechtigter Interessen verarbeitet werden, sondern nur unter strengeren Voraussetzungen, in vielen Fällen nur aufgrund von Einwilligungen. Das OLG Köln stört sich daran nicht.
Stattdessen behauptet das Gericht, dass die Anwendung der besonderen Schutzanforderungen nicht geboten sei. Das Urteil stellt hier wieder auf ein nicht weiter begründetes geringes Risiko ab. Dabei kommt es gerade im Bereich des maschinellen Lernens leicht zu unbemerkten Modellbias, also zu systematischen Fehleinschätzungen, die zum Beispiel zu rassistischer Diskriminierung führen. Besondere Kategorien personenbezogener Daten bergen dabei potenziell besonders hohe Risiken.
Bedenkliche Informationslage
Bedenklich ist zudem die Informationslage, auf die sich das Gericht stützt. In diesem Fall sind das vor allem die Angaben von Meta selbst. Das ist in einem Eilverfahren an sich nicht zu beanstanden – weil es schnell gehen muss, gelten geringere Beweisanforderungen. Gerichte arbeiten daher mit eidesstattlichen Versicherungen, formellen Erklärungen der Parteien. Um Falschangaben vorzubeugen, sind falsche eidesstattliche Versicherungen nach dem Strafgesetzbuch strafbar.
Das Urteil stellt entscheidend auf eidesstattliche Versicherungen von Metas Produktmanager für generative KI ab. Zwei in der mündlichen Verhandlung in Köln anwesende Personen berichten allerdings, dass die Versicherungen nie formgerecht abgegeben worden sind. (Die Autorin hat von zwei in der Verhandlung in Köln anwesenden Personen Informationen zum Ablauf der mündlichen Verhandlung und dabei getroffenen Aussagen des Gerichts erhalten. Eine der Personen ist seitens der klagenden Verbraucherzentrale am Verfahren beteiligt, die andere Person hat den Prozess beobachtet, ohne daran beteiligt zu sein.)
Eidesstattliche Versicherungen müssen mündlich oder im Original mit händischer Unterschrift abgegeben werden. Selbst wenn die Erklärungen von Meta formgerecht wären, hätte sich das OLG Köln besser nicht darauf verlassen. Es gibt zwar keine Anzeichen dafür, dass diese Falschangaben enthalten. Durch das deutsche Strafgesetzbuch wäre deren Richtigkeit aber nicht abgesichert: Falls der in Kalifornien ansässige Manager nicht einreisen will, hätten Falschangaben keine strafrechtlichen Folgen für ihn.
Zudem legt das Urteil nahe, dass Metas Erklärungen inhaltlich dünn sind. Sie bestätigen etwa das Funktionieren der Widerspruchsfunktion. Eine Pressemitteilung der für Meta zuständigen irischen Datenschutzbehörde (Data Protection Commission, DPC) zeigt jedoch, dass die Behörde Meta zur Nachbesserung der Widerspruchsfunktion aufgefordert hat. Es bleibt somit zweifelhaft, ob Widersprüche in der Vergangenheit einfach genug möglich waren und funktioniert haben.
Datenschutzbehörden lassen Meta erst mal machen
Auch die Pressemitteilung der irischen Datenschutzbehörde und der Umgang des Gerichts damit verdienen besondere Aufmerksamkeit. Die für ihre Nachsicht gegenüber Datenkonzernen bekannte Behörde hat die Pressemitteilung am Vorabend der mündlichen Verhandlung in Köln veröffentlicht. Sollte die Behörde sich etwa mit Meta abgestimmt und so das Verfahren beeinflusst haben?
Das OLG Köln hat nach Berichten Anwesender schon in der mündlichen Verhandlung signalisiert, der Rechtsauffassung der irischen Behörde wahrscheinlich folgen zu müssen, warum auch immer das Gericht sich an deren Einschätzung auch nur lose gebunden fühlt. Das ist nicht nur im Hinblick auf die Gewaltenteilung bedenklich. Die Pressemitteilung enthält auch keinerlei Rechtsauffassung zur Frage nach der Datenschutzkonformität, der das Gericht folgen könnte. Sie enthält schlicht gar keine rechtliche Einschätzung. Es heißt lediglich, Meta habe in Absprache mit der Behörde Maßnahmen zur Verbesserung des Datenschutzes ergriffen und verfolge die Umsetzung weiter.
Aus der Pressemitteilung wird ersichtlich, dass die irische Behörde Meta nur beraten hat. Das war dem OLG Köln auch von Metas Hauptaufsichtsbehörde in Deutschland, dem Hamburger Datenschutzbeauftragten, bekannt. Im Urteil heißt es ausdrücklich, die Behörde habe Meta das Training „bislang“ nicht untersagt und beobachte derzeit die Folgen der Trainings.
Der Hamburger Datenschutzbeauftragte hatte im Juli 2024 die Datenschutzauswirkungen des Trainings generativer Sprachmodelle noch unterschätzt. Nach Berichten aus der mündlichen Verhandlung hat er angesichts seiner Einblicke in Metas Training diese Auffassung zurückgenommen, erhebliche Datenschutzbedenken geäußert und zunächst sogar ein eigenes Verfahren gegen Meta angekündigt. Außerdem berichtete er, dass die irische Behörde plane, ein Verletzungsverfahren im Oktober einzuleiten. Das spricht dafür, dass europäische Datenschutzbehörden von Verstößen wissen, Meta aber zunächst gewähren lassen.
Wider den KI-Hype
Die Bedeutung des Kölner Verfahrens weist über Meta und über Deutschland hinaus. Das Urteil und die Vorgänge im Prozess legen nahe, dass europäische Gerichte und Aufsichtsbehörden bei KI dem Ansatz „Abwarten und Teetrinken“ folgen. Es lässt sich nur spekulieren, welche Rollen hier der Druck des KI-Hypes, Innovationspläne der EU oder auch blanke Naivität spielen.
Dabei macht die DSGVO nicht nur klare Vorgaben an KI-Unternehmen, sondern bietet diesen auch ausreichende Möglichkeiten, sich an die Vorgaben zu halten. Demnach müssen KI-Unternehmen die Datenschutzkonformität ihrer Vorhaben begründet nachweisen. Sie dürfen ihre Modelle trainieren und testen – allerdings nur zu reinen Forschungszwecken und ohne die KI in der Praxis einzusetzen – und damit blind auf die Menschheit loszulassen. Gerichte und Aufsichtsbehörden sollten diese Vorgaben durchsetzen, anstatt sich dem KI-Hype zu beugen.
Prof. Dr. Paulina Jo Pesch ist Juniorprofessorin für Bürgerliches Recht sowie das Recht der Digitalisierung, des Datenschutzes und der Künstlichen Intelligenz am Institut für Recht und Technik der Friedrich-Alexander-Universität Erlangen-Nürnberg. Sie koordiniert das vom Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) geförderte interdisziplinäre Forschungsprojekt SMARD-GOV, das Datenschutzaspekte großer Sprachmodelle erforscht.
Eine englischsprachige Langfassung der Analyse des Verfahrens sowie eines weiteren Verfahrens beim OLG Schleswig-Holstein ist im CR-online blog erschienen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Immer mehr Menschen kehren Instagram den Rücken, weil ihnen die Politik des Meta-Konzerns nicht mehr passt. Die offene Alternative Pixelfed profitiert gerade davon. Sie ist werbefrei und bietet einen besseren Schutz der Privatsphäre.
Immer mehr Leute haben keine Lust mehr auf Zuckerbergs Instagram. (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com Nico Cavallini
Nachdem Mark Zuckerberg sich für Trump stark macht und für Instagram laxere Moderationsregeln angekündigt hat, die Frauenfeindlichkeit, Homophobie und Transfeindlichkeit zulassen, suchen immer mehr Nutzer:innen nach einer neuen digitalen Heimat für ihre Bilder und Videos.
Eine freie und dezentrale Alternative für Instagram ist Pixelfed im Fediverse. Dort lassen sich werbefrei und mit deutlich besserem Privatsphärenschutz Fotos teilen. Das ganze System ist Open Source und bietet im Unterschied zu Instagram eine chronologische Timeline, die nicht durch einen undurchsichtigen Algorithmus gesteuert wird.
Im Gegensatz zu Instagram ist Pixelfed nicht eine Plattform in der Hand eines Konzerns, sondern eine Art Netzwerk aus Servern (Instanzen), die über das ActivityPub-Protokoll miteinander sprechen. Will man sich einen Account anlegen, sucht man sich eine Instanz aus und nimmt dann aus dieser heraus am sozialen Netzwerk teil. Pixelfed hat gerade auch Apps für iOS und Android gestartet, die derzeit viel heruntergeladen werden.
Meta ist aufgescheucht
Das Wachstum von Pixelfed und der Exodus von Nutzer:innen bereitet Meta offensichtlich so große Sorgen, dass es nun Links zu Pixelfed.org und den großen Instanzen pixelfed.social und pixelfed.de auf seinen Plattformen als „Spam“ sperrt und entfernt. Ein Schritt, der so lächerlich wie ängstlich wirkt angesichts der gerade mal 370.000 Accounts auf dem offenen Netzwerk. Zum Vergleich: Instagram kann monatlich über zwei Milliarden aktive Nutzer:innen verbuchen.
Darüber hinaus hat ein unabhängiger Entwickler aus Berlin angekündigt, dass in Kürze auch über die Technologie des angesagten Twitter-Rivalen Bluesky mit „Flashes“ eine Bilder-App starten soll, berichtet TechCrunch. Bluesky ist derzeit eine ernstzunehmende Alternative für Twitter und erfreut sich mit mehr als 27 Millionen Nutzer:innen großer Beliebtheit. Jüngst hatte das Projekt „Free Our Feeds“ angekündigt, digitale Ökosysteme und soziale Netzwerke rund um das AT Protokoll fördern zu wollen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Laut Medienberichten gibt es auf hoher Ebene der EU-Kommission Diskussionen um den Digital Markets Act. Das Gesetz soll eigentlich die Macht großer Online-Plattformen einschränken. Nun will die EU-Kommission angeblich alle schon eingeleiteten Verfahren überprüfen. Für die Zivilgesellschaft wäre das ein großer Fehler.
Die EU-Kommission soll intern ihre Untersuchungen zu großen Unternehmen in der Digitalwirtschaft auf den Prüfstand gestellt haben. Das berichtete heute die Financial Times mit Verweis auf interne Quellen. In der vergangenen Woche hatte Le Monde ähnliches geschrieben, sich dabei allerdings auf den Digital Services Act (DSA) bezogen.
Laut der Financial Times geht es um Untersuchungen unter dem Digital Markets Act (DMA), mit dem die EU die Übermacht von Plattformen wie Google und Facebook einschränken will. Dabei soll die Kommission alle ihre Untersuchungen überprüfen, die sie bisher unter dem DMA eröffnet hat. Laut der Zeitung soll in dieser Zeit nicht über mögliche Strafzahlungen entschieden werden. Die eigentliche Arbeit an den Untersuchungen soll aber weitergehen.
Der DMA betrifft in erster Linie sogenannte Gatekeeper. Damit sind sehr große Digitalunternehmen gemeint, die zentrale Plattformdienste zur Verfügung stellen und eine Schlüsselposition in digitalen Märkten einnehmen. Insgesamt sieben Unternehmen erfüllen derzeit die Bedingungen, um derart eingestuft zu werden. Dazu zählen etwa Alphabet, Apple oder Meta, aber nicht das zuletzt hoch umstrittene X des US-Milliardärs Elon Musk. Für sie gelten besonders strenge Regeln, bei Verstößen drohen ihnen Geldbußen von bis zu zehn Prozent des weltweiten Gesamtumsatzes.
Nur normale Treffen, sagt Kommission
Die Kommission bestreitet auf Anfrage die Darstellung. Sie sei weiterhin fest entschlossen, den Digital Markets Act und sein Schwestergesetz, den Digital Services Act, durchzusetzen, betonte heute ein Sprecher der Kommission. Es gebe keine solche Überprüfung.
„Was wir haben werden, sind Treffen, um die Ausgereiftheit von Fällen zu bewerten und die Verteilung von Ressourcen sowie die allgemeine Bereitschaft der Untersuchungen zu beurteilen“, so der Sprecher weiter. Das seien normale Schritte, die im gesamten Lebenszyklus von Fällen im Tech-Bereich passieren würden.
Auch ansonsten betont die Kommission, dass die technische Arbeit in den DMA-Fällen sehr komplex sei. Deshalb würden die Untersuchungen weiterhin andauern. Der letzte Schritt aus den Untersuchungen, der öffentlich geworden ist, war die Verkündung von vorläufigen Ergebnissen gegen Apple und Meta im vergangenen Sommer.
Ergebnisse müssen wasserdicht sein
Bei Apple geht es dabei um die Regeln für App-Entwickler:innen. Diese sollen unter dem DMA eigentlich Kund:innen frei auf Angebote außerhalb des App Stores weiterleiten können. Hier reichten die Anpassungen von Apple laut Sicht der Kommission nicht aus. Bei Meta bemängelte die Kommission das „Pay or Consent“-Modell des Unternehmens. Unter diesem müssen Nutzer:innen entweder ihre Daten hergeben oder bezahlen, wenn sie Facebook oder Instagram nutzen wollen.
Die Kommission schickte diese vorläufigen Ergebnisse an die beiden Unternehmen – und die durften dann Widerspruch dagegen einlegen. Dafür bekommen sie auch Zugang zu allen Dokumenten, die die Kommission im Laufe der jeweiligen Untersuchung angelegt hat. Und es sind Konzerne mit prall gefüllten Geldbeuteln, für die es in diesen Fällen um sehr viel Geld geht. Man kann davon ausgehen, dass sie für ihre Verteidigung absolut hochwertige Anwält:innen angeheuert haben.
Der Sprecher der Kommission betonte heute deshalb auch: „Bevor wir eine solche Entscheidung beschließen, müssen wir uns sicher sein, dass wir diesen Fall vor Gericht gewinnen werden.“
Die orange Bedrohung
Neben der juristischen Absicherung gibt es aber noch ein zweites, politisches Problem, das Auswirkungen auf die europäischen Regeln haben könnte. Dieses Problem ist orangefarben, jähzornig und wird am kommenden Montag zum zweiten Mal als Präsident der USA eingeschworen werden.
Donald Trump hatte seit der Zeit rund um die US-Wahl verstärkt Kontakt mit Big-Tech-Chefs. Der Kniefall Mark Zuckerbergs in der vergangenen Woche war das neueste Signal in diese Richtung. Zuckerberg hat sich schon über die angebliche „Zensur“ durch europäische Digitalgesetze beschwert und versucht, mit nationalistisch gefärbten Appellen an Trump, EU-Vorgaben abzuwehren.
Auch Apple-Chef Tim Cook hatte Berichten zufolge bereits Kontakt mit Donald Trump und nutzte die Gelegenheit, um EU-Strafen zu kritisieren. „Ich werde nicht zulassen, dass sie sich an unseren Unternehmen bereichern“, will Trump darauf geantwortet haben.
Zivilgesellschaft macht Druck
Der Bericht über mögliche Bedenken bei der Kommission rief kritische Reaktionen hervor. Wenn die Kommission ihren bisherigen starken Kurs zum DMA ändern würde, wäre das ein sehr großer Fehler, sagte Lucas Lasota von der Free Software Foundation Europe (FSFE) zu netzpolitik.org. Die FSFE unterstützt die Kommission aktuell in einem DMA-Gerichtsverfahren gegen Apple.
„Die FSFE hält ihn für ein sehr wichtiges Gesetz“, so Lasota. Der DMA wolle ein ebeneres Spielfeld für alle schaffen. Es gehe nicht um einen Gegensatz EU gegen USA, sondern um Big Tech gegen alle.
Dem stimmt auch Jan Penfrat von Europan Digital Rights zu. „Die DMA-Untersuchungen zu den Gatekeepern zu verlangsamen, herunterzufahren oder zu pausieren, wäre ein großer Fehler der Europäischen Kommission“, sagte er zu netzpolitik.org.
„Wenn die Kommission sich von der Angst vor politischem Gegenwind aus der Trump-Regierung dazu schikanieren lässt, seine DMA-Untersuchungen neu zu bewerten, dann wird diese Schikane – sowohl von Big Tech als auch von Trump – nicht aufhören“, so Penfrat.
Schwab will gründliche Arbeit
Zweifel gab es auch im Europäischen Parlament. So etwa von Stephanie Yon-Courtin, einer liberalen Abgeordneten aus Frankreich, die am Digital Markets Act mitarbeitete. Für „etwas schwach“ hält sie die Antwort der Kommission, laut der diese weiterhin entschlossen sei, ihre Regeln durchzusetzen. „Wir brauchen gegen die Provokationen von Big Tech keine Worte mehr, sondern Taten, und zwar bald“, sagte Yon-Courtin netzpolitik.org.
Wesentlich gelassener zeigt sich der deutsche Christdemokrat Andreas Schwab. Er war auf Parlamentsseite Chefverhandler zum DMA. „Grundsätzlich gilt: Gründlichkeit vor Schnelligkeit, weil der Maßstab in Europa das Rechtsstaatsprinzip ist“, so Schwab. Die Verfahren würden wahrscheinlich vor Gericht landen und in den USA gebe es jetzt schon Zweifel daran, wie seriös die EU handele. „Deshalb muss die Sache sauber durchgezogen werden.“
„Gleichzeitig ist es aber kein Geheimnis, dass die Spitze der Kommission derzeit keinen Ärger mit den USA will“, so Schwab weiter. „Das muss uns noch nicht besorgt machen, wir können eine Reihe von Entscheidungen auch Anfang Februar noch treffen.“ Am kommenden Donnerstag tritt die Arbeitsgruppe des Parlaments zusammen, die sich mit der Durchsetzung des DMA beschäftigt. Dort will er mit Vertreter:innen der Kommission weitere Einzelheiten besprechen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Ein neues spendenfinanziertes Projekt will bis zu 30 Millionen Dollar in die Entwicklung rund um das Bluesky-Protokoll AT Proto investieren, um dieses breiter aufzustellen. Kritiker fürchten, dass das Fediverse-Protokoll ActivityPub nur wenig von der Initiative profitieren könnte.
Bluesky freut sich über die Nutzung seines Protokolls. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Kumiko SHIMIZU
Eine neue Initiative, die von Internetgrößen wie Wikipedia-Gründer Jimmy Wales oder Blogger Cory Doctorow unterstützt wird, will in den nächsten Jahren 30 Millionen Dollar sammeln, um dezentrale soziale Netzwerke und Ökosysteme rund um das Bluesky-Protokoll AT Proto aufzubauen.
Erklärtes Ziel des Projektes „Free Our Feeds“ ist es, soziale Netzwerke vor dem Zugriff von Milliardären zu schützen. Hierzu will das Projekt eine Stiftung aufbauen, welche die Infrastruktur gemeinnützig und unabhängig von Bluesky betreibt. Bluesky ist ein letztlich profitorientiertes Unternehmen hinter dem angesagten Kurznachrichtendienst sowie dem Protokoll, das als offener Standard zur Verfügung steht.
Auf der Webseite von „Free Our Feeds“ heißt es, man wolle mit einer „unabhängigen Finanzierung und Verwaltung“ das AT-Protokoll in etwas verwandeln, das mehr könne als eine einzelne App: „Wir wollen ein ganzes Ökosystem aus miteinander verbundenen Apps und verschiedenen Unternehmen schaffen, denen die Interessen der Menschen am Herzen liegen.“ Dabei gehe es nicht nur darum, eine neue Social-Media-Plattform zu stärken. „Unsere Vision bietet einen Weg zu einem offenen und gesunden Social-Media-Ökosystem, das nicht von einem Unternehmen oder einem Milliardär kontrolliert werden kann“, so das Projekt weiter.
Bluesky freut sich
Das Management von Bluesky begrüßte den Schritt von Free Our Feeds: „Der Aufbau einer alternativen Infrastruktur ist ein großer Schritt, um den Nutzern mehr Auswahl zu bieten und das Netzwerk milliardärssicher zu machen“, schrieb beispielsweise Bluesky-CEO Jay Graber. Auch andere Angestellte von Bluesky begrüßten das Projekt.
Der Schritt löste aber auch Kritik aus. So bezweifelt zum Beispiel Jürgen Geuter, dass die Aktion unsere Feeds befreien wirklich würde. Irgendetwas sei an der Sache faul, er unterstellt in einem Blogbeitrag eine Interessensgleichheit zwischen dem kommerziell organisierten Bluesky und dem gerade als nicht-kommerziell vorgestellten „Free Our Feeds“. Auch sei das existierende und funktionierende ActivityPub-Protokoll nur eine Randnotiz des Projektes in den FAQ. Geuter hätte sich gewünscht, dass die Menge an Geld in die Interoperabilität von AT Proto und ActivityPub oder in das Fediverse gesteckt würde.
Grundsätzlich ist eine Interoperabilität zwischen den beiden Protokollen machbar, aufgrund technischer Unterschiede bislang jedoch nur eingeschränkt. In besagter FAQ will „Free Our Feeds“ das AT Protokoll und ActivityPub nicht als Entweder/Oder-Option sehen: „Unsere Vision ist es, dass Interoperabilität zwischen offenen Social-Media-Plattformen durch Kollaboration erreicht wird.“ Ob sich diese Absicht umsetzen lässt, bleibt vorerst offen.
Positiv zu bewerten dürfte indes sein, dass Mallory Knodel von der Social Web Foundation mit an Bord von Free Our Feeds ist. Die Foundation leistet wertvolle Arbeit rund um das Fediverse. In einem Blogbeitrag schreibt Knodel: „Diese Kampagne bietet die Möglichkeit, die Kapazitäten zu entwickeln, die für eine bessere Interoperabilität der offenen Social-Web-Protokolle – ActivityPub und Blueskys AT-Protokoll – erforderlich sind.“
Die großen kommerziellen sozialen Netzwerke stehen seit Jahren wegen Datenschutzproblemen, algorithmisch verstärkter Radikalisierung, Desinformation, Hassrede und genereller „Enshittification“ in der Kritik. Seit neuestem kommt auch noch eine zunehmend nach rechts orientierte politischen Ausrichtung hinzu.
Nachdem Elon Musk Twitter kaufte, zu X umbenannte und es zur rechtsradikalen Propagandaschleuder umbaute, ist nun auch Meta-Chef Mark Zuckerberg auf einen ähnlichen Kurs eingeschwenkt. Moderationsrichtlinien bei Facebook und Instagram werden im Sinne rechter Narrative aufgeweicht, das Fact-Checking weitgehend abgeschafft und generell ein Trump-freundlicher Kurs eingeschlagen.
Das führte und führt dazu, dass alternative Netzwerke wie Mastodon oder Bluesky oder zuletzt auch die Instagram-Alternative Pixelfed großen Zuwachs erhielten. Vom Exodus aus Twitter profitierte in einer ersten Phase vor allem Mastodon, verblieb aber dann aus verschiedenen Gründen in der Nerd-Szene verwurzelt und damit auf absehbare Zeit eher ein Nischennetzwerk.
In den letzten Monaten und vor allem nach Trumps Wahlsieg konnte sich Bluesky über ein großes Wachstum erfreuen. Mittlerweile hat der Dienst eine Größe erlangt, die es etwa möglich macht, internationale Ereignisse und Entwicklungen in Echtzeit zu verfolgen. Lange Zeit war dies das letzte Alleinstellungsmerkmal von Twitter/X. Dass sich Bluesky so kometenhaft entwickelt hat, könnte ausschlaggebend für „Free Our Feeds“ gewesen sein, nun auf dieses Pferd zu setzen.
Mastodon gibt sich neue Struktur
Fast zeitgleich zum Start von „Free Our Feeds“ wird sich die Twitter-Alternative Mastodon eine neue gemeinnützige Struktur geben. Dies war notwendig geworden, weil das Finanzamt der bisherigen Organisationsform der damals in Deutschland angesiedelten Mastodon gGmbH im Frühjahr die Gemeinnützigkeit aberkannt hat.
Technisch ist Mastodon im Fediverse schon dezentral aufgestellt, es gibt aber auch dort sehr große, faktisch recht zentrale Instanzen sowie Eigentumsrechte und Urheberrechte in der Hand weniger. In einem montäglichen Statement kündigte Mastodon deswegen an:
Wir werden einfach das Eigentum an wichtigen Mastodon-Ökosystem- und Plattformkomponenten (einschließlich des Namens und der Urheberrechte sowie anderer Vermögenswerte) auf eine neue gemeinnützige Organisation übertragen und damit die Absicht bekräftigen, dass Mastodon nicht im Besitz oder unter der Kontrolle einer einzelnen Person stehen sollte.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Instagram hat monatelang Beiträge mit LGBTQ-Hashtags ausgeblendet. Meta spricht von einem „technischen Fehler“. Doch der Schritt passt zum vorauseilenden Gehorsam im Schatten der nächsten Trump-Präsidentschaft.
Inhalte mit den Hashtags #gay oder #trans blockierte Instagram als „sexuell suggestiv“. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Rob Maxwell
Instagram hat Suchergebnisse zu LGBTQ-Inhalten für jugendliche Nutzer über Monate blockiert, berichtet die US-Journalistin Taylor Lorenz. Hashtags wie #gay, #lesbian, #bisexual, #trans oder #queer habe die Plattform als „sensible Inhalte“ eingestuft. Solche Inhalte sind nicht verfügbar, wenn Nutzer den Jugendschutz-Filter aktiviert haben. In Accounts von Minderjährigen ist dieser Filter standardmäßig aktiviert.
Jugendliche, die nach solchen Hashtags suchten, wurden stattdessen auf eine Seite weitergeleitet, die erläuterte, warum das Unternehmen „sexuell explizite Inhalte“ blockiert. Die Einschränkungen wurden erst aufgehoben, nachdem Lorenz eine Presseanfrage an Meta stellte. Das Unternehmen versicherte, es handele sich um einen technischen Fehler. Meta betrachte LGBTQ-Content nicht als „sensiblen Inhalt“.
Angriff auf LGBTQ-Rechte in den USA
Gleichzeitig beklagen LGBTQ-Creator seit Jahren, dass ihre Posts auf Instagram einem Shadow-Ban unterliegen würden. Inhalte werden dann zwar nicht gelöscht, aber sie werden anderen Nutzern nicht vorgeschlagen. Dadurch sind sie in ihrer Reichweite stark beschränkt. Nicht nur die Creator, auch Jugendliche, die nach Informationen über die LGBTQ-Community suchen, werden durch diese Richtlinien eingeschränkt.
Die Einschränkungen für LGBTQ-Suchergebnisse erfolgten, während zugleich LGBTQ-Rechte in den USA massiv eingeschränkt werden. Mehr als 20 Bundesstaaten haben in den vergangenen Jahren Gesetze erlassen, die etwa eine affirmative Gesundheitsversorgung für trans Jugendliche verbieten, etwa durch Hormonbehandlungen. Auch Donald Trump hat die Rücknahme von LGBTQ-Rechten zu einem zentralen Thema in seinem Wahlkampf gemacht.
Gesetze wie der vorgeschlagenen Kids Online Safety Act (KOSA) sollen Kinder und Jugendliche davon abhalten, soziale Medien frei nutzen zu können. Co-Sponsorin von KOSA ist die republikanische Senatorin Marsha Blackburn. Sie möchte Minderjährige vor „Transgender und ihrem Einfluss schützen“ und beschreibt soziale Medien als einen Ort, an dem „Minderjährige indoktriniert werden“.
Einschränkung von Bürgerrechten zum Schutz von Kindern?
Einer der bekanntesten Unterstützer für Gesetzgebungen wie KOSA ist Jonathan Haidt, Professor an der New York University Stern School of Business. Er ist auch in Deutschland mit seinem Buch „Generation Angst“ erfolgreich. In seinem Buch verknüpft er fälschlicherweise die Nutzung sozialer Medien mit der sich verschlechternden mentalen Gesundheit von Kindern und Jugendlichen. Die damit geschürte Angst setzen Befürworter ein, um Unterstützung für Gesetze wie KOSA zu erreichen und Bürgerrechte online einzuschränken.
Meta-Chef Mark Zuckerberg möchte eine aktive Rolle in Trumps Technologie-Politik spielen und biedert sich beim künftigen Präsidenten an. Anfang der Woche verkündete das Unternehmen, den Trump-Verbündeten Dana White in den Aufsichtsrat zu holen und Faktenchecks auf seinen Plattformen in den USA abzuschaffen. Das Trump-Lager hatte das seit langem gefordert.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Am 20. Januar kehrt Donald Trump ins Weiße Haus zurück. Am gleichen Tag will Mark Zuckerberg in den USA die Inhaltemoderation bei Facebook, Meta und Instagram stark zurückfahren. Die Kehrtwende ist vor allem eine Unterwerfungsgeste gegenüber dem neuen US-Präsidenten. Sie wird den Kulturkampf weiter anheizen und gefährdet die Demokratie. Auch in Europa. Eine Analyse.
Mark Zuckerberg unterwirft sich Donald Trump. – Alle Rechte vorbehalten meta.com
Mark Zuckerberg will in den USA die Inhaltemoderation bei Facebook, Instagram und Threads dramatisch umbauen. Faktenchecks durch unabhängige Dritte gehören bald der Vergangenheit an, viele sich gegen Hassrede richtende Regeln schafft das Unternehmen ab. Die gestern verkündete Entscheidung ist eine radikale Kehrtwende – und zwar in dreierlei Hinsicht.
Zuallererst ist sie eine Unterwerfungsgeste gegenüber Trump, den Republikanern und den rechtsradikalen Bewegungen in den Vereinigten Staaten. Fast genau vier Jahre zuvor hatte Meta Trumps Konten in seinen sozialen Netzwerken noch vorübergehend gesperrt. Grund war die Erstürmung des US-Parlaments durch einen MAGA-Mob, angestachelt durch den damaligen US-Präsidenten, der in wenigen Tagen seine zweite Amtszeit antritt. Trumps erneuten Wahlsieg nennt Zuckerberg in seiner gestern veröffentlichten Begründung einen „kulturellen Wendepunkt“.
Auf einer gestrigen Pressekonferenz räumte Trump denn auch unumwunden ein, die neuen Regeln seien „vermutlich“ auf seine Drohgesten gegenüber Zuckerberg zurückzuführen. Kein Zufall dürfte wohl auch sein, dass Meta die Ankündigung zunächst exklusiv über eine Frühstückssendung des rechtslastigen US-Senders Fox News verbreitet hat. Außer einem Besuch in Mar-a-Lago dürfte es kaum bessere Möglichkeiten als einen Auftritt bei „Fox & Friends“ geben, um direkt auf Trump einzuwirken.
Die Rhetorik des Kulturkampfs
Zweitens folgt Zuckerberg damit Elon Musks Vorbild. Der Multi-Milliardär entließ, nachdem er im Oktober 2022 Twitter übernommen hatte, einen Großteil der Moderator:innen und setzte stattdessen auf sogenannte community notes, freiwillige korrigierende Anmerkungen der Nutzer:innen unter einzelnen Postings. Diese Form der Selbstkontrolle hat das Problem allerdings noch vergrößert: X ist heute ein Hort der Hetze und des Hasses. Facebook, Instagram und Threads droht nun das gleiche Schicksal.
In gewisser Hinsicht kehrt Meta damit tatsächlich zu seinen Wurzeln zurück, aber wohl anders, als es Zuckerberg in seiner Ankündigung meinte. Denn vom Himmel gefallen sind all die Regeln nicht: So hatte etwa ein UN-Bericht im Jahr 2018 festgestellt, die damals laxe Moderationspraxis von Facebook habe entscheidend zum Völkermord in Myanmar beigetragen. „Ich glaube wirklich, dass dies ein Vorläufer für Genozid ist“, warnt nun ein früherer Meta-Mitarbeiter anlässlich des jüngsten Kurswechsels.
Drittens greift Zuckerberg in seiner Begründung von Metas Kehrtwende zur Rhetorik des Kulturkampfes. Damit stößt der Meta-Chef in das gleiche Horn wie all jene, denen er nun den Freifahrtschein erteilt.
Die strengen Moderationsregeln hätten die freie Rede beschnitten, so der Meta-Chef in einem bemerkenswerten Video auf Instagram (Transkript). Mit den neuen Richtlinien würden nun mehr politische Inhalte in die Feeds der Nutzenden zurückkehren, auch zu den Themen, die in den vergangenen Jahren den Kulturkampf in den USA anheizten. Insbesondere Beschränkungen zu Themen wie Migration und Gender werde Meta abschaffen, Themen, „die einfach nicht zum Mainstream-Diskurs passen“, so Zuckerberg.
Project 2025: Gegen die Zensur von Big Tech
Die neuen Regeln will Meta am Tag der Amtseinführung Donald Trumps in Kraft setzen. Es ist nicht das einzige Geschenk. Meta spendete außerdem eine US-Million Dollar für Trumps Vereidigungszeremonie in Washington, D.C. Vor wenigen Tagen berief Zuckerberg den Republikaner und Trump-Anhänger Joel Kaplan zum neuen Leiter der globalen Politikabteilung von Meta. Und Dana White wurde in den Verwaltungsrat von Meta aufgenommen. Er ist ein langjähriger Freund Trumps und Chef einer großen US-Kampfsport Profiliga.
Der Tech-Konzern sucht also gezielt die Nähe der neuen US-Administration. Die Sorge vor Trump, der Facebook im Wahlkampf unter anderem als „Feind des Volkes“ bezeichnete, ist offensichtlich groß – und begründet. Denn der neue US-Präsident wird in den kommenden zwei Jahren wohl durchregieren können. In beiden Kammern des Kongresses verfügen die Republikaner über die Mehrheit. Und Trump geht dieses Mal gut vorbereitet ins Weiße Haus: Bereits vor der Wahl haben Hunderte Konservative unter dem Namen „Projekt 2025“ dessen zweite Amtszeit programmatisch ausgearbeitet.
Zu den Autor:innen des knapp 1000 Seiten starken Manifests zählt auch Brendan Carr, den Trump im November zum neuen Chef der US-amerikanischen Telekom-Aufsicht FCC (Federal Communication Commission) kürte. Carr fordert in seinem Kapitel, die Trump-Administration müsse die Versuche von Big Tech eindämmen, „verschiedene politische Standpunkte vom digitalen Marktplatz zu vertreiben“. Unternehmen dürften Inhalte nicht nach Belieben zensieren.
Dank Metas Entscheidung ist die neue Administration, noch bevor sie im Amt ist, diesem Ziel bereits ein gutes Stück nähergekommen. Gleichzeitig wird sie den Kulturkampf in den USA weiter anfachen, die demokratischen Kräfte zusätzlich schwächen und den gesellschaftlichen Zusammenhalt noch mehr aushöhlen.
Trump, Musk und Zuckerberg gegen den DSA
Metas Kehrtwende betrifft bislang nur die Vereinigten Staaten. In der Europäischen Union regelt der Digital Services Act (DSA) den Umgang der sozialen Plattformen mit Desinformation und illegalen Inhalten. Kommen die Plattformen den Vorgaben nicht nach, müssen sie mit hohen Strafen rechnen.
Allerdings nimmt der Druck auf den DSA schon seit längerem zu. Besonders Zuckerbergs Spiritus rector, Elon Musk, ist das Regelwerk ein Dorn im Auge. Die Kommission wirft Musks Plattform X vor, europäische Regeln zu missachten; inzwischen laufen mehrere Verfahren wegen Verstößen gegen den DSA. Musk schießt scharf gegen die Kommission und bezichtigt sie, Zensur durchsetzen zu wollen.
Hier schließt Zuckerberg in seinem Video auf, indem er der EU ebenfalls vorwirft, mit ihren Gesetzen Zensur zu institutionalisieren. Außerdem kündigt der Meta-Chef an, sich gemeinsam mit der neuen US-Administration Regierungen entgegenzustellen, die vermeintliche Zensur ausweiten wollen. Explizit verweist Zuckerberg dabei auf die EU.
Trump könnte schon bald den Druck auf die EU erhöhen, die europäischen Vorgaben zu lockern. Tatsächlich hatte sein designierter Stellvertreter, der ultra-konservative J.D. Vance, schon im November die Durchsetzung des DSA mit der US-Unterstützung der NATO verknüpft. Und einem noch unbestätigten Bericht der französischen Zeitung Le Monde zufolge soll die EU-Kommission laufende Untersuchungen gegen DSA-Verstöße durch US-amerikanische Digital-Unternehmen bis auf Weiteres auf Eis gelegt haben. Sollte das tatsächlich stimmen, wäre dies eine fatale Entwicklung.
Anstatt kampflos einzuknicken, muss die EU dem Druck aus den USA entschieden standhalten – noch bevor Trump seine vierjährige Amtszeit antritt. Andernfalls gefährdet die Entscheidung Zuckerbergs auch die Demokratie diesseits des Atlantiks.
Die Ankündigung von Mark Zuckerberg vom 7.1.2025 auf Instagram in Wortlaut:
Hey everyone. I want to talk about something important today because it’s time to get back to our roots around free expression on Facebook and Instagram. I started building social media to give people a voice. I gave a speech at Georgetown five years ago about the importance of protecting free expression, and I still believe this today, but a lot has happened over the last several years.
There’s been widespread debate about potential harms from online content. Governments and legacy media have pushed to censor more and more. A lot of this is clearly political, but there’s also a lot of legitimately bad stuff out there. Drugs, terrorism, child exploitation. These are things that we take very seriously, and I want to make sure that we handle responsibly. So we built a lot of complex systems to moderate content, but the problem with complex systems is they make mistakes even if they accidentally censor just 1 percent of posts, that’s millions of people.
And we’ve reached a point where it’s just too many mistakes and too much censorship. The recent elections also feel like a cultural tipping point towards, once again, prioritizing speech. So, we’re going to get back to our roots and focus on reducing mistakes, simplifying our policies, and restoring free expression on our platforms. More specifically, here’s what we’re going to do.
First, we’re going to get rid of fact-checkers and replace them with community notes similar to X starting in the US. After Trump first got elected in 2016, the legacy media wrote nonstop about how misinformation was a threat to democracy. We tried in good faith to address those concerns without becoming the arbiters of truth, but the fact-checkers have just been too politically biased and have destroyed more trust than they’ve created, especially in the US. So, over the next couple of months, we’re going to phase in a more comprehensive community notes system.
Second, we’re going to simplify our content policies and get rid of a bunch of restrictions on topics like immigration and gender that are just out of touch with mainstream discourse. What started as a movement to be more inclusive has increasingly been used to shut down opinions and shut out people with different ideas, and it’s gone too far. So, I want to make sure that people can share their beliefs and experiences on our platforms.
Third, we’re changing how we enforce our policies to reduce the mistakes that account for the vast majority of censorship on our platforms. We used to have filters that scanned for any policy violation. Now, we’re going to focus those filters on tackling illegal and high-severity violations, and for lower-severity violations, we’re going to rely on someone reporting an issue before we take action. The problem is that the filters make mistakes, and they take down a lot of content that they shouldn’t. So, by dialing them back, we’re going to dramatically reduce the amount of censorship on our platforms. We’re also going to tune our content filters to require much higher confidence before taking down content. The reality is that this is a trade-off. It means we’re going to catch less bad stuff, but we’ll also reduce the number of innocent people’s posts and accounts that we accidentally take down.
Fourth, we’re bringing back civic content. For a while, the community asked to see less politics because it was making people stressed. So we stopped recommending these posts. But it feels like we’re in a new era now. And we’re starting to get feedback that people want to see this content again. So we’re going to start phasing this back into Facebook, Instagram, and Threads while working to keep the communities friendly and positive. Fifth, we’re going to move our trust and safety and content moderation teams out of California, and our US-based content review is going to be based in Texas. As we work to promote free expression, I think that will help us build trust to do this work in places where there is less concern about the bias of our teams.
Finally, we’re going to work with President Trump to push back on governments around the world. They’re going after American companies and pushing to censor more. The US has the strongest constitutional protections for free expression in the world. Europe has an ever-increasing number of laws, institutionalizing censorship, and making it difficult to build anything innovative there. Latin American countries have secret courts that can order companies to quietly take things down. China has censored our apps from even working in the country. The only way that we can push back on this global trend is with the support of the US government, and that’s why it’s been so difficult over the past four years when even the US government has pushed for censorship.
By going after us and other American companies, it has emboldened other governments to go even further. But now we have the opportunity to restore free expression, and I’m excited to take it. It’ll take time to get this right, and these are complex systems. They’re never going to be perfect. There’s also a lot of illegal stuff that we still need to work very hard to remove. But the bottom line is that after years of having our content moderation work focused primarily on removing content, it is time to focus on reducing mistakes, simplifying our systems, and getting back to our roots about giving people voice. I’m looking forward to this next chapter. Stay good out there, and more to come soon.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.