Netzpolitik wird allzu oft als technische Detailfrage für Nerds verkannt. Doch dort verhandeln wir längst individuelle wie kollektive Freiheit, Hoheit und Macht. Zwischen staatlichen Kontrollansprüchen und der Dominanz globaler Techkonzerne geraten die Interessen der Nutzer:innen ins Hintertreffen.
Wer hat die Macht? Wer nimmt sie sich? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Clay Banks
Netzpolitik ist längst keine Nischendisziplin mehr. Sie ist zu einem Feld geworden, in dem Macht ausgeübt, verschoben und abgesichert wird. Wer reguliert, überwacht oder moderiert, entscheidet nicht nur über technische Abläufe, sondern über die Bedingungen öffentlicher Kommunikation und die Hoheit über Technologien. Netzpolitik ist Machtpolitik: Das wurde im vergangenen Jahr besonders deutlich.
Ein Blick auf die großen netzpolitischen Debatten des Jahres zeigt, wie wenig es dabei um technische Fragen im engeren Sinne geht. Abgesehen von Spartenmedien, spezialisierten Interessenvertretungen und Thinktanks spricht öffentlich kaum jemand darüber, mit welchem Werkzeug was wie umgesetzt werden kann. Stattdessen wird darüber diskutiert, wer wessen Verhalten beeinflussen, Daten nutzen und Aktivitäten beobachten darf.
Bipolare digitale Welt
2025 haben Tech-Konzerne ihre faktische Rolle als Regulierungsakteure weiter ausgebaut. Plattformen wie Meta, Google oder ByteDance entscheiden täglich über Sichtbarkeit, Reichweite und Sanktionen. Und sie haben gezeigt, wie opportunistisch die Plattformbetreiber sind, wenn es darum geht, diese Gatekeeper-Stellung und die mit ihr verbundene Macht zu erhalten. Quasi im Gleichschritt gehen sie den von Trumps neofaschistischer Administration eingeschlagenen Weg mit. Stiefel schmecken im Silicon Valley anscheinend besonders gut.
Änderungen an Empfehlungsalgorithmen, der gezielte Einsatz politischer Werbung oder die Verwendung sowie der Umgang mit generativer KI können Auswirkungen auf Wahlkämpfe und mediale Öffentlichkeit haben. Diese höchst relevanten Eingriffe in die politische Öffentlichkeit erfolgen ohne demokratische Legitimation, geleitet von den Interessen der Tech-Giganten. Staatliche Regulierung könnte dieses Problem mildern, birgt damit aber auch die Gefahr, selbst Einfluss zu nehmen, der sich von den Interessen der Bevölkerung unterscheidet oder gar zulasten der Grundrechte der Nutzer:innen geht.
Der Konflikt verläuft dabei regelmäßig nicht zwischen Freiheit und Regulierung, sondern zwischen unterschiedlichen Machtzentren. Der Kampf um die Hoheit über das Netz ist überwiegend bipolar. Staatliche Stellen versuchen, Kontrolle zurückzugewinnen, die sie im digitalen Raum verloren haben, und damit staatliche Interessen zu sichern. Das können Schutz der Nutzer:innen vor der Willkür der Plattformbetreiber auf der einen Seite, aber auch etwa die angebliche Sicherstellung der öffentlichen Ordnung durch die massenhafte Überwachung der Nutzerverhalten sein. Tech-Konzerne verteidigen ihre Deutungshoheit über Plattformregeln, Datenflüsse und Aufmerksamkeit. Primär motiviert durch ihre eigenen wirtschaftlichen Interessen und die Maximierung ihrer Profitaussichten. Dazwischen stehen die Nutzenden, deren Rechte zwar nahezu gebetsmühlenartig beschworen, aber strukturell selten abgesichert werden.
Kein Raum für Freiheitsrechte?
Wer digitale Freiheitsrechte verteidigt, gerät damit in eine doppelte Abwehrhaltung. Auf der einen Seite steht der Staat, der im Namen von Sicherheit, Ordnung, Jugendschutz oder der Bekämpfung von politischer Einflussnahme immer weitergehende Eingriffsbefugnisse fordert. In diesem Jahr wurde erneut über EU-weite Chatkontrolle, biometrische Überwachung im öffentlichen Raum und den Zugriff auf Kommunikationsmetadaten diskutiert.
Auf der anderen Seite stehen Konzerne, die sich als neutrale Infrastrukturbetreiber inszenieren, tatsächlich aber eigene Interessen verfolgen. Ihre Moderationsentscheidungen sind allzu oft intransparent, ihre Beschwerdewege ineffektiv und ihre Prioritäten wirtschaftlich motiviert. Wenn Plattformbetreiber Konten sperren, Inhalte herauf- oder herabstufen oder Nutzerdaten automatisiert entwerten, fehlt es in der Praxis an rechtsstaatlichen Garantien. Nutzer:innen sind Adressaten von Regeln, an deren Entstehung sie nicht beteiligt waren.
Wer bestimmt die Regeln?
2025 hat auch gezeigt, wie eng diese Machtfragen mit geopolitischen und wirtschaftlichen Interessen verknüpft sind. Debatten über chinesische Plattformen, europäische Souveränität oder US-amerikanische KI-Modelle sind Fragen der nationalen und globalen Sicherheit. Es geht um Kontrolle über Infrastrukturen und Technologien. Wer die Plattform betreibt, bestimmt die Regeln. Wer die Daten besitzt, kontrolliert die Auswertung. Und derjenige, in dessen Land sich die Infrastrukturen befinden, hat die Souveränität, sie zu regulieren – oder nicht.
Eine um den Erhalt von Freiheitsrechten bemühte Netzpolitik kann sich deshalb nicht mit abstrakten Bekenntnissen begnügen. Sie muss konkrete Anforderungen stellen: rechtsstaatliche Verfahren auch auf Plattformen, effektive Transparenz über algorithmische Entscheidungen, einklagbare Nutzerrechte und klare Grenzen für staatliche Überwachung. Regulierung ist notwendig, aber sie muss sich stets im rechtsstaatlichen Rahmen bewegen. Das heißt, sie muss in ständiger Abwägung der verschiedenen betroffenen Grundrechte geschehen und immer wieder neu vor den Nutzenden erklärt und gerechtfertigt werden. Und sie darf nicht an private Akteure delegiert werden, ohne demokratische Kontrolle sicherzustellen.
Das Netz ist politisch und bleibt es auch
Der Rückblick auf das Jahr 2025 zeigt vor allem eines: Die Illusion eines unpolitischen Netzes ist endgültig vorbei. Wer TikTok, Instagram, WhatsApp und Co. heute immer noch primär als Unterhaltungsprogramme für Teenager sieht, hat in den letzten zwölf Monaten nicht aufgepasst. Entscheidungen über Moderation, Sichtbarkeit und Zugriff sind politische Entscheidungen. Sie verteilen Macht zwischen Staat, Konzernen und Nutzer:innen. Wer Netzpolitik weiterhin als technische Detailfrage behandelt, überlässt diese Macht anderen.
Eine wesentliche Aufgabe besteht darin, digitale Räume so zu gestalten, dass sie demokratischer Kontrolle unterliegen, ohne staatlicher Totalaufsicht zu verfallen. Das ist kein einfacher Ausgleich, aber ein notwendiger. Denn wenn Netzpolitik Machtpolitik ist, dann ist die Frage nicht, ob Plattformen reguliert werden, sondern in wessen Interesse – und auf wessen Kosten.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Der Streit um die Berufung der ehemaligen Meta-Angestellten Niamh Sweeney zur irischen Datenschutzbeauftragten erreicht Brüssel. Doch auch nach einer formalen Beschwerde des Irish Council for Civil Liberties will die EU-Kommission offenbar nicht in das Verfahren eingreifen.
Die EU-Kommission sei nicht zuständig, sagt die Kommission. – Alle Rechte vorbehalten IMAGO / Michael Kneffel
Das Irish Council for Civil Liberties (ICCL) hat am 28. Oktober eine formale Beschwerde bei der EU-Kommission eingereicht. Darin kritisiert die Menschenrechtsorganisation die Ernennung von Niamh Sweeney zur Leiterin der irischen Data Protection Commission (DPC). Die Berufung stelle die Unabhängigkeit der Datenschutzbehörde infrage.
Bereits vergangene Woche hatten mehrere Nichtregierungsorganisationen der irischen Regierung einen Beschwerdebrief übergeben, in dem sie die Ernennung Sweeneys kritisieren. Als Grund führen sie zum einen an, dass diese mehr als sechs Jahre als Lobbyistin für den Tech-Konzern Meta tätig war. Meta ist eines der Unternehmen, das die DPC überwacht.
Zum anderen kritisieren die NGOs das Auswahlverfahren selbst. Dafür stellte das Unternehmen publicjobs ein Gremium aus fünf Personen zusammen. Darunter war auch Leo Moore. Der Anwalt der Kanzlei William Fry hat mit mehreren Big-Tech-Unternehmen zusammengearbeitet. Neben Moore gehörte außerdem ein Vertreter des irischen Justizministeriums dem Auswahlgremium an: Deputy Secretary General Doncha O’Sullivan.
Irland: Liebling der Tech-Branche
In seiner Beschwerde betont das ICCL, dass die DPC eine Schlüsselposition bei der Durchsetzung der europäischen Datenschutzgrundverordnung (DSGVO) einnehme. Außerdem müsse die irische Datenschutzkommission laut EU-Recht vollkommen unabhängig gegenüber jeglichen Weisungen von außen agieren – auch gegenüber möglicher Einflussnahme der irischen Regierung.
Viele Technologiekonzerne haben ihren europäischen Hauptsitz in Irland, darunter Meta, Google, Apple, Microsoft und TikTok. Die Unternehmen tragen einen erheblichen Teil zu Irlands Wirtschaft bei. Und Meta allein zahlte im Jahr 2023 mehr als 280 Millionen Euro Steuern an die irischen Behörden.
Derweil geriet die Durchsetzung der DSGVO in Irland den vergangenen Jahren immer wieder ins Stocken. Im Jahr 2022 klagte die DPC sogar gegen eine Entscheidung des ihr übergeordneten European Data Protection Board, um keine weitergehenden Ermittlungen zu Metas Datenverarbeitung aufnehmen zu müssen.
Die Berufung Sweeneys zur dritten Datenschutzkommissarin lässt den ICCL an der Unabhängigkeit der Datenschutzbehörde zweifeln. In ihrer Beschwerde an die EU Kommission schreibt die Organisation:
„Angesichts der bisherigen Bilanz der irischen Datenschutzkommission und der begründeten Zweifel an ihr hätte Irland sich über jeden Vorwurf [der Parteilichkeit] erheben müssen, unter anderem durch die Einführung von Verfahrensgarantien für die Ernennung der Mitglieder seiner Behörde.“
EU-Kommission will offenbar nicht eingreifen
Bei einer Pressekonferenz der EU-Kommission am 29. Oktober erkundigte sich eine Journalistin bei einem Kommissionssprecher, ob die Kommission die Beschwerde des ICCL annehmen werde. Der Sprecher antwortete, dass die europäischen Mitgliedstaaten für die Besetzung ihrer jeweiligen Datenschutzbehörde zuständig seien.
Die Kommission sei nicht in das Auswahlverfahren involviert gewesen und habe auch keine Kompetenzen einzuschreiten. Zugleich versuche die Kommission „immer sicherzustellen […], dass alle europäischen Datenschutzbehörden die Mittel und Unabhängigkeit haben, um ihrer Arbeit nachzugehen“.
Die Reaktion der EU-Kommission kritisiert Itxaso Domínguez de Olazábal vom Verband europäischer Digitalorganisationen European Digital Rights (EDRi): „Die Kommission kann nicht weiter wegschauen, während eine nationale Regulierungsbehörde die Grundsätze der Union untergräbt“, sagt de Olazábal gegenüber netzpolitik.org. „Der Schutz personenbezogener Daten und Grundrechte ist Teil dessen, wofür die EU steht – und die Kommission muss entsprechend handeln.“
Domínguez betont, dass die Beschwerde des ICCL nicht nur auf das Auswahlverfahren, sondern auch auf die Unabhängigkeit der DPC beziehe. Daher liege das Verfahren durchaus im Zuständigkeitsbereich der Kommission. „Die Kommission konzentriert sich offenbar auf das Auswahlverfahren und übersieht dabei das tieferliegende Problem: die anhaltende mangelnde Unabhängigkeit der irischen Datenschutzbehörde, die durch diese Ernennung offengelegt wird“.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
TikTok, Instagram und Facebook lassen Forschende nicht ausreichend an ihre Daten heran. Und bei Instagram und Facebook ist das Melden von Inhalten zu schwer. Das hat die EU-Kommission festgestellt und fordert Nachbesserungen – sonst drohen Geldstrafen.
Schnell und einfach sollen Instagram-Nutzende in der EU Inhalte melden können. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Claudio Schwarz
Im Frühjahr 2024 hat die EU-Kommission die jeweils ersten Verfahren nach dem Gesetz über digitale Dienste (DSA) für Meta (Instagram, Facebook) und für TikTok eröffnet. Seitdem hat die Behörde vorläufig mehrere Verstöße festgestellt, etwa im Bereich des Jugendschutzes und der Desinformation vor Wahlen. Heute hat sie weitere Untersuchungsergebnisse geteilt.
Alle drei Plattformen – also TikTok, Instagram und Facebook – setzen demnach den Zugang zu Daten für Forschende nicht ausreichend um. Es sei sehr umständlich, die Daten zu beantragen und es gebe Probleme im Überprüfungsprozess der Forschenden. Und auch wenn die Daten bereitgestellt würden, seien diese oft unvollständig und nicht zuverlässig. Ähnliche Punkte hatte die Kommission bereits vor einem Jahr bei X bemängelt. Laut DSA ist die Kommission die zuständige Aufsichtsbehörde für „sehr große Plattformen“ (VLOPs).
Die weiteren der heute vorgestellten Ergebnisse betreffen nur Instagram und Facebook. Die Meldewege seien zu kompliziert, sagte eine Kommissionsbeamtin heute in einem Pressebriefing. Wenn Nutzende auf den Plattformen auf illegale Inhalte stoßen, etwa die Darstellung von Missbrauch oder Betrugsmaschen, sollen sie diese selbst möglichst einfach bei den Plattformen melden können. Der DSA will so die Nutzendenrechte stärken und ein System schaffen, das sich quasi “selbst reinigt”.
Manipulative Designs beim Meldeweg
Doch in der Realität sei der Weg so anspruchsvoll und lang, dass viele Nutzende die Meldungen abbrechen würden, heißt es aus der Kommission. Außerdem kämen hier manipulative Designs zum Einsatz. Das bedeutet, dass Meldewege etwa irreführend oder kompliziert gestaltet sind, zum Beispiel über schwer auffindbare Buttons oder unnötig viele Klicks.
In der Folge würden Inhalte nicht gemeldet, Plattformen also nicht darauf aufmerksam gemacht, und es könnten entsprechend auch keine Maßnahmen ergriffen werden, um die Inhalte zu entfernen. Hierzu hätten die Kommission viele Beschwerden erreicht. Es sei klar, dass Meta hier nachbessern müsse.
Darüber hinaus kritisiert die Kommission den Mechanismus zum Umgang mit Beschwerden zur Inhaltsmoderation. Wenn Plattformen Inhalte oder Accounts sperren, können sich betroffene Nutzende an die Plattformen wenden und Beschwerde einreichen. Allerdings laufe auch das bei Meta nicht zufriedenstellend ab, so die Kommission. Zum Beispiel sei es nicht möglich, in der Kommunikation mit den Plattformen Dokumente anzuhängen, um etwa zu beweisen, dass eine Facebook-Seite einem selbst gehöre. In der Konsequenz würden Beschwerden nicht beantwortet.
So geht es jetzt weiter
Meta und TikTok können nun die Dokumente der Kommission einsehen und schriftlich auf die Kritikpunkte antworten – etwas, das nach Einschätzung der Kommissionsbeamtin zwei bis drei Monate in Anspruch nehmen könne. Im nächsten Schritt soll es weitere Gespräche zwischen Kommission und betroffenen Unternehmen geben. Die Hoffnung der Kommission dabei ist, dass die Plattformen ihre Mechanismen anpassen und damit die Vorgaben des DSA erfüllen.
Sollte dies nicht passieren, könnte die Kommission abschließend feststellen, dass sich die Plattformen nicht an den DSA halten und eine Geldstrafe verhängen – in Höhe von bis zu sechs Prozent des jährlichen weltweiten Umsatzes. Auch dann hätten die Plattformen noch die Möglichkeit, diese Entscheidung vor Gericht anzufechten.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Tech-Gigant Meta will Daten, die Nutzer*innen in seinen Chatbot eingeben, künftig auslesen und speichern. Damit sollen Anzeigen treffsicherer personalisiert werden. Es gibt nur einen Weg, sich der Datensammlung zu entziehen.
Unterhaltungen mit dem Meta-Chatbot sind nicht privat – Alle Rechte vorbehalten IMAGO / NurPhoto
Den Meta-Chatbot können Menschen über Instagram, Whatsapp und Facebook ansprechen. Laut Meta nutzen ihn monatlich mehr als eine Milliarde Menschen. Viele davon teilen intime Informationen mit der Software.
Die Gespräche, die Menschen mit der sogenannten Künstlichen Intelligenz führen, will Meta künftig auslesen und speichern. Damit sollen Anzeigen treffsicherer personalisiert werden und die Daten sollen auch beeinflussen, welche Posts Nutzer*innen in den Sozialen Netzwerken angezeigt bekommen. Das erklärte Meta gestern in einem Blogpost. Der Konzern behält sich dabei vor, die Informationen aus den Gesprächen in allen seinen Produkten zu nutzen.
Ein Beispiel nannte der Konzern direkt: Wer sich mit der KI etwa übers Wandern unterhalte, bekomme danach womöglich Empfehlungen für Wandergruppen, Wanderstrecken von Bekannten und Werbung für Wanderschuhe angezeigt.
Auch sensible Konversationen werden ausgelesen
Meta gibt zwar an, sensible Konversationen über religiöse Ansichten, die sexuelle Orientierung, politische Meinungen, Gesundheit und ethnische Herkunft nicht für personalisierte Werbung nutzen zu wollen, die Daten werden aber dennoch mit ausgelesen.
Die neue Regelung will Meta ab dem 16. Dezember umsetzen, allerdings zunächst nicht in der EU und Großbritannien. Dort solle das Feature später ausgerollt werden, weil die hiesigen Datenschutzbestimmungen strenger seien. Für das KI-Training werden die Chatprotokolle in Europa wohl schon genutzt.
Seit Juni ist bereits bekannt, dass Meta mit Hilfe von KI Anzeigen erstellen will. Werbetreibende müssen dann nur ein Produktbild und ein Budget vorgeben. Meta möchte durch diese Investitionen die größte Einnahmequelle Werbung noch rentabler machen. Hier bieten sich auch Spielräume für individuelle Personalisierung von Anzeigen – anhand der mit dem Chatbot erhobenen Daten.
Die Nutzer*innen können einstellen, in welchem Ausmaß die ihnen ausgespielte Werbung personalisiert werden soll, aber es gibt keine Möglichkeit, sich gegen die Datenerfassung zur Personalisierung zu wehren – außer, den Chatbot nicht zu nutzen. In Whatsapp kann es allerdings sein, dass andere Nutzer*innen ihn zu einer Konversation hinzuziehen. Das lässt sich mit der Funktion „erweiterter Chat-Datenschutz“ verhindern. Oder mit dem Verzicht auf die datensammelwütige App zugunsten von datensparsamen Alternativen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Immer mehr Menschen kehren Instagram den Rücken, weil ihnen die Politik des Meta-Konzerns nicht mehr passt. Die offene Alternative Pixelfed profitiert gerade davon. Sie ist werbefrei und bietet einen besseren Schutz der Privatsphäre.
Immer mehr Leute haben keine Lust mehr auf Zuckerbergs Instagram. (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com Nico Cavallini
Nachdem Mark Zuckerberg sich für Trump stark macht und für Instagram laxere Moderationsregeln angekündigt hat, die Frauenfeindlichkeit, Homophobie und Transfeindlichkeit zulassen, suchen immer mehr Nutzer:innen nach einer neuen digitalen Heimat für ihre Bilder und Videos.
Eine freie und dezentrale Alternative für Instagram ist Pixelfed im Fediverse. Dort lassen sich werbefrei und mit deutlich besserem Privatsphärenschutz Fotos teilen. Das ganze System ist Open Source und bietet im Unterschied zu Instagram eine chronologische Timeline, die nicht durch einen undurchsichtigen Algorithmus gesteuert wird.
Im Gegensatz zu Instagram ist Pixelfed nicht eine Plattform in der Hand eines Konzerns, sondern eine Art Netzwerk aus Servern (Instanzen), die über das ActivityPub-Protokoll miteinander sprechen. Will man sich einen Account anlegen, sucht man sich eine Instanz aus und nimmt dann aus dieser heraus am sozialen Netzwerk teil. Pixelfed hat gerade auch Apps für iOS und Android gestartet, die derzeit viel heruntergeladen werden.
Meta ist aufgescheucht
Das Wachstum von Pixelfed und der Exodus von Nutzer:innen bereitet Meta offensichtlich so große Sorgen, dass es nun Links zu Pixelfed.org und den großen Instanzen pixelfed.social und pixelfed.de auf seinen Plattformen als „Spam“ sperrt und entfernt. Ein Schritt, der so lächerlich wie ängstlich wirkt angesichts der gerade mal 370.000 Accounts auf dem offenen Netzwerk. Zum Vergleich: Instagram kann monatlich über zwei Milliarden aktive Nutzer:innen verbuchen.
Darüber hinaus hat ein unabhängiger Entwickler aus Berlin angekündigt, dass in Kürze auch über die Technologie des angesagten Twitter-Rivalen Bluesky mit „Flashes“ eine Bilder-App starten soll, berichtet TechCrunch. Bluesky ist derzeit eine ernstzunehmende Alternative für Twitter und erfreut sich mit mehr als 27 Millionen Nutzer:innen großer Beliebtheit. Jüngst hatte das Projekt „Free Our Feeds“ angekündigt, digitale Ökosysteme und soziale Netzwerke rund um das AT Protokoll fördern zu wollen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Laut Medienberichten gibt es auf hoher Ebene der EU-Kommission Diskussionen um den Digital Markets Act. Das Gesetz soll eigentlich die Macht großer Online-Plattformen einschränken. Nun will die EU-Kommission angeblich alle schon eingeleiteten Verfahren überprüfen. Für die Zivilgesellschaft wäre das ein großer Fehler.
Die EU-Kommission soll intern ihre Untersuchungen zu großen Unternehmen in der Digitalwirtschaft auf den Prüfstand gestellt haben. Das berichtete heute die Financial Times mit Verweis auf interne Quellen. In der vergangenen Woche hatte Le Monde ähnliches geschrieben, sich dabei allerdings auf den Digital Services Act (DSA) bezogen.
Laut der Financial Times geht es um Untersuchungen unter dem Digital Markets Act (DMA), mit dem die EU die Übermacht von Plattformen wie Google und Facebook einschränken will. Dabei soll die Kommission alle ihre Untersuchungen überprüfen, die sie bisher unter dem DMA eröffnet hat. Laut der Zeitung soll in dieser Zeit nicht über mögliche Strafzahlungen entschieden werden. Die eigentliche Arbeit an den Untersuchungen soll aber weitergehen.
Der DMA betrifft in erster Linie sogenannte Gatekeeper. Damit sind sehr große Digitalunternehmen gemeint, die zentrale Plattformdienste zur Verfügung stellen und eine Schlüsselposition in digitalen Märkten einnehmen. Insgesamt sieben Unternehmen erfüllen derzeit die Bedingungen, um derart eingestuft zu werden. Dazu zählen etwa Alphabet, Apple oder Meta, aber nicht das zuletzt hoch umstrittene X des US-Milliardärs Elon Musk. Für sie gelten besonders strenge Regeln, bei Verstößen drohen ihnen Geldbußen von bis zu zehn Prozent des weltweiten Gesamtumsatzes.
Nur normale Treffen, sagt Kommission
Die Kommission bestreitet auf Anfrage die Darstellung. Sie sei weiterhin fest entschlossen, den Digital Markets Act und sein Schwestergesetz, den Digital Services Act, durchzusetzen, betonte heute ein Sprecher der Kommission. Es gebe keine solche Überprüfung.
„Was wir haben werden, sind Treffen, um die Ausgereiftheit von Fällen zu bewerten und die Verteilung von Ressourcen sowie die allgemeine Bereitschaft der Untersuchungen zu beurteilen“, so der Sprecher weiter. Das seien normale Schritte, die im gesamten Lebenszyklus von Fällen im Tech-Bereich passieren würden.
Auch ansonsten betont die Kommission, dass die technische Arbeit in den DMA-Fällen sehr komplex sei. Deshalb würden die Untersuchungen weiterhin andauern. Der letzte Schritt aus den Untersuchungen, der öffentlich geworden ist, war die Verkündung von vorläufigen Ergebnissen gegen Apple und Meta im vergangenen Sommer.
Ergebnisse müssen wasserdicht sein
Bei Apple geht es dabei um die Regeln für App-Entwickler:innen. Diese sollen unter dem DMA eigentlich Kund:innen frei auf Angebote außerhalb des App Stores weiterleiten können. Hier reichten die Anpassungen von Apple laut Sicht der Kommission nicht aus. Bei Meta bemängelte die Kommission das „Pay or Consent“-Modell des Unternehmens. Unter diesem müssen Nutzer:innen entweder ihre Daten hergeben oder bezahlen, wenn sie Facebook oder Instagram nutzen wollen.
Die Kommission schickte diese vorläufigen Ergebnisse an die beiden Unternehmen – und die durften dann Widerspruch dagegen einlegen. Dafür bekommen sie auch Zugang zu allen Dokumenten, die die Kommission im Laufe der jeweiligen Untersuchung angelegt hat. Und es sind Konzerne mit prall gefüllten Geldbeuteln, für die es in diesen Fällen um sehr viel Geld geht. Man kann davon ausgehen, dass sie für ihre Verteidigung absolut hochwertige Anwält:innen angeheuert haben.
Der Sprecher der Kommission betonte heute deshalb auch: „Bevor wir eine solche Entscheidung beschließen, müssen wir uns sicher sein, dass wir diesen Fall vor Gericht gewinnen werden.“
Die orange Bedrohung
Neben der juristischen Absicherung gibt es aber noch ein zweites, politisches Problem, das Auswirkungen auf die europäischen Regeln haben könnte. Dieses Problem ist orangefarben, jähzornig und wird am kommenden Montag zum zweiten Mal als Präsident der USA eingeschworen werden.
Donald Trump hatte seit der Zeit rund um die US-Wahl verstärkt Kontakt mit Big-Tech-Chefs. Der Kniefall Mark Zuckerbergs in der vergangenen Woche war das neueste Signal in diese Richtung. Zuckerberg hat sich schon über die angebliche „Zensur“ durch europäische Digitalgesetze beschwert und versucht, mit nationalistisch gefärbten Appellen an Trump, EU-Vorgaben abzuwehren.
Auch Apple-Chef Tim Cook hatte Berichten zufolge bereits Kontakt mit Donald Trump und nutzte die Gelegenheit, um EU-Strafen zu kritisieren. „Ich werde nicht zulassen, dass sie sich an unseren Unternehmen bereichern“, will Trump darauf geantwortet haben.
Zivilgesellschaft macht Druck
Der Bericht über mögliche Bedenken bei der Kommission rief kritische Reaktionen hervor. Wenn die Kommission ihren bisherigen starken Kurs zum DMA ändern würde, wäre das ein sehr großer Fehler, sagte Lucas Lasota von der Free Software Foundation Europe (FSFE) zu netzpolitik.org. Die FSFE unterstützt die Kommission aktuell in einem DMA-Gerichtsverfahren gegen Apple.
„Die FSFE hält ihn für ein sehr wichtiges Gesetz“, so Lasota. Der DMA wolle ein ebeneres Spielfeld für alle schaffen. Es gehe nicht um einen Gegensatz EU gegen USA, sondern um Big Tech gegen alle.
Dem stimmt auch Jan Penfrat von Europan Digital Rights zu. „Die DMA-Untersuchungen zu den Gatekeepern zu verlangsamen, herunterzufahren oder zu pausieren, wäre ein großer Fehler der Europäischen Kommission“, sagte er zu netzpolitik.org.
„Wenn die Kommission sich von der Angst vor politischem Gegenwind aus der Trump-Regierung dazu schikanieren lässt, seine DMA-Untersuchungen neu zu bewerten, dann wird diese Schikane – sowohl von Big Tech als auch von Trump – nicht aufhören“, so Penfrat.
Schwab will gründliche Arbeit
Zweifel gab es auch im Europäischen Parlament. So etwa von Stephanie Yon-Courtin, einer liberalen Abgeordneten aus Frankreich, die am Digital Markets Act mitarbeitete. Für „etwas schwach“ hält sie die Antwort der Kommission, laut der diese weiterhin entschlossen sei, ihre Regeln durchzusetzen. „Wir brauchen gegen die Provokationen von Big Tech keine Worte mehr, sondern Taten, und zwar bald“, sagte Yon-Courtin netzpolitik.org.
Wesentlich gelassener zeigt sich der deutsche Christdemokrat Andreas Schwab. Er war auf Parlamentsseite Chefverhandler zum DMA. „Grundsätzlich gilt: Gründlichkeit vor Schnelligkeit, weil der Maßstab in Europa das Rechtsstaatsprinzip ist“, so Schwab. Die Verfahren würden wahrscheinlich vor Gericht landen und in den USA gebe es jetzt schon Zweifel daran, wie seriös die EU handele. „Deshalb muss die Sache sauber durchgezogen werden.“
„Gleichzeitig ist es aber kein Geheimnis, dass die Spitze der Kommission derzeit keinen Ärger mit den USA will“, so Schwab weiter. „Das muss uns noch nicht besorgt machen, wir können eine Reihe von Entscheidungen auch Anfang Februar noch treffen.“ Am kommenden Donnerstag tritt die Arbeitsgruppe des Parlaments zusammen, die sich mit der Durchsetzung des DMA beschäftigt. Dort will er mit Vertreter:innen der Kommission weitere Einzelheiten besprechen.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Ein neues spendenfinanziertes Projekt will bis zu 30 Millionen Dollar in die Entwicklung rund um das Bluesky-Protokoll AT Proto investieren, um dieses breiter aufzustellen. Kritiker fürchten, dass das Fediverse-Protokoll ActivityPub nur wenig von der Initiative profitieren könnte.
Bluesky freut sich über die Nutzung seines Protokolls. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Kumiko SHIMIZU
Eine neue Initiative, die von Internetgrößen wie Wikipedia-Gründer Jimmy Wales oder Blogger Cory Doctorow unterstützt wird, will in den nächsten Jahren 30 Millionen Dollar sammeln, um dezentrale soziale Netzwerke und Ökosysteme rund um das Bluesky-Protokoll AT Proto aufzubauen.
Erklärtes Ziel des Projektes „Free Our Feeds“ ist es, soziale Netzwerke vor dem Zugriff von Milliardären zu schützen. Hierzu will das Projekt eine Stiftung aufbauen, welche die Infrastruktur gemeinnützig und unabhängig von Bluesky betreibt. Bluesky ist ein letztlich profitorientiertes Unternehmen hinter dem angesagten Kurznachrichtendienst sowie dem Protokoll, das als offener Standard zur Verfügung steht.
Auf der Webseite von „Free Our Feeds“ heißt es, man wolle mit einer „unabhängigen Finanzierung und Verwaltung“ das AT-Protokoll in etwas verwandeln, das mehr könne als eine einzelne App: „Wir wollen ein ganzes Ökosystem aus miteinander verbundenen Apps und verschiedenen Unternehmen schaffen, denen die Interessen der Menschen am Herzen liegen.“ Dabei gehe es nicht nur darum, eine neue Social-Media-Plattform zu stärken. „Unsere Vision bietet einen Weg zu einem offenen und gesunden Social-Media-Ökosystem, das nicht von einem Unternehmen oder einem Milliardär kontrolliert werden kann“, so das Projekt weiter.
Bluesky freut sich
Das Management von Bluesky begrüßte den Schritt von Free Our Feeds: „Der Aufbau einer alternativen Infrastruktur ist ein großer Schritt, um den Nutzern mehr Auswahl zu bieten und das Netzwerk milliardärssicher zu machen“, schrieb beispielsweise Bluesky-CEO Jay Graber. Auch andere Angestellte von Bluesky begrüßten das Projekt.
Der Schritt löste aber auch Kritik aus. So bezweifelt zum Beispiel Jürgen Geuter, dass die Aktion unsere Feeds befreien wirklich würde. Irgendetwas sei an der Sache faul, er unterstellt in einem Blogbeitrag eine Interessensgleichheit zwischen dem kommerziell organisierten Bluesky und dem gerade als nicht-kommerziell vorgestellten „Free Our Feeds“. Auch sei das existierende und funktionierende ActivityPub-Protokoll nur eine Randnotiz des Projektes in den FAQ. Geuter hätte sich gewünscht, dass die Menge an Geld in die Interoperabilität von AT Proto und ActivityPub oder in das Fediverse gesteckt würde.
Grundsätzlich ist eine Interoperabilität zwischen den beiden Protokollen machbar, aufgrund technischer Unterschiede bislang jedoch nur eingeschränkt. In besagter FAQ will „Free Our Feeds“ das AT Protokoll und ActivityPub nicht als Entweder/Oder-Option sehen: „Unsere Vision ist es, dass Interoperabilität zwischen offenen Social-Media-Plattformen durch Kollaboration erreicht wird.“ Ob sich diese Absicht umsetzen lässt, bleibt vorerst offen.
Positiv zu bewerten dürfte indes sein, dass Mallory Knodel von der Social Web Foundation mit an Bord von Free Our Feeds ist. Die Foundation leistet wertvolle Arbeit rund um das Fediverse. In einem Blogbeitrag schreibt Knodel: „Diese Kampagne bietet die Möglichkeit, die Kapazitäten zu entwickeln, die für eine bessere Interoperabilität der offenen Social-Web-Protokolle – ActivityPub und Blueskys AT-Protokoll – erforderlich sind.“
Die großen kommerziellen sozialen Netzwerke stehen seit Jahren wegen Datenschutzproblemen, algorithmisch verstärkter Radikalisierung, Desinformation, Hassrede und genereller „Enshittification“ in der Kritik. Seit neuestem kommt auch noch eine zunehmend nach rechts orientierte politischen Ausrichtung hinzu.
Nachdem Elon Musk Twitter kaufte, zu X umbenannte und es zur rechtsradikalen Propagandaschleuder umbaute, ist nun auch Meta-Chef Mark Zuckerberg auf einen ähnlichen Kurs eingeschwenkt. Moderationsrichtlinien bei Facebook und Instagram werden im Sinne rechter Narrative aufgeweicht, das Fact-Checking weitgehend abgeschafft und generell ein Trump-freundlicher Kurs eingeschlagen.
Das führte und führt dazu, dass alternative Netzwerke wie Mastodon oder Bluesky oder zuletzt auch die Instagram-Alternative Pixelfed großen Zuwachs erhielten. Vom Exodus aus Twitter profitierte in einer ersten Phase vor allem Mastodon, verblieb aber dann aus verschiedenen Gründen in der Nerd-Szene verwurzelt und damit auf absehbare Zeit eher ein Nischennetzwerk.
In den letzten Monaten und vor allem nach Trumps Wahlsieg konnte sich Bluesky über ein großes Wachstum erfreuen. Mittlerweile hat der Dienst eine Größe erlangt, die es etwa möglich macht, internationale Ereignisse und Entwicklungen in Echtzeit zu verfolgen. Lange Zeit war dies das letzte Alleinstellungsmerkmal von Twitter/X. Dass sich Bluesky so kometenhaft entwickelt hat, könnte ausschlaggebend für „Free Our Feeds“ gewesen sein, nun auf dieses Pferd zu setzen.
Mastodon gibt sich neue Struktur
Fast zeitgleich zum Start von „Free Our Feeds“ wird sich die Twitter-Alternative Mastodon eine neue gemeinnützige Struktur geben. Dies war notwendig geworden, weil das Finanzamt der bisherigen Organisationsform der damals in Deutschland angesiedelten Mastodon gGmbH im Frühjahr die Gemeinnützigkeit aberkannt hat.
Technisch ist Mastodon im Fediverse schon dezentral aufgestellt, es gibt aber auch dort sehr große, faktisch recht zentrale Instanzen sowie Eigentumsrechte und Urheberrechte in der Hand weniger. In einem montäglichen Statement kündigte Mastodon deswegen an:
Wir werden einfach das Eigentum an wichtigen Mastodon-Ökosystem- und Plattformkomponenten (einschließlich des Namens und der Urheberrechte sowie anderer Vermögenswerte) auf eine neue gemeinnützige Organisation übertragen und damit die Absicht bekräftigen, dass Mastodon nicht im Besitz oder unter der Kontrolle einer einzelnen Person stehen sollte.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Instagram hat monatelang Beiträge mit LGBTQ-Hashtags ausgeblendet. Meta spricht von einem „technischen Fehler“. Doch der Schritt passt zum vorauseilenden Gehorsam im Schatten der nächsten Trump-Präsidentschaft.
Inhalte mit den Hashtags #gay oder #trans blockierte Instagram als „sexuell suggestiv“. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Rob Maxwell
Instagram hat Suchergebnisse zu LGBTQ-Inhalten für jugendliche Nutzer über Monate blockiert, berichtet die US-Journalistin Taylor Lorenz. Hashtags wie #gay, #lesbian, #bisexual, #trans oder #queer habe die Plattform als „sensible Inhalte“ eingestuft. Solche Inhalte sind nicht verfügbar, wenn Nutzer den Jugendschutz-Filter aktiviert haben. In Accounts von Minderjährigen ist dieser Filter standardmäßig aktiviert.
Jugendliche, die nach solchen Hashtags suchten, wurden stattdessen auf eine Seite weitergeleitet, die erläuterte, warum das Unternehmen „sexuell explizite Inhalte“ blockiert. Die Einschränkungen wurden erst aufgehoben, nachdem Lorenz eine Presseanfrage an Meta stellte. Das Unternehmen versicherte, es handele sich um einen technischen Fehler. Meta betrachte LGBTQ-Content nicht als „sensiblen Inhalt“.
Angriff auf LGBTQ-Rechte in den USA
Gleichzeitig beklagen LGBTQ-Creator seit Jahren, dass ihre Posts auf Instagram einem Shadow-Ban unterliegen würden. Inhalte werden dann zwar nicht gelöscht, aber sie werden anderen Nutzern nicht vorgeschlagen. Dadurch sind sie in ihrer Reichweite stark beschränkt. Nicht nur die Creator, auch Jugendliche, die nach Informationen über die LGBTQ-Community suchen, werden durch diese Richtlinien eingeschränkt.
Die Einschränkungen für LGBTQ-Suchergebnisse erfolgten, während zugleich LGBTQ-Rechte in den USA massiv eingeschränkt werden. Mehr als 20 Bundesstaaten haben in den vergangenen Jahren Gesetze erlassen, die etwa eine affirmative Gesundheitsversorgung für trans Jugendliche verbieten, etwa durch Hormonbehandlungen. Auch Donald Trump hat die Rücknahme von LGBTQ-Rechten zu einem zentralen Thema in seinem Wahlkampf gemacht.
Gesetze wie der vorgeschlagenen Kids Online Safety Act (KOSA) sollen Kinder und Jugendliche davon abhalten, soziale Medien frei nutzen zu können. Co-Sponsorin von KOSA ist die republikanische Senatorin Marsha Blackburn. Sie möchte Minderjährige vor „Transgender und ihrem Einfluss schützen“ und beschreibt soziale Medien als einen Ort, an dem „Minderjährige indoktriniert werden“.
Einschränkung von Bürgerrechten zum Schutz von Kindern?
Einer der bekanntesten Unterstützer für Gesetzgebungen wie KOSA ist Jonathan Haidt, Professor an der New York University Stern School of Business. Er ist auch in Deutschland mit seinem Buch „Generation Angst“ erfolgreich. In seinem Buch verknüpft er fälschlicherweise die Nutzung sozialer Medien mit der sich verschlechternden mentalen Gesundheit von Kindern und Jugendlichen. Die damit geschürte Angst setzen Befürworter ein, um Unterstützung für Gesetze wie KOSA zu erreichen und Bürgerrechte online einzuschränken.
Meta-Chef Mark Zuckerberg möchte eine aktive Rolle in Trumps Technologie-Politik spielen und biedert sich beim künftigen Präsidenten an. Anfang der Woche verkündete das Unternehmen, den Trump-Verbündeten Dana White in den Aufsichtsrat zu holen und Faktenchecks auf seinen Plattformen in den USA abzuschaffen. Das Trump-Lager hatte das seit langem gefordert.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Am 20. Januar kehrt Donald Trump ins Weiße Haus zurück. Am gleichen Tag will Mark Zuckerberg in den USA die Inhaltemoderation bei Facebook, Meta und Instagram stark zurückfahren. Die Kehrtwende ist vor allem eine Unterwerfungsgeste gegenüber dem neuen US-Präsidenten. Sie wird den Kulturkampf weiter anheizen und gefährdet die Demokratie. Auch in Europa. Eine Analyse.
Mark Zuckerberg unterwirft sich Donald Trump. – Alle Rechte vorbehalten meta.com
Mark Zuckerberg will in den USA die Inhaltemoderation bei Facebook, Instagram und Threads dramatisch umbauen. Faktenchecks durch unabhängige Dritte gehören bald der Vergangenheit an, viele sich gegen Hassrede richtende Regeln schafft das Unternehmen ab. Die gestern verkündete Entscheidung ist eine radikale Kehrtwende – und zwar in dreierlei Hinsicht.
Zuallererst ist sie eine Unterwerfungsgeste gegenüber Trump, den Republikanern und den rechtsradikalen Bewegungen in den Vereinigten Staaten. Fast genau vier Jahre zuvor hatte Meta Trumps Konten in seinen sozialen Netzwerken noch vorübergehend gesperrt. Grund war die Erstürmung des US-Parlaments durch einen MAGA-Mob, angestachelt durch den damaligen US-Präsidenten, der in wenigen Tagen seine zweite Amtszeit antritt. Trumps erneuten Wahlsieg nennt Zuckerberg in seiner gestern veröffentlichten Begründung einen „kulturellen Wendepunkt“.
Auf einer gestrigen Pressekonferenz räumte Trump denn auch unumwunden ein, die neuen Regeln seien „vermutlich“ auf seine Drohgesten gegenüber Zuckerberg zurückzuführen. Kein Zufall dürfte wohl auch sein, dass Meta die Ankündigung zunächst exklusiv über eine Frühstückssendung des rechtslastigen US-Senders Fox News verbreitet hat. Außer einem Besuch in Mar-a-Lago dürfte es kaum bessere Möglichkeiten als einen Auftritt bei „Fox & Friends“ geben, um direkt auf Trump einzuwirken.
Die Rhetorik des Kulturkampfs
Zweitens folgt Zuckerberg damit Elon Musks Vorbild. Der Multi-Milliardär entließ, nachdem er im Oktober 2022 Twitter übernommen hatte, einen Großteil der Moderator:innen und setzte stattdessen auf sogenannte community notes, freiwillige korrigierende Anmerkungen der Nutzer:innen unter einzelnen Postings. Diese Form der Selbstkontrolle hat das Problem allerdings noch vergrößert: X ist heute ein Hort der Hetze und des Hasses. Facebook, Instagram und Threads droht nun das gleiche Schicksal.
In gewisser Hinsicht kehrt Meta damit tatsächlich zu seinen Wurzeln zurück, aber wohl anders, als es Zuckerberg in seiner Ankündigung meinte. Denn vom Himmel gefallen sind all die Regeln nicht: So hatte etwa ein UN-Bericht im Jahr 2018 festgestellt, die damals laxe Moderationspraxis von Facebook habe entscheidend zum Völkermord in Myanmar beigetragen. „Ich glaube wirklich, dass dies ein Vorläufer für Genozid ist“, warnt nun ein früherer Meta-Mitarbeiter anlässlich des jüngsten Kurswechsels.
Drittens greift Zuckerberg in seiner Begründung von Metas Kehrtwende zur Rhetorik des Kulturkampfes. Damit stößt der Meta-Chef in das gleiche Horn wie all jene, denen er nun den Freifahrtschein erteilt.
Die strengen Moderationsregeln hätten die freie Rede beschnitten, so der Meta-Chef in einem bemerkenswerten Video auf Instagram (Transkript). Mit den neuen Richtlinien würden nun mehr politische Inhalte in die Feeds der Nutzenden zurückkehren, auch zu den Themen, die in den vergangenen Jahren den Kulturkampf in den USA anheizten. Insbesondere Beschränkungen zu Themen wie Migration und Gender werde Meta abschaffen, Themen, „die einfach nicht zum Mainstream-Diskurs passen“, so Zuckerberg.
Project 2025: Gegen die Zensur von Big Tech
Die neuen Regeln will Meta am Tag der Amtseinführung Donald Trumps in Kraft setzen. Es ist nicht das einzige Geschenk. Meta spendete außerdem eine US-Million Dollar für Trumps Vereidigungszeremonie in Washington, D.C. Vor wenigen Tagen berief Zuckerberg den Republikaner und Trump-Anhänger Joel Kaplan zum neuen Leiter der globalen Politikabteilung von Meta. Und Dana White wurde in den Verwaltungsrat von Meta aufgenommen. Er ist ein langjähriger Freund Trumps und Chef einer großen US-Kampfsport Profiliga.
Der Tech-Konzern sucht also gezielt die Nähe der neuen US-Administration. Die Sorge vor Trump, der Facebook im Wahlkampf unter anderem als „Feind des Volkes“ bezeichnete, ist offensichtlich groß – und begründet. Denn der neue US-Präsident wird in den kommenden zwei Jahren wohl durchregieren können. In beiden Kammern des Kongresses verfügen die Republikaner über die Mehrheit. Und Trump geht dieses Mal gut vorbereitet ins Weiße Haus: Bereits vor der Wahl haben Hunderte Konservative unter dem Namen „Projekt 2025“ dessen zweite Amtszeit programmatisch ausgearbeitet.
Zu den Autor:innen des knapp 1000 Seiten starken Manifests zählt auch Brendan Carr, den Trump im November zum neuen Chef der US-amerikanischen Telekom-Aufsicht FCC (Federal Communication Commission) kürte. Carr fordert in seinem Kapitel, die Trump-Administration müsse die Versuche von Big Tech eindämmen, „verschiedene politische Standpunkte vom digitalen Marktplatz zu vertreiben“. Unternehmen dürften Inhalte nicht nach Belieben zensieren.
Dank Metas Entscheidung ist die neue Administration, noch bevor sie im Amt ist, diesem Ziel bereits ein gutes Stück nähergekommen. Gleichzeitig wird sie den Kulturkampf in den USA weiter anfachen, die demokratischen Kräfte zusätzlich schwächen und den gesellschaftlichen Zusammenhalt noch mehr aushöhlen.
Trump, Musk und Zuckerberg gegen den DSA
Metas Kehrtwende betrifft bislang nur die Vereinigten Staaten. In der Europäischen Union regelt der Digital Services Act (DSA) den Umgang der sozialen Plattformen mit Desinformation und illegalen Inhalten. Kommen die Plattformen den Vorgaben nicht nach, müssen sie mit hohen Strafen rechnen.
Allerdings nimmt der Druck auf den DSA schon seit längerem zu. Besonders Zuckerbergs Spiritus rector, Elon Musk, ist das Regelwerk ein Dorn im Auge. Die Kommission wirft Musks Plattform X vor, europäische Regeln zu missachten; inzwischen laufen mehrere Verfahren wegen Verstößen gegen den DSA. Musk schießt scharf gegen die Kommission und bezichtigt sie, Zensur durchsetzen zu wollen.
Hier schließt Zuckerberg in seinem Video auf, indem er der EU ebenfalls vorwirft, mit ihren Gesetzen Zensur zu institutionalisieren. Außerdem kündigt der Meta-Chef an, sich gemeinsam mit der neuen US-Administration Regierungen entgegenzustellen, die vermeintliche Zensur ausweiten wollen. Explizit verweist Zuckerberg dabei auf die EU.
Trump könnte schon bald den Druck auf die EU erhöhen, die europäischen Vorgaben zu lockern. Tatsächlich hatte sein designierter Stellvertreter, der ultra-konservative J.D. Vance, schon im November die Durchsetzung des DSA mit der US-Unterstützung der NATO verknüpft. Und einem noch unbestätigten Bericht der französischen Zeitung Le Monde zufolge soll die EU-Kommission laufende Untersuchungen gegen DSA-Verstöße durch US-amerikanische Digital-Unternehmen bis auf Weiteres auf Eis gelegt haben. Sollte das tatsächlich stimmen, wäre dies eine fatale Entwicklung.
Anstatt kampflos einzuknicken, muss die EU dem Druck aus den USA entschieden standhalten – noch bevor Trump seine vierjährige Amtszeit antritt. Andernfalls gefährdet die Entscheidung Zuckerbergs auch die Demokratie diesseits des Atlantiks.
Die Ankündigung von Mark Zuckerberg vom 7.1.2025 auf Instagram in Wortlaut:
Hey everyone. I want to talk about something important today because it’s time to get back to our roots around free expression on Facebook and Instagram. I started building social media to give people a voice. I gave a speech at Georgetown five years ago about the importance of protecting free expression, and I still believe this today, but a lot has happened over the last several years.
There’s been widespread debate about potential harms from online content. Governments and legacy media have pushed to censor more and more. A lot of this is clearly political, but there’s also a lot of legitimately bad stuff out there. Drugs, terrorism, child exploitation. These are things that we take very seriously, and I want to make sure that we handle responsibly. So we built a lot of complex systems to moderate content, but the problem with complex systems is they make mistakes even if they accidentally censor just 1 percent of posts, that’s millions of people.
And we’ve reached a point where it’s just too many mistakes and too much censorship. The recent elections also feel like a cultural tipping point towards, once again, prioritizing speech. So, we’re going to get back to our roots and focus on reducing mistakes, simplifying our policies, and restoring free expression on our platforms. More specifically, here’s what we’re going to do.
First, we’re going to get rid of fact-checkers and replace them with community notes similar to X starting in the US. After Trump first got elected in 2016, the legacy media wrote nonstop about how misinformation was a threat to democracy. We tried in good faith to address those concerns without becoming the arbiters of truth, but the fact-checkers have just been too politically biased and have destroyed more trust than they’ve created, especially in the US. So, over the next couple of months, we’re going to phase in a more comprehensive community notes system.
Second, we’re going to simplify our content policies and get rid of a bunch of restrictions on topics like immigration and gender that are just out of touch with mainstream discourse. What started as a movement to be more inclusive has increasingly been used to shut down opinions and shut out people with different ideas, and it’s gone too far. So, I want to make sure that people can share their beliefs and experiences on our platforms.
Third, we’re changing how we enforce our policies to reduce the mistakes that account for the vast majority of censorship on our platforms. We used to have filters that scanned for any policy violation. Now, we’re going to focus those filters on tackling illegal and high-severity violations, and for lower-severity violations, we’re going to rely on someone reporting an issue before we take action. The problem is that the filters make mistakes, and they take down a lot of content that they shouldn’t. So, by dialing them back, we’re going to dramatically reduce the amount of censorship on our platforms. We’re also going to tune our content filters to require much higher confidence before taking down content. The reality is that this is a trade-off. It means we’re going to catch less bad stuff, but we’ll also reduce the number of innocent people’s posts and accounts that we accidentally take down.
Fourth, we’re bringing back civic content. For a while, the community asked to see less politics because it was making people stressed. So we stopped recommending these posts. But it feels like we’re in a new era now. And we’re starting to get feedback that people want to see this content again. So we’re going to start phasing this back into Facebook, Instagram, and Threads while working to keep the communities friendly and positive. Fifth, we’re going to move our trust and safety and content moderation teams out of California, and our US-based content review is going to be based in Texas. As we work to promote free expression, I think that will help us build trust to do this work in places where there is less concern about the bias of our teams.
Finally, we’re going to work with President Trump to push back on governments around the world. They’re going after American companies and pushing to censor more. The US has the strongest constitutional protections for free expression in the world. Europe has an ever-increasing number of laws, institutionalizing censorship, and making it difficult to build anything innovative there. Latin American countries have secret courts that can order companies to quietly take things down. China has censored our apps from even working in the country. The only way that we can push back on this global trend is with the support of the US government, and that’s why it’s been so difficult over the past four years when even the US government has pushed for censorship.
By going after us and other American companies, it has emboldened other governments to go even further. But now we have the opportunity to restore free expression, and I’m excited to take it. It’ll take time to get this right, and these are complex systems. They’re never going to be perfect. There’s also a lot of illegal stuff that we still need to work very hard to remove. But the bottom line is that after years of having our content moderation work focused primarily on removing content, it is time to focus on reducing mistakes, simplifying our systems, and getting back to our roots about giving people voice. I’m looking forward to this next chapter. Stay good out there, and more to come soon.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Likes zählen, Dislikes aber nicht? Einige YouTube-Nutzer:innen finden das daneben (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com Unsplash/ Jan Antonin Kolar, Bearbeitung: netzpolitik.org
Sollte es öffentlich sichtbar sein, wie viele Menschen einen Online-Beitrag schlecht finden? YouTube findet: Nein. Ende 2021 hat die Plattform entschieden, die Anzahl der Dislikes auszublenden. Dazu gibt es viel Gesprächsbedarf. Ein Meinungsstück des Autors zu dem Thema gehörte vergangenes Jahr zu den meist kommentierten netzpolitik.org-Artikeln.
Likes und Dislikes sind eine spezifische Art von Feedback. Mit solchen Funktionen können große Plattformen die öffentliche Kommunikation und Meinungsbildung von Milliarden Menschen in Bahnen lenken. Welche Art von Meinung wird überhaupt abgefragt, welche ist für alle sichtbar?
Zumindest YouTube hat sich dafür entschieden, negatives Feedback nicht mehr öffentlich zu zählen. Was das bei Nutzer:innen auslöst, hat nun eine aktuelle Umfrage untersucht. Auch davor gab es Forschung zu Online-Bewertungssystemen wie den erhobenen und gesenkten Daumen.
Umfrage offenbart ahnungslose Mehrheit
Anfang Januar hat das Meinungsforschungsinstitut YouGov Direct mit mehr als 1.000 Menschen in den USA über Dislikes auf YouTube gesprochen. Der Auftrag dafür kam vom US-Magazin Variety. Fast alle Befragten nutzten demnach YouTube. Das zeigt einmal mehr, wie verbreitet die größte Videoplattform der Welt ist.
Überraschung: Nur rund ein Drittel (34 Prozent) der befragten YouTube-Nutzer:innen hat laut Variety überhaupt mitbekommen, dass die Anzahl der Dislikes nicht mehr öffentlich sichtbar ist. Offenbar gibt es eine ahnungslose Mehrheit, die sich zumindest bisher nicht um das Thema gekümmert hat.
Die rund 270 Menschen, die etwas von den entfernten Dislike-Zahlen wussten, sollten weitere Fragen beantworten. Etwa, ob sie durch die entfernten Dislike-Zahlen geneigt sind, weniger Videos zu schauen. Für rund die Hälfte dieser Befragten (49 Prozent) macht das laut Umfrage keinen Unterschied. Immerhin rund vier von zehn (41 Prozent) sagen, sie seien durch die entfernten Dislike-Zahlen weniger geneigt, Videos zu schauen. 45 Prozent sagen zudem, sie sind weniger geneigt, Likes, Dislikes oder Kommentare zu hinterlassen.
Bei der Umfrage wurde anscheinend nicht ermittelt, ob die Befragten die Änderung bei YouTube nun gut oder schlecht finden. Trotzdem lässt sich etwas aus der Umfrage ziehen: Neben einer ahnungslosen Mehrheit gibt es eine Gruppe von Nutzer:innen, für die entfernte Dislike-Zahlen durchaus einen Unterschied machen.
Daumen hoch für fünf Sterne
Öffentlich sichtbare Dislikes sind nur eines von vielen Feedbacksystemen auf Online-Plattformen. Viele Anbieter verzichten auf eigene Knöpfe und Zähler für negatives Feedback. Auf Twitter, TikTok und Instagram gibt es beispielsweise Herzen. Facebook bietet neben dem Daumen nach oben fünf Emoji-Reaktionen – aber keinen Daumen nach unten.
Eine Skala von eins bis fünf Sternen gibt es für Orte auf Google Maps, für Apps im App Store und Google Play Store und für Produkte auf Amazon. Für Filme in der Internet Movie Database (IMDb) sind es sogar bis zu zehn Sterne. Bei Reddit gibt es Up- und Downvotes. Die meistbesuchten Pornoseiten Deutschlands, xHamster und Pornhub, haben Zähler für „Daumen hoch“ und „Daumen runter“. Für Beiträge auf Telegram-Kanälen gibt es keinen fest eingerichteten Button.
Eine Besonderheit gibt es bei Spotify: Bevor Hörer:innen eine Podcast-Bewertung von eins bis fünf Sternen abgeben können, müssen sie den Podcast in der App gehört haben. Ist das nicht der Fall, kommt ein Popup-Fenster mit dem Hinweis: „Hör dir ein paar Folgen an und gib dann dein Feedback ab“.
Erstmal reinhören – Spotify geht gegen impulsive Bewertungen vor. - Alle Rechte vorbehalten Screenshot: Spotify
Für eine Fachkonferenz haben US-Forschende im Jahr 2010 untersucht, was rund 350 Proband:innen von verschiedenen Feedbacksystemen halten. Untersucht wurden fünf Ansätze: Ein eindimensionales „Mag ich“, ein binäres „Daumen hoch / Daumen runter“, fünf Sterne – und eine Skala von bis zu 100 Punkten. Das Ergebnis: Feedback mit bis zu fünf Sternen fanden die meisten Proband:innen (83 Prozent) zufriedenstellend. Kurioserweise hatte YouTube vor der Einführung von Likes und Dislikes im Jahr 2009 genau dieses Feedbacksystem.
Eher gespalten waren die Proband:innen bei „Daumen hoch / Daumen runter“ (54 Prozent Zustimmung). Am wenigsten beliebt war das Feedbacksystem mit bis zu 100 Punkten, das mochten 57 Prozent der Proband:innen nicht. Mit dem eindimensionalen „Mag ich“ waren 47 Prozent unzufrieden.
Was ein Dislike-Button bei Nutzer:innen auslöst
Fans der öffentlichen Dislike-Zahl auf YouTube vermissen wohl vor allem eines: Anhand der Dislike-Zahl lasse sich auf einen Blick abschätzen, ob ein Video gut oder nutzlos ist, beispielsweise bei Tutorials. Diese Ansicht wird in zahlreichen Reaktionen von Nutzer:innen und YouTuber:innen geäußert.
Im Jahr 2012 haben Forschende der HU Berlin und der Uni Potsdam ein Paper veröffentlicht, das sich mit der Wirkung von Dislikes befasst. 653 Proband:innen haben mitgemacht. Gezeigt wurden ihnen Fotos von einem Burgerrestaurant, einem Gebrauchtwagenhändler und einem Wasserenthärter. Dann sollten sie deren Qualität einschätzen. Als zusätzliches Kriterium fügten die Forschenden den Fotos mal mehr, mal weniger Likes hinzu sowie eine Mischung aus Likes und Dislikes.
Kaum überraschend schätzten die Proband:innen die Qualität der Produkte als höher ein, wenn sie viele Likes hatten – und weniger hoch bei wenigen Likes. Komplexer wurde es, als Proband:innen sowohl Likes als auch Dislikes gezeigt bekamen. Aus der Studie ging hervor: Dislikes können ein Zeichen von Qualität sein. Die Proband:innen fanden etwa ein Produkt mit wenigen Likes besonders positiv, wenn es auch ein paar Dislikes hatte.
Ob die Burger wohl schmecken? Der Studie zufolge können ein paar Dislikes diesen Eindruck verstärken. - Alle Rechte vorbehalten Screenshot: Like versus dislike. How Facebook's like-button influences people's percetpion of product and service quality/ Humboldt-Universität Berlin, Uni Potsdam
„Dies mag kontraintuitiv erscheinen“, heißt es in dem Papier, lasse sich aber gut erklären. Die negativen Signale durch die Dislikes würden Glaubwürdigkeit schaffen und damit die positive Wirkung der Likes verstärken. Dieser Effekt ließ sich aber nicht immer beobachten. Wenn die Anzahl der Likes bereits sehr hoch war, hatte das Hinzufügen einiger Dislikes der Studie zufolge keine auffällige Wirkung mehr.
Eher schwer einzuordnen waren die Reaktionen der Proband:innen auf Fotos mit sehr vielen Dislikes. Hier gab es überraschenderweise „keinen negativen Effekt auf die Wahrnehmung der Produktqualität“, heißt es in der Studie. Dabei hätten die Forschenden erwartet, dass viele Dislikes zu einer negativen Einschätzung führen. In ihrem Fazit schreiben sie, insbesondere für die Wirkung höherer Mengen Dislikes brauche es weitere Untersuchungen.
Einzelne Studien wie diese können Hinweise geben, aber auch nicht mehr. Für sichere Aussagen braucht es mehr Forschung. Die Studie von damals lässt sich auch nicht ohne Weiteres auf YouTube heute übertragen: Andere Plattform, anderes Jahrzehnt. Zumindest zeigt sie, dass Dislikes wohl einen Unterschied machen können, wie Nutzer:innen etwas bewerten.
Über solche Studien mit ein paar Hundert Proband:innen können die großen Online-Plattformen nur müde lächeln. Die Anzahl der Teilnehmenden ist ein Witz im Vergleich zu den Abermillionen Nutzer:innen, deren Verhalten Plattformen wie YouTube, Instagram und TikTok täglich auswerten können. Nur teilen sie ihre internen Beobachtungen ungern mit der Außenwelt. Und wenn sie es tun, dann kann man sich auf die Informationen nicht unbedingt verlassen.
Im Jahr 2019 hat etwa Instagram probeweise bei vielen Nutzer:innen die Anzahl von Likes ausgeblendet, angeblich um das Wohlbefinden zu erhöhen. Das passte zur öffentlichen Debatte darüber, dass sich vor allem junge Menschen auf Instagram anhand von Likes vergleichen und großen, sozialen Druck empfinden. Die Studienlage dazu ist nicht eindeutig, weist aber in eine Richtung. Zumindest gibt es eine ReihevonMeta-Studien, die einen Zusammenhang zwischen Nutzung sozialer Medien und Symptomen von Depression zeigen. In Meta-Studien sichten und vergleichen Forscher:innen viele einzelne Studienergebnisse miteinander.
Ende 2021 wurden interne Informationen über das Experiment mit den ausgeblendeten Instagram-Likes bekannt. Sie stammten aus den sogenannten Facebook Files, einem umfassenden Leak von Dokumenten aus dem Konzern. Demnach hätten Untersuchungen von Facebook schon sehr früh gezeigt, dass das Ausblenden der Likes allein keine positive Wirkung auf Teenager hätte. Eine interne Notiz habe aber andere Vorteile der Aktion hervorgehoben, wie das Wall Street Journal berichtete: und zwar ein positiver Eindruck bei Eltern und Nachrichtenmedien.
Generell wird ein gewinnorientiertes Unternehmen kaum solche Entscheidungen treffen, ohne die öffentliche Wahrnehmung zu berücksichtigen – und natürlich den eigenen Profit. Einige Facebook-Nutzer:innen träumen seit 2009 von einem Dislike-Button und bekommen keinen. Dahinter steckt wohl auch das Interesse von Facebook, die eigenen Werbekund:innen vor Empörungswellen zu schützen.
Antworten gibt es bestimmt, aber unter Verschluss
Auch YouTube muss sich nach der Ausblendung der Dislike-Zahlen den Vorwurf gefallen lassen, nicht alle Gründe auf den Tisch gelegt zu haben. Offiziell sollen dadurch organisierte Hasswellen für Nutzer:innen verhindert werden. Eine Begründung, die YouTube-Chefin Susan Wojcicki jüngst in einem Blogpost bekräftigt hat. Kritiker:innen sahen in der Abschaffung der Dislike-Zahl auch eine Reaktion auf die Dislike-Welle für ein Video, das YouTube selbst veröffentlicht hat. Der Jahresrückblick „YouTube Rewind 2018“ wurde mit mehr als 19 Millionen Dislikes das meistkritisierte Video der Plattform. Das sei aber kein Grund für das Ausblenden der Dislike-Zahlen gewesen, wie YouTube etwa der BBC mitgeteilt hat.
Die fundiertesten Antworten über die Wirkung von Dislikes und anderen Funktionen auf Nutzer:innen haben wohl die Plattformen selbst. Sie könnten öffentlich diskutiert werden, wenn unabhängige Forschung einen Zugang zu den internen Daten bekäme. Daran haben die Plattformen wohl wenig Interesse. Sie wehren sich teilweise sogar gegen das Auswerten öffentlich einsehbarer Daten. Wie unter anderem der britische Guardian, die New York Times und Heise Online berichteten, hat etwa Facebook in mehreren Fällen Datensammlungen von Wissenschaftler:innen vereitelt. Als zentralen Grund nennt der Konzern den Schutz der Privatsphäre.
Eine Änderung könnte das geplante Digitale-Dienste-Gesetz der EU bringen. Es sieht vor, dass große Plattformen Forscher:innen Zugang zu ihren Daten geben, zumindest so lange Geschäftsinteressen und vertrauliche Informationen geschützt bleiben. Welche Erkenntnisse das Gesetz in Zukunft möglich macht, ist Spekulation. Zumindest hätten Konzerne einigen Spielraum, um potenziell unangenehme Forschungen zu bremsen.