🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Ältere BeiträgeHaupt-Feeds

Neue irische Datenschutzbeauftragte: Menschenrechtsorganisation reicht Beschwerde bei EU-Kommission ein

31. Oktober 2025 um 14:57

Der Streit um die Berufung der ehemaligen Meta-Angestellten Niamh Sweeney zur irischen Datenschutzbeauftragten erreicht Brüssel. Doch auch nach einer formalen Beschwerde des Irish Council for Civil Liberties will die EU-Kommission offenbar nicht in das Verfahren eingreifen.

Bild des Gebäudes der EU-Kommission. Menschen stehen auf einem regenbogenfarbenden Fußgängerüberweg vor dem Gebäude.
Die EU-Kommission sei nicht zuständig, sagt die Kommission. – Alle Rechte vorbehalten IMAGO / Michael Kneffel

Das Irish Council for Civil Liberties (ICCL) hat am 28. Oktober eine formale Beschwerde bei der EU-Kommission eingereicht. Darin kritisiert die Menschenrechtsorganisation die Ernennung von Niamh Sweeney zur Leiterin der irischen Data Protection Commission (DPC). Die Berufung stelle die Unabhängigkeit der Datenschutzbehörde infrage.

Bereits vergangene Woche hatten mehrere Nichtregierungsorganisationen der irischen Regierung einen Beschwerdebrief übergeben, in dem sie die Ernennung Sweeneys kritisieren. Als Grund führen sie zum einen an, dass diese mehr als sechs Jahre als Lobbyistin für den Tech-Konzern Meta tätig war. Meta ist eines der Unternehmen, das die DPC überwacht.

Zum anderen kritisieren die NGOs das Auswahlverfahren selbst. Dafür stellte das Unternehmen publicjobs ein Gremium aus fünf Personen zusammen. Darunter war auch Leo Moore. Der Anwalt der Kanzlei William Fry hat mit mehreren Big-Tech-Unternehmen zusammengearbeitet. Neben Moore gehörte außerdem ein Vertreter des irischen Justizministeriums dem Auswahlgremium an: Deputy Secretary General Doncha O’Sullivan.

Irland: Liebling der Tech-Branche

In seiner Beschwerde betont das ICCL, dass die DPC eine Schlüsselposition bei der Durchsetzung der europäischen Datenschutzgrundverordnung (DSGVO) einnehme. Außerdem müsse die irische Datenschutzkommission laut EU-Recht vollkommen unabhängig gegenüber jeglichen Weisungen von außen agieren – auch gegenüber möglicher Einflussnahme der irischen Regierung.

Viele Technologiekonzerne haben ihren europäischen Hauptsitz in Irland, darunter Meta, Google, Apple, Microsoft und TikTok. Die Unternehmen tragen einen erheblichen Teil zu Irlands Wirtschaft bei. Und Meta allein zahlte im Jahr 2023 mehr als 280 Millionen Euro Steuern an die irischen Behörden.

Derweil geriet die Durchsetzung der DSGVO in Irland den vergangenen Jahren immer wieder ins Stocken. Im Jahr 2022 klagte die DPC sogar gegen eine Entscheidung des ihr übergeordneten European Data Protection Board, um keine weitergehenden Ermittlungen zu Metas Datenverarbeitung aufnehmen zu müssen.

Die Berufung Sweeneys zur dritten Datenschutzkommissarin lässt den ICCL an der Unabhängigkeit der Datenschutzbehörde zweifeln. In ihrer Beschwerde an die EU Kommission schreibt die Organisation:

„Angesichts der bisherigen Bilanz der irischen Datenschutzkommission und der begründeten Zweifel an ihr hätte Irland sich über jeden Vorwurf [der Parteilichkeit] erheben müssen, unter anderem durch die Einführung von Verfahrensgarantien für die Ernennung der Mitglieder seiner Behörde.“

EU-Kommission will offenbar nicht eingreifen

Bei einer Pressekonferenz der EU-Kommission am 29. Oktober erkundigte sich eine Journalistin bei einem Kommissionssprecher, ob die Kommission die Beschwerde des ICCL annehmen werde. Der Sprecher antwortete, dass die europäischen Mitgliedstaaten für die Besetzung ihrer jeweiligen Datenschutzbehörde zuständig seien.

Die Kommission sei nicht in das Auswahlverfahren involviert gewesen und habe auch keine Kompetenzen einzuschreiten. Zugleich versuche die Kommission „immer sicherzustellen […], dass alle europäischen Datenschutzbehörden die Mittel und Unabhängigkeit haben, um ihrer Arbeit nachzugehen“.

Die Reaktion der EU-Kommission kritisiert Itxaso Domínguez de Olazábal vom Verband europäischer Digitalorganisationen European Digital Rights (EDRi): „Die Kommission kann nicht weiter wegschauen, während eine nationale Regulierungsbehörde die Grundsätze der Union untergräbt“, sagt de Olazábal gegenüber netzpolitik.org. „Der Schutz personenbezogener Daten und Grundrechte ist Teil dessen, wofür die EU steht – und die Kommission muss entsprechend handeln.“

Domínguez betont, dass die Beschwerde des ICCL nicht nur auf das Auswahlverfahren, sondern auch auf die Unabhängigkeit der DPC beziehe. Daher liege das Verfahren durchaus im Zuständigkeitsbereich der Kommission. „Die Kommission konzentriert sich offenbar auf das Auswahlverfahren und übersieht dabei das tieferliegende Problem: die anhaltende mangelnde Unabhängigkeit der irischen Datenschutzbehörde, die durch diese Ernennung offengelegt wird“.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

DSA: EU-Kommission bemängelt Verstöße bei Instagram, Facebook und TikTok

24. Oktober 2025 um 15:14

TikTok, Instagram und Facebook lassen Forschende nicht ausreichend an ihre Daten heran. Und bei Instagram und Facebook ist das Melden von Inhalten zu schwer. Das hat die EU-Kommission festgestellt und fordert Nachbesserungen – sonst drohen Geldstrafen.

Schnell und einfach sollen Instagram-Nutzende in der EU Inhalte melden können. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Claudio Schwarz

Im Frühjahr 2024 hat die EU-Kommission die jeweils ersten Verfahren nach dem Gesetz über digitale Dienste (DSA) für Meta (Instagram, Facebook) und für TikTok eröffnet. Seitdem hat die Behörde vorläufig mehrere Verstöße festgestellt, etwa im Bereich des Jugendschutzes und der Desinformation vor Wahlen. Heute hat sie weitere Untersuchungsergebnisse geteilt.

Alle drei Plattformen – also TikTok, Instagram und Facebook – setzen demnach den Zugang zu Daten für Forschende nicht ausreichend um. Es sei sehr umständlich, die Daten zu beantragen und es gebe Probleme im Überprüfungsprozess der Forschenden. Und auch wenn die Daten bereitgestellt würden, seien diese oft unvollständig und nicht zuverlässig. Ähnliche Punkte hatte die Kommission bereits vor einem Jahr bei X bemängelt. Laut DSA ist die Kommission die zuständige Aufsichtsbehörde für „sehr große Plattformen“ (VLOPs).

Die weiteren der heute vorgestellten Ergebnisse betreffen nur Instagram und Facebook. Die Meldewege seien zu kompliziert, sagte eine Kommissionsbeamtin heute in einem Pressebriefing. Wenn Nutzende auf den Plattformen auf illegale Inhalte stoßen, etwa die Darstellung von Missbrauch oder Betrugsmaschen, sollen sie diese selbst möglichst einfach bei den Plattformen melden können. Der DSA will so die Nutzendenrechte stärken und ein System schaffen, das sich quasi “selbst reinigt”.

Manipulative Designs beim Meldeweg

Doch in der Realität sei der Weg so anspruchsvoll und lang, dass viele Nutzende die Meldungen abbrechen würden, heißt es aus der Kommission. Außerdem kämen hier manipulative Designs zum Einsatz. Das bedeutet, dass Meldewege etwa irreführend oder kompliziert gestaltet sind, zum Beispiel über schwer auffindbare Buttons oder unnötig viele Klicks.

In der Folge würden Inhalte nicht gemeldet, Plattformen also nicht darauf aufmerksam gemacht, und es könnten entsprechend auch keine Maßnahmen ergriffen werden, um die Inhalte zu entfernen. Hierzu hätten die Kommission viele Beschwerden erreicht. Es sei klar, dass Meta hier nachbessern müsse.

Darüber hinaus kritisiert die Kommission den Mechanismus zum Umgang mit Beschwerden zur Inhaltsmoderation. Wenn Plattformen Inhalte oder Accounts sperren, können sich betroffene Nutzende an die Plattformen wenden und Beschwerde einreichen. Allerdings laufe auch das bei Meta nicht zufriedenstellend ab, so die Kommission. Zum Beispiel sei es nicht möglich, in der Kommunikation mit den Plattformen Dokumente anzuhängen, um etwa zu beweisen, dass eine Facebook-Seite einem selbst gehöre. In der Konsequenz würden Beschwerden nicht beantwortet.

So geht es jetzt weiter

Meta und TikTok können nun die Dokumente der Kommission einsehen und schriftlich auf die Kritikpunkte antworten – etwas, das nach Einschätzung der Kommissionsbeamtin zwei bis drei Monate in Anspruch nehmen könne. Im nächsten Schritt soll es weitere Gespräche zwischen Kommission und betroffenen Unternehmen geben. Die Hoffnung der Kommission dabei ist, dass die Plattformen ihre Mechanismen anpassen und damit die Vorgaben des DSA erfüllen.

Sollte dies nicht passieren, könnte die Kommission abschließend feststellen, dass sich die Plattformen nicht an den DSA halten und eine Geldstrafe verhängen – in Höhe von bis zu sechs Prozent des jährlichen weltweiten Umsatzes. Auch dann hätten die Plattformen noch die Möglichkeit, diese Entscheidung vor Gericht anzufechten.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Instagram, Whatsapp, Facebook: Meta hört bald zu, wenn du dich mit der KI unterhältst

02. Oktober 2025 um 13:39

Tech-Gigant Meta will Daten, die Nutzer*innen in seinen Chatbot eingeben, künftig auslesen und speichern. Damit sollen Anzeigen treffsicherer personalisiert werden. Es gibt nur einen Weg, sich der Datensammlung zu entziehen.

Eine Hand hält ein Handy, auf dem der Meta Chatbot aktiv ist, vor ein Meta AI Logo
Unterhaltungen mit dem Meta-Chatbot sind nicht privat – Alle Rechte vorbehalten IMAGO / NurPhoto

Den Meta-Chatbot können Menschen über Instagram, Whatsapp und Facebook ansprechen. Laut Meta nutzen ihn monatlich mehr als eine Milliarde Menschen. Viele davon teilen intime Informationen mit der Software.

Die Gespräche, die Menschen mit der sogenannten Künstlichen Intelligenz führen, will Meta künftig auslesen und speichern. Damit sollen Anzeigen treffsicherer personalisiert werden und die Daten sollen auch beeinflussen, welche Posts Nutzer*innen in den Sozialen Netzwerken angezeigt bekommen. Das erklärte Meta gestern in einem Blogpost. Der Konzern behält sich dabei vor, die Informationen aus den Gesprächen in allen seinen Produkten zu nutzen.

Ein Beispiel nannte der Konzern direkt: Wer sich mit der KI etwa übers Wandern unterhalte, bekomme danach womöglich Empfehlungen für Wandergruppen, Wanderstrecken von Bekannten und Werbung für Wanderschuhe angezeigt.

Auch sensible Konversationen werden ausgelesen

Meta gibt zwar an, sensible Konversationen über religiöse Ansichten, die sexuelle Orientierung, politische Meinungen, Gesundheit und ethnische Herkunft nicht für personalisierte Werbung nutzen zu wollen, die Daten werden aber dennoch mit ausgelesen.

Die neue Regelung will Meta ab dem 16. Dezember umsetzen, allerdings zunächst nicht in der EU und Großbritannien. Dort solle das Feature später ausgerollt werden, weil die hiesigen Datenschutzbestimmungen strenger seien. Für das KI-Training werden die Chatprotokolle in Europa wohl schon genutzt.

Seit Juni ist bereits bekannt, dass Meta mit Hilfe von KI Anzeigen erstellen will. Werbetreibende müssen dann nur ein Produktbild und ein Budget vorgeben. Meta möchte durch diese Investitionen die größte Einnahmequelle Werbung noch rentabler machen. Hier bieten sich auch Spielräume für individuelle Personalisierung von Anzeigen – anhand der mit dem Chatbot erhobenen Daten.

Nutzer*innen teilten unbewusst Chatprotokolle

Meta hat den Chatbot für seine Messenger erst vor wenigen Monaten in Europa eingeführt. Er stand schon mehrfach in der Kritik, etwa weil ihm erlaubt war, „sinnliche“ und „romantische“ Konversationen mit Minderjährigen zu führen. Ein anderes Mal, weil viele Nutzer*innen ihre teils sehr persönlichen Chatprotokolle scheinbar unbewusst veröffentlicht hatten.

Die Nutzer*innen können einstellen, in welchem Ausmaß die ihnen ausgespielte Werbung personalisiert werden soll, aber es gibt keine Möglichkeit, sich gegen die Datenerfassung zur Personalisierung zu wehren – außer, den Chatbot nicht zu nutzen. In Whatsapp kann es allerdings sein, dass andere Nutzer*innen ihn zu einer Konversation hinzuziehen. Das lässt sich mit der Funktion „erweiterter Chat-Datenschutz“ verhindern. Oder mit dem Verzicht auf die datensammelwütige App zugunsten von datensparsamen Alternativen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Vietnamesisch-deutsches Exilmedium: „Wenn Facebook dieses Konto löscht, sind wir tot“

01. Oktober 2025 um 11:43

Das vietnamesischsprachige Nachrichtenportal Thoibao, das in Berlin sitzt, kämpft um sein Überleben. Facebook gefährdet die Finanzierung des Exilmediums. Und der größte private Konzern Vietnams überzieht den Chefredakteur mit Abmahnungen.

Der Journalist Trung Khoa Lê in einem Büro. Er hat ein weißes Hemd und eine blaue Anzugsjacke an.
Der Journalist und Chefredakteur Trung Khoa Lê kämpft seit Jahren gegen Zensur und Angriffe auf sein Nachrichtenportal Thoibao. CC-BY-SA 4.0 Trung Khoa Lê

Thoibao ist eines der reichweitenstärksten Nachrichtenportale in vietnamesischer Sprache außerhalb Vietnams. Die Redaktion besteht vor allem aus einem Raum, in dem Chefredakteur Trung Khoa Lê zwischen mehreren großen Bildschirmen, die an den Wänden montiert sind, hin und her blickt. Auf einem sieht Lê in Echtzeit, wo und wie oft seine Webseite thoibao.de weltweit aufgerufen wird. Einen anderen nutzt er, um Beiträge auf Facebook und YouTube zu posten – Plattformen, über die er seine Leser*innenschaft in Vietnam erreicht. Ein weiterer zeigt Aufnahmen von Überwachungskameras, die rund um das Büro installiert sind. Denn aufgrund seiner Berichterstattung lebt Lê in ständiger Gefahr.

Im Jahr 2018 hat die vietnamesische Armee Lê als Staatsfeind eingestuft. Er hat mehrfach Morddrohungen von mutmaßlichen Anhänger*innen des vietnamesischen Regimes erhalten. Der Journalist steht unter Personenschutz des Landeskriminalamtes Berlin, die Polizei kommt regelmäßig zu seinem Büro im Dong Xuan Center, Berlins größtem Markt für asiatische Waren.

Nun ist auch seine Plattform Thoibao gefährdet. „Wir werden gerade massiv von vielen Seiten gleichzeitig angegriffen: Cyberattacken, unsere Konten auf Facebook werden gelöscht und der größte Konzern Vietnams versucht uns einzuschüchtern“, sagt Lê. Die Angriffe seien politisch motiviert, da Thoibaos unabhängige Berichterstattung der vietnamesischen Regierung in Hanoi ein Dorn im Auge ist. Insbesondere die Löschung der Facebook-Konten bedrohe die finanzielle Grundlage der Redaktion.

Die Leser*innenschaft wächst rasant

Lê berichtet seit 2008 zu politischen Entwicklungen in Vietnam und weltweit. Thoibao hat dank eines großen Netzes an Informant*innen viele exklusive Nachrichten aus der vietnamesischen Politik. Seit der Einstellung vietnamesischsprachiger Medienangebote in Voice of Amerika und Radio Free Asia in den USA durch die Trump-Administration wächst die Leser*innenschaft rasant. Laut eigenen Angaben erhalten alle Kanäle der Redaktion zusammen rund 700 Millionen Zugriffe im Monat, die meisten davon aus Vietnam.

Facebook ist der wichtigste Kanal. Aufgrund der vom Staat zensierten Medien ist die Plattform die Hauptnachrichtenquelle in Vietnam. Doch nun entfernt Facebook nach und nach die Konten der Redaktion. Zwei Konten, Thoibao.eu und Thoibao.news, wurden vergangenes Jahr gelöscht. Nun ist auch das Hauptkonto Thoibao.de mit 1,2 Millionen Followern vom Löschen bedroht. Ein Beitrag im August soll laut Facebook gegen die Gemeinschaftsstandards zu Suizid, Selbstverletzung und Essstörungen verstoßen haben. Das Video enthalte möglicherweise etwas, das andere Personen zu Selbstverletzung veranlassen könnte, heißt es in der Begründung. Allerdings berühre das Video diese Themen nicht annähernd, sagt Lê, es gehe um vietnamesische Polizeigeneräle.

Auch über dem persönlichen Profil von Lê mit rund einer Viertelmillion Followern prangt ein gelbes Warn-Icon: „Für das Profil liegen einige Probleme vor“. Beiträge wurden wegen angeblicher Verletzung der Gemeinschaftsstandards entfernt. Die Redaktion erhob zwar Einspruch, doch das war bislang vergeblich. Nach erneuter Überprüfung blieben die Videos offline – bei den bereits gelöschten Konten war es genau so.

„Sollte auch thoibao.de von Facebook gelöscht werden, sind wir als Medium tot“, sagt der Chefredakteur. Denn dieses Konto ist Thoibaos wichtigste Einnahmequelle. Mit den Werbeeinnahmen bezahlt Lê die Technik und seine 20 Mitarbeiter*innen weltweit. Schon jetzt haben die Einschränkungen zur Folge, dass die Inhalte weniger Menschen ausgespielt werden. Die Einnahmen sind drastisch eingebrochen. Sie betragen nicht mehr rund 17.000 Euro im Monat sondern unter 500 Euro. Lê musste seine Mitarbeiter*innen bereits darum bitten, weniger Inhalte zu produzieren.

Facebook in Vietnam: eine Geschichte der Unterdrückung

Die jüngsten Einschränkungen durch Facebook treffen Thoibao zwar besonders hart, sind aber nicht die ersten. 2018 machten Unbekannte Lê ohne sein Wissen zum Administrator einer Facebookseite, die massiv gegen Gemeinschaftsstandards verstieß. Daraufhin sperrte Facebook zeitweise alle von ihm administrierten Seiten inklusive Thoibao. 2021 erschien eine gefälschte Todesanzeige auf Lês Profil. Weil er angeblich tot war, konnte er keine Beiträge mehr posten.

„Vietnams Zensurbehörden ordnen an – Facebook führt aus. Anders kann man die Störmanöver nicht beschreiben, denen das Medienunternehmen Thoibao.de ausgesetzt ist“, sagt die Journalistin und Mitarbeiterin von Thoibao Marina Mai. „Als globales Soziales Netzwerk muss sich Facebook solchen Angriffen widersetzen und Pressefreiheit garantieren“, fügt sie hinzu.

Die vietnamesische Abteilung von Facebook löscht immer wieder regimekritische Posts auf Wunsch der Regierung. Auf Grundlage des sogenannten Cybersicherheitsgesetzes kann Hanoi die Entfernung „schädlicher“ Inhalte – ein weit gefasster Begriff, der oft Kritik am Staat umfasst – innerhalb von 24 Stunden verlangen. So hat Facebook allein im Zeitraum von Juli bis Dezember 2024 4.520 Inhalte gesperrt.

Um weiterhin im bevölkerungsreichen Land seine Dienste anbieten zu können, macht die Plattform bereitwillig Zugeständnisse an den Einparteienstaat. Mark Zuckerberg, Chef von Meta, dem Konzern dem Facebook gehört, hat Mitarbeiter*innen persönlich angewiesen, sich den Zensurwünschen der Regierung zu beugen, wie die Whistleblowerin Frances Haugen vor dem US-Senatsausschuss berichtete. Das Land mit den siebtmeisten Facebook-Nutzer*innen weltweit ist für den Konzern ein lukrativer Markt. Etwa 75 Prozent der 100 Millionen Einwohner*innen nutzen die Plattform.

Eine Bildschirmaufnahme, die zeigt, dass thoibao.de auf Facebook gefährdet ist: über dem Icon ist ein rotes Ausrufezeichen.
So erging es auch den Konten Thoibao.eu und Thoibao.news, bevor sie endgültig gelöscht wurden. - CC-BY-NC 4.0 Timur Vorkul / netzpolitik.org

Facebook bestreitet nicht, eng mit der vietnamesischen Regierung zusammenzuarbeiten. „Sollten wir feststellen, dass wir zur Einschränkung von Inhalten verpflichtet sind, beschränken wir dies ausschließlich auf das Land, in dem sie illegal sind“, schreibt Meta auf unsere Anfrage. „So stellen wir sicher, dass der Eingriff so gering wie möglich bleibt und diese Regierungsanfragen keine unverhältnismäßigen Auswirkungen auf das Recht auf freie Meinungsäußerung unserer globalen Community haben“. Unsere Frage, wieso Beiträge und sogar ganze Konten von Thoibao gelöscht und somit auch nicht mehr in Deutschland verfügbar sind, ließ Meta unbeantwortet.

Laut Anja Osterhaus, Geschäftsführerin von Reporter ohne Grenzen in Deutschland, komme Meta dem eigenen Anspruch, Meinungsfreiheit zu garantieren, nicht nach. „Facebook kennt den Fall von Thoibao seit Jahren und weiß, dass die Nachrichtenseite im Visier des vietnamesischen Regimes steht.“ Facebook müsse den Fall gründlich untersuchen und prüfen, ob Hanoi eine mögliche Sicherheitslücke ausnutzt. Osterhaus fordert, „Meta muss seiner Verantwortung endlich nachkommen und die Einschränkungen beenden.“

Lê und Mai setzen sich dafür ein, dass die Inhalte von Thoibao auf Facebook gemäß deutscher Gesetze moderiert werden. Da die Redaktion in Berlin ansässig ist, sind ihre Inhalte durch die im Grundgesetz verankerte Pressefreiheit geschützt. „Thoibao ist ein deutsches Medienunternehmen. Deutschland muss unsere Pressefreiheit schützen“, sagt Lê. Die beiden Journalist*innen haben Bundestagsabgeordnete kontaktiert, damit diese auf Meta einwirken und das Recht auf Pressefreiheit für Thoibao verteidigen. „Wenn Deutschland nicht aufpasst, werden die für unsere Demokratie wertvollen Rechte wie Meinungsfreiheit und Pressefreiheit durch Facebook langsam sterben“, warnt Lê vor möglichen Entwicklungen, die auch andere deutsche Medien in Zukunft treffen könnten.

Alte und neue Cyberangriffe

Die Website thoibao.de wird regelmäßig Opfer von Ddos-Angriffen. Dabei überlasten Hunderttausende gleichzeitige Aufrufe den Server der Seite und legen sie absichtlich lahm. Kürzlich hat ein Cyberangriff es so aussehen lassen, als ob Thoibao selbst einen Ddos-Angriff vorgenommen hätte, und zwar gegen eine Webseite einer Schweizer Universität. Dabei wurde die IP-Adresse des eigentlichen Ddos-Angreifers manipuliert und mit der von Thoibao ersetzt. Ganz so, als ob jemand ein Paket mit einer falschen Absenderadresse sendet. Dass nun auch derartiges IP-Spoofing gegen Thoibao eingesetzt wird, ist laut Lê neu.

Eine weitere Taktik, mit der Thoibao bekämpft wird, sind Beschwerden wegen Urheberrechtsverletzungen. Eine Seite namens Song Ngam News, die sich als vietnamesisches Nachrichtenportal präsentiert, hat mehrfach eine solche Beschwerde gegen Thoibao eingereicht. In diesen Beschwerden wird verlangt, dass der angeblich kopierte Inhalt aus dem Internet entfernt wird. Doch Lê betont, dass genau das Gegenteil der Fall ist: Inhalte von Thoibao werden kopiert und mit einem älteren Datum versehen, damit diese Version wie das Original aussieht.

Unklar ist, ob es sich bei Song Ngam News um eine seriöse und echte Nachrichtenseite handelt. Eine Analyse des Unternehmens EvenInsight, das auf Cybersicherheit und Website-Analyse spezialisiert ist, zeigt, dass die Seite weitgehend unbekannt ist und kaum Besucher*innen verzeichnet. Die Domain songngam.com wurde vor weniger als zwei Jahren in den Niederlanden registriert. Die Identität des Eigentümers ist nicht öffentlich zugänglich. Als Chefredakteur ist ein gewisser Lê Toàn Khánh genannt, jedoch bleibt unklar, ob es sich hierbei um eine tatsächlich existierende Person handelt.

Besonders problematisch bei solchen Angriffen: Nach jedem Vorfall hat Lê lediglich ein Zeitfenster von 24 Stunden um zu reagieren. Verstreicht die Frist, droht die Abschaltung von Thoibaos Server. Lê vermutet, dass hinter diesen Angriffen die Cyberarmee Vietnams steht, die laut offiziellen vietnamesischen Angaben 10.000 Personen umfasst und unter dem Kommando des Ministeriums für öffentliche Sicherheit agiert. Diese versuche alles, um Thoibao zum Schweigen zu bringen, sagt Lê.

Einschüchterung durch reichsten Mann Vietnams

Anfang des Monats ist außerdem eine Abmahnung vom reichsten Mann Vietnams, Phạm Nhật Vượng, eingetroffen. Dieser ist Vorsitzender des größten vietnamesischen Konzerns VinGroup und gilt als der erste Milliardär Vietnams. Er wirft Lê sowie weiteren 67 Organisationen und Einzelpersonen vor, Falschinformationen über seine Unternehmensgruppe und seine Person verbreitet zu haben. Nachdem Lê über die Abmahnung in seinen Videos berichtet hatte, kam vergangenen Donnerstag gleich die zweite an.

Journalist*innen und Blogger*innen hatten auf TikTok, Facebook und YouTube berichtet, dass VinGroups Immobilien-Tochter VinHomes mit enorm hohen Schulden wirtschaftet und das Unternehmen VinFast, das Elektroautos herstellt, Verluste macht. Diese Wirtschaftsdaten stützen sich auf öffentliche Angaben des Konzerns sowie auf Einschätzungen von Finanzanalyst*innen.

Offenbar versucht VinGroup mit den Abmahnungen sein Image zu schützen und Investor*innen vom Rückzug abzubringen. Der Mischkonzern hat bereits in der Vergangenheit versucht, ungünstige Berichterstattung durch Besuche und Verfolgung durch die Polizei zu unterdrücken.

Lês Presserechtsanwalt Raphael Thomas schätzt die Abmahnungen als einen recht hilflosen Versuch ein, Lê einzuschüchtern und kritische Berichterstattung über die Vingroup und Phạm Nhật Vượng zu unterdrücken. „Herrn Phạm Nhật Vượng oder der Vingroup fehlt offenbar das Verständnis dafür, dass auch scharfe Kritik an einem großen Unternehmen im Rahmen der Berichterstattung zulässig ist“, so Thomas. Die Abmahnungen muten dilettantisch an, die Erfolgsaussichten einer Klage gegen Thoibao seien nicht besonders hoch.

Auch der Menschenrechtsanwalt und Vietnams prominentester Dissident Nguyễn Văn Đài, der in Hessen lebt, ist von der internationalen Abmahnungs- und Klagewelle durch VinGroup betroffen. Seine Anwältin Loan Truong kommt zu der ähnlichen Einschätzung, dass die Abmahnung mangelhaft und die Zuständigkeit deutscher Gerichte äußerst zweifelhaft sind. Đài hat mehrere Gefängnisstrafen in Vietnam abgesessen. 2017 hat er den Menschenrechtspreis des Deutschen Richterbundes verliehen bekommen.

Laut Lê ist die Kampagne ein Versuch von VinGroup, die Justiz demokratischer Staaten für die Behinderung von Pressefreiheit in Vietnam zu missbrauchen. Neben dem Kampf gegen diese Angriffe bleibt dem Journalisten kaum mehr Zeit für die eigentliche Aufgabe: die Menschen in Vietnam mit Nachrichten jenseits staatlicher Propaganda zu versorgen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Medienberichte: EU-Kommission soll bei der Durchsetzung von Plattformregeln zögern

14. Januar 2025 um 18:43

Laut Medienberichten gibt es auf hoher Ebene der EU-Kommission Diskussionen um den Digital Markets Act. Das Gesetz soll eigentlich die Macht großer Online-Plattformen einschränken. Nun will die EU-Kommission angeblich alle schon eingeleiteten Verfahren überprüfen. Für die Zivilgesellschaft wäre das ein großer Fehler.

Eine Person in Silouette kniet vor einem Gewässer, das von einer tief hängenden Sonne orange erleuchtet wird.
Selbstfindung in Orange. – Public Domain Download a pic Donate a buck! ^

Die EU-Kommission soll intern ihre Untersuchungen zu großen Unternehmen in der Digitalwirtschaft auf den Prüfstand gestellt haben. Das berichtete heute die Financial Times mit Verweis auf interne Quellen. In der vergangenen Woche hatte Le Monde ähnliches geschrieben, sich dabei allerdings auf den Digital Services Act (DSA) bezogen.

Laut der Financial Times geht es um Untersuchungen unter dem Digital Markets Act (DMA), mit dem die EU die Übermacht von Plattformen wie Google und Facebook einschränken will. Dabei soll die Kommission alle ihre Untersuchungen überprüfen, die sie bisher unter dem DMA eröffnet hat. Laut der Zeitung soll in dieser Zeit nicht über mögliche Strafzahlungen entschieden werden. Die eigentliche Arbeit an den Untersuchungen soll aber weitergehen.

Der DMA betrifft in erster Linie sogenannte Gatekeeper. Damit sind sehr große Digitalunternehmen gemeint, die zentrale Plattformdienste zur Verfügung stellen und eine Schlüsselposition in digitalen Märkten einnehmen. Insgesamt sieben Unternehmen erfüllen derzeit die Bedingungen, um derart eingestuft zu werden. Dazu zählen etwa Alphabet, Apple oder Meta, aber nicht das zuletzt hoch umstrittene X des US-Milliardärs Elon Musk. Für sie gelten besonders strenge Regeln, bei Verstößen drohen ihnen Geldbußen von bis zu zehn Prozent des weltweiten Gesamtumsatzes.

Nur normale Treffen, sagt Kommission

Die Kommission bestreitet auf Anfrage die Darstellung. Sie sei weiterhin fest entschlossen, den Digital Markets Act und sein Schwestergesetz, den Digital Services Act, durchzusetzen, betonte heute ein Sprecher der Kommission. Es gebe keine solche Überprüfung.

„Was wir haben werden, sind Treffen, um die Ausgereiftheit von Fällen zu bewerten und die Verteilung von Ressourcen sowie die allgemeine Bereitschaft der Untersuchungen zu beurteilen“, so der Sprecher weiter. Das seien normale Schritte, die im gesamten Lebenszyklus von Fällen im Tech-Bereich passieren würden.

Auch ansonsten betont die Kommission, dass die technische Arbeit in den DMA-Fällen sehr komplex sei. Deshalb würden die Untersuchungen weiterhin andauern. Der letzte Schritt aus den Untersuchungen, der öffentlich geworden ist, war die Verkündung von vorläufigen Ergebnissen gegen Apple und Meta im vergangenen Sommer.

Ergebnisse müssen wasserdicht sein

Bei Apple geht es dabei um die Regeln für App-Entwickler:innen. Diese sollen unter dem DMA eigentlich Kund:innen frei auf Angebote außerhalb des App Stores weiterleiten können. Hier reichten die Anpassungen von Apple laut Sicht der Kommission nicht aus. Bei Meta bemängelte die Kommission das „Pay or Consent“-Modell des Unternehmens. Unter diesem müssen Nutzer:innen entweder ihre Daten hergeben oder bezahlen, wenn sie Facebook oder Instagram nutzen wollen.

Die Kommission schickte diese vorläufigen Ergebnisse an die beiden Unternehmen – und die durften dann Widerspruch dagegen einlegen. Dafür bekommen sie auch Zugang zu allen Dokumenten, die die Kommission im Laufe der jeweiligen Untersuchung angelegt hat. Und es sind Konzerne mit prall gefüllten Geldbeuteln, für die es in diesen Fällen um sehr viel Geld geht. Man kann davon ausgehen, dass sie für ihre Verteidigung absolut hochwertige Anwält:innen angeheuert haben.

Der Sprecher der Kommission betonte heute deshalb auch: „Bevor wir eine solche Entscheidung beschließen, müssen wir uns sicher sein, dass wir diesen Fall vor Gericht gewinnen werden.“

Die orange Bedrohung

Neben der juristischen Absicherung gibt es aber noch ein zweites, politisches Problem, das Auswirkungen auf die europäischen Regeln haben könnte. Dieses Problem ist orangefarben, jähzornig und wird am kommenden Montag zum zweiten Mal als Präsident der USA eingeschworen werden.

Donald Trump hatte seit der Zeit rund um die US-Wahl verstärkt Kontakt mit Big-Tech-Chefs. Der Kniefall Mark Zuckerbergs in der vergangenen Woche war das neueste Signal in diese Richtung. Zuckerberg hat sich schon über die angebliche „Zensur“ durch europäische Digitalgesetze beschwert und versucht, mit nationalistisch gefärbten Appellen an Trump, EU-Vorgaben abzuwehren.

Auch Apple-Chef Tim Cook hatte Berichten zufolge bereits Kontakt mit Donald Trump und nutzte die Gelegenheit, um EU-Strafen zu kritisieren. „Ich werde nicht zulassen, dass sie sich an unseren Unternehmen bereichern“, will Trump darauf geantwortet haben.

Zivilgesellschaft macht Druck

Der Bericht über mögliche Bedenken bei der Kommission rief kritische Reaktionen hervor. Wenn die Kommission ihren bisherigen starken Kurs zum DMA ändern würde, wäre das ein sehr großer Fehler, sagte Lucas Lasota von der Free Software Foundation Europe (FSFE) zu netzpolitik.org. Die FSFE unterstützt die Kommission aktuell in einem DMA-Gerichtsverfahren gegen Apple.

„Die FSFE hält ihn für ein sehr wichtiges Gesetz“, so Lasota. Der DMA wolle ein ebeneres Spielfeld für alle schaffen. Es gehe nicht um einen Gegensatz EU gegen USA, sondern um Big Tech gegen alle.

Dem stimmt auch Jan Penfrat von Europan Digital Rights zu. „Die DMA-Untersuchungen zu den Gatekeepern zu verlangsamen, herunterzufahren oder zu pausieren, wäre ein großer Fehler der Europäischen Kommission“, sagte er zu netzpolitik.org.

„Wenn die Kommission sich von der Angst vor politischem Gegenwind aus der Trump-Regierung dazu schikanieren lässt, seine DMA-Untersuchungen neu zu bewerten, dann wird diese Schikane – sowohl von Big Tech als auch von Trump – nicht aufhören“, so Penfrat.

Schwab will gründliche Arbeit

Zweifel gab es auch im Europäischen Parlament. So etwa von Stephanie Yon-Courtin, einer liberalen Abgeordneten aus Frankreich, die am Digital Markets Act mitarbeitete. Für „etwas schwach“ hält sie die Antwort der Kommission, laut der diese weiterhin entschlossen sei, ihre Regeln durchzusetzen. „Wir brauchen gegen die Provokationen von Big Tech keine Worte mehr, sondern Taten, und zwar bald“, sagte Yon-Courtin netzpolitik.org.

Wesentlich gelassener zeigt sich der deutsche Christdemokrat Andreas Schwab. Er war auf Parlamentsseite Chefverhandler zum DMA. „Grundsätzlich gilt: Gründlichkeit vor Schnelligkeit, weil der Maßstab in Europa das Rechtsstaatsprinzip ist“, so Schwab. Die Verfahren würden wahrscheinlich vor Gericht landen und in den USA gebe es jetzt schon Zweifel daran, wie seriös die EU handele. „Deshalb muss die Sache sauber durchgezogen werden.“

„Gleichzeitig ist es aber kein Geheimnis, dass die Spitze der Kommission derzeit keinen Ärger mit den USA will“, so Schwab weiter. „Das muss uns noch nicht besorgt machen, wir können eine Reihe von Entscheidungen auch Anfang Februar noch treffen.“ Am kommenden Donnerstag tritt die Arbeitsgruppe des Parlaments zusammen, die sich mit der Durchsetzung des DMA beschäftigt. Dort will er mit Vertreter:innen der Kommission weitere Einzelheiten besprechen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Free Our Feeds: Initiative will soziale Netzwerke vor Milliardären schützen

14. Januar 2025 um 17:00

Ein neues spendenfinanziertes Projekt will bis zu 30 Millionen Dollar in die Entwicklung rund um das Bluesky-Protokoll AT Proto investieren, um dieses breiter aufzustellen. Kritiker fürchten, dass das Fediverse-Protokoll ActivityPub nur wenig von der Initiative profitieren könnte.

Blauer Himmel mit weißer Wolke
Bluesky freut sich über die Nutzung seines Protokolls. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Kumiko SHIMIZU

Eine neue Initiative, die von Internetgrößen wie Wikipedia-Gründer Jimmy Wales oder Blogger Cory Doctorow unterstützt wird, will in den nächsten Jahren 30 Millionen Dollar sammeln, um dezentrale soziale Netzwerke und Ökosysteme rund um das Bluesky-Protokoll AT Proto aufzubauen.

Erklärtes Ziel des Projektes „Free Our Feeds“ ist es, soziale Netzwerke vor dem Zugriff von Milliardären zu schützen. Hierzu will das Projekt eine Stiftung aufbauen, welche die Infrastruktur gemeinnützig und unabhängig von Bluesky betreibt. Bluesky ist ein letztlich profitorientiertes Unternehmen hinter dem angesagten Kurznachrichtendienst sowie dem Protokoll, das als offener Standard zur Verfügung steht.

Auf der Webseite von „Free Our Feeds“  heißt es, man wolle mit einer „unabhängigen Finanzierung und Verwaltung“ das AT-Protokoll in etwas verwandeln, das mehr könne als eine einzelne App: „Wir wollen ein ganzes Ökosystem aus miteinander verbundenen Apps und verschiedenen Unternehmen schaffen, denen die Interessen der Menschen am Herzen liegen.“ Dabei gehe es nicht nur darum, eine neue Social-Media-Plattform zu stärken. „Unsere Vision bietet einen Weg zu einem offenen und gesunden Social-Media-Ökosystem, das nicht von einem Unternehmen oder einem Milliardär kontrolliert werden kann“, so das Projekt weiter.

Bluesky freut sich

Das Management von Bluesky begrüßte den Schritt von Free Our Feeds: „Der Aufbau einer alternativen Infrastruktur ist ein großer Schritt, um den Nutzern mehr Auswahl zu bieten und das Netzwerk milliardärssicher zu machen“, schrieb beispielsweise Bluesky-CEO Jay Graber. Auch andere Angestellte von Bluesky begrüßten das Projekt.

Der Schritt löste aber auch Kritik aus. So bezweifelt zum Beispiel Jürgen Geuter, dass die Aktion unsere Feeds befreien wirklich würde. Irgendetwas sei an der Sache faul, er unterstellt in einem Blogbeitrag eine Interessensgleichheit zwischen dem kommerziell organisierten Bluesky und dem gerade als nicht-kommerziell vorgestellten „Free Our Feeds“. Auch sei das existierende und funktionierende ActivityPub-Protokoll nur eine Randnotiz des Projektes in den FAQ. Geuter hätte sich gewünscht, dass die Menge an Geld in die Interoperabilität von AT Proto und ActivityPub oder in das Fediverse gesteckt würde.

Grundsätzlich ist eine Interoperabilität zwischen den beiden Protokollen machbar, aufgrund technischer Unterschiede bislang jedoch nur eingeschränkt. In besagter FAQ will „Free Our Feeds“ das AT Protokoll und ActivityPub nicht als Entweder/Oder-Option sehen: „Unsere Vision ist es, dass Interoperabilität zwischen offenen Social-Media-Plattformen durch Kollaboration erreicht wird.“ Ob sich diese Absicht umsetzen lässt, bleibt vorerst offen.

Positiv zu bewerten dürfte indes sein, dass Mallory Knodel von der Social Web Foundation mit an Bord von Free Our Feeds ist. Die Foundation leistet wertvolle Arbeit rund um das Fediverse. In einem Blogbeitrag schreibt Knodel: „Diese Kampagne bietet die Möglichkeit, die Kapazitäten zu entwickeln, die für eine bessere Interoperabilität der offenen Social-Web-Protokolle – ActivityPub und Blueskys AT-Protokoll – erforderlich sind.“

Kritik an Bluesky gibt es aus verschiedenen Gründen, unter anderem, weil die zugrunde liegende Firma nicht sicher vor dem Zugriff von Investoren ist und weil die Infrastruktur nur mit sehr großem Rechen- und Kostenaufwand dezentralisierbar ist.

Exodus aus den Kommerz-Netzwerken

Die großen kommerziellen sozialen Netzwerke stehen seit Jahren wegen Datenschutzproblemen, algorithmisch verstärkter Radikalisierung, Desinformation, Hassrede und genereller „Enshittification“ in der Kritik. Seit neuestem kommt auch noch eine zunehmend nach rechts orientierte politischen Ausrichtung hinzu.

Nachdem Elon Musk Twitter kaufte, zu X umbenannte und es zur rechtsradikalen Propagandaschleuder umbaute, ist nun auch Meta-Chef Mark Zuckerberg auf einen ähnlichen Kurs eingeschwenkt. Moderationsrichtlinien bei Facebook und Instagram werden im Sinne rechter Narrative aufgeweicht, das Fact-Checking weitgehend abgeschafft und generell ein Trump-freundlicher Kurs eingeschlagen.

Das führte und führt dazu, dass alternative Netzwerke wie Mastodon oder Bluesky oder zuletzt auch die Instagram-Alternative Pixelfed großen Zuwachs erhielten. Vom Exodus aus Twitter profitierte in einer ersten Phase vor allem Mastodon, verblieb aber dann aus verschiedenen Gründen in der Nerd-Szene verwurzelt und damit auf absehbare Zeit eher ein Nischennetzwerk.

In den letzten Monaten und vor allem nach Trumps Wahlsieg konnte sich Bluesky über ein großes Wachstum erfreuen. Mittlerweile hat der Dienst eine Größe erlangt, die es etwa möglich macht, internationale Ereignisse und Entwicklungen in Echtzeit zu verfolgen. Lange Zeit war dies das letzte Alleinstellungsmerkmal von Twitter/X. Dass sich Bluesky so kometenhaft entwickelt hat, könnte ausschlaggebend für „Free Our Feeds“ gewesen sein, nun auf dieses Pferd zu setzen.

Mastodon gibt sich neue Struktur

Fast zeitgleich zum Start von „Free Our Feeds“ wird sich die Twitter-Alternative Mastodon eine neue gemeinnützige Struktur geben. Dies war notwendig geworden, weil das Finanzamt der bisherigen Organisationsform der damals in Deutschland angesiedelten Mastodon gGmbH im Frühjahr die Gemeinnützigkeit aberkannt hat.

Technisch ist Mastodon im Fediverse schon dezentral aufgestellt, es gibt aber auch dort sehr große, faktisch recht zentrale Instanzen sowie Eigentumsrechte und Urheberrechte in der Hand weniger. In einem montäglichen Statement kündigte Mastodon deswegen an:

Wir werden einfach das Eigentum an wichtigen Mastodon-Ökosystem- und Plattformkomponenten (einschließlich des Namens und der Urheberrechte sowie anderer Vermögenswerte) auf eine neue gemeinnützige Organisation übertragen und damit die Absicht bekräftigen, dass Mastodon nicht im Besitz oder unter der Kontrolle einer einzelnen Person stehen sollte.

Mit dem Schritt wird sich auch die Rolle von Mastodon-CEO Eugen Rochko ändern, der aus dieser Funktion in den nächsten Monaten austritt und sich in Zukunft mehr auf die Produktstrategie konzentrieren soll.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Zuckerbergs Kehrtwende: Meta goes MAGA

08. Januar 2025 um 13:17

Am 20. Januar kehrt Donald Trump ins Weiße Haus zurück. Am gleichen Tag will Mark Zuckerberg in den USA die Inhaltemoderation bei Facebook, Meta und Instagram stark zurückfahren. Die Kehrtwende ist vor allem eine Unterwerfungsgeste gegenüber dem neuen US-Präsidenten. Sie wird den Kulturkampf weiter anheizen und gefährdet die Demokratie. Auch in Europa. Eine Analyse.

Mark Zuckberg
Mark Zuckerberg unterwirft sich Donald Trump. – Alle Rechte vorbehalten meta.com

Mark Zuckerberg will in den USA die Inhaltemoderation bei Facebook, Instagram und Threads dramatisch umbauen. Faktenchecks durch unabhängige Dritte gehören bald der Vergangenheit an, viele sich gegen Hassrede richtende Regeln schafft das Unternehmen ab. Die gestern verkündete Entscheidung ist eine radikale Kehrtwende – und zwar in dreierlei Hinsicht.

Zuallererst ist sie eine Unterwerfungsgeste gegenüber Trump, den Republikanern und den rechtsradikalen Bewegungen in den Vereinigten Staaten. Fast genau vier Jahre zuvor hatte Meta Trumps Konten in seinen sozialen Netzwerken noch vorübergehend gesperrt. Grund war die Erstürmung des US-Parlaments durch einen MAGA-Mob, angestachelt durch den damaligen US-Präsidenten, der in wenigen Tagen seine zweite Amtszeit antritt. Trumps erneuten Wahlsieg nennt Zuckerberg in seiner gestern veröffentlichten Begründung einen „kulturellen Wendepunkt“.

Immer wieder hatten Trump und seine Verbündeten dem Unternehmen mit Regulierung oder Zuckerberg persönlich mit Gefängnis gedroht. Faktenchecks oder gelöschte Hasspostings werteten sie als illegitime politische Einflussnahme. Die breit aufgestellte Einschüchterungskampagne konnte schon vor der jüngsten Ankündigung von Meta Erfolgserlebnisse verzeichnen: Reihenweise mussten zuletzt einschlägige Forschungsabteilungen in US-amerikanischen Universitäten ihre Pforten schließen oder Personal entlassen, weil der politische Druck zu groß wurde.

Auf einer gestrigen Pressekonferenz räumte Trump denn auch unumwunden ein, die neuen Regeln seien „vermutlich“ auf seine Drohgesten gegenüber Zuckerberg zurückzuführen. Kein Zufall dürfte wohl auch sein, dass Meta die Ankündigung zunächst exklusiv über eine Frühstückssendung des rechtslastigen US-Senders Fox News verbreitet hat. Außer einem Besuch in Mar-a-Lago dürfte es kaum bessere Möglichkeiten als einen Auftritt bei „Fox & Friends“ geben, um direkt auf Trump einzuwirken.

Die Rhetorik des Kulturkampfs 

Zweitens folgt Zuckerberg damit Elon Musks Vorbild. Der Multi-Milliardär entließ, nachdem er im Oktober 2022 Twitter übernommen hatte, einen Großteil der Moderator:innen und setzte stattdessen auf sogenannte community notes, freiwillige korrigierende Anmerkungen der Nutzer:innen unter einzelnen Postings. Diese Form der Selbstkontrolle hat das Problem allerdings noch vergrößert: X ist heute ein Hort der Hetze und des Hasses. Facebook, Instagram und Threads droht nun das gleiche Schicksal.

In gewisser Hinsicht kehrt Meta damit tatsächlich zu seinen Wurzeln zurück, aber wohl anders, als es Zuckerberg in seiner Ankündigung meinte. Denn vom Himmel gefallen sind all die Regeln nicht: So hatte etwa ein UN-Bericht im Jahr 2018 festgestellt, die damals laxe Moderationspraxis von Facebook habe entscheidend zum Völkermord in Myanmar beigetragen. „Ich glaube wirklich, dass dies ein Vorläufer für Genozid ist“, warnt nun ein früherer Meta-Mitarbeiter anlässlich des jüngsten Kurswechsels.

Drittens greift Zuckerberg in seiner Begründung von Metas Kehrtwende zur Rhetorik des Kulturkampfes. Damit stößt der Meta-Chef in das gleiche Horn wie all jene, denen er nun den Freifahrtschein erteilt.

Die strengen Moderationsregeln hätten die freie Rede beschnitten, so der Meta-Chef in einem bemerkenswerten Video auf Instagram (Transkript). Mit den neuen Richtlinien würden nun mehr politische Inhalte in die Feeds der Nutzenden zurückkehren, auch zu den Themen, die in den vergangenen Jahren den Kulturkampf in den USA anheizten. Insbesondere Beschränkungen zu Themen wie Migration und Gender werde Meta abschaffen, Themen, „die einfach nicht zum Mainstream-Diskurs passen“, so Zuckerberg.

Project 2025: Gegen die Zensur von Big Tech 

Die neuen Regeln will Meta am Tag der Amtseinführung Donald Trumps in Kraft setzen. Es ist nicht das einzige Geschenk. Meta spendete außerdem eine US-Million Dollar für Trumps Vereidigungszeremonie in Washington, D.C. Vor wenigen Tagen berief Zuckerberg den Republikaner und Trump-Anhänger Joel Kaplan zum neuen Leiter der globalen Politikabteilung von Meta. Und Dana White wurde in den Verwaltungsrat von Meta aufgenommen. Er ist ein langjähriger Freund Trumps und Chef einer großen US-Kampfsport Profiliga.

Der Tech-Konzern sucht also gezielt die Nähe der neuen US-Administration. Die Sorge vor Trump, der Facebook im Wahlkampf unter anderem als „Feind des Volkes“ bezeichnete, ist offensichtlich groß – und begründet. Denn der neue US-Präsident wird in den kommenden zwei Jahren wohl durchregieren können. In beiden Kammern des Kongresses verfügen die Republikaner über die Mehrheit. Und Trump geht dieses Mal gut vorbereitet ins Weiße Haus: Bereits vor der Wahl haben Hunderte Konservative unter dem Namen „Projekt 2025“ dessen zweite Amtszeit programmatisch ausgearbeitet.

Zu den Autor:innen des knapp 1000 Seiten starken Manifests zählt auch Brendan Carr, den Trump im November zum neuen Chef der US-amerikanischen Telekom-Aufsicht FCC (Federal Communication Commission) kürte. Carr fordert in seinem Kapitel, die Trump-Administration müsse die Versuche von Big Tech eindämmen, „verschiedene politische Standpunkte vom digitalen Marktplatz zu vertreiben“. Unternehmen dürften Inhalte nicht nach Belieben zensieren.

Dank Metas Entscheidung ist die neue Administration, noch bevor sie im Amt ist, diesem Ziel bereits ein gutes Stück nähergekommen. Gleichzeitig wird sie den Kulturkampf in den USA weiter anfachen, die demokratischen Kräfte zusätzlich schwächen und den gesellschaftlichen Zusammenhalt noch mehr aushöhlen.

Trump, Musk und Zuckerberg gegen den DSA

Metas Kehrtwende betrifft bislang nur die Vereinigten Staaten. In der Europäischen Union regelt der Digital Services Act (DSA) den Umgang der sozialen Plattformen mit Desinformation und illegalen Inhalten. Kommen die Plattformen den Vorgaben nicht nach, müssen sie mit hohen Strafen rechnen.

Allerdings nimmt der Druck auf den DSA schon seit längerem zu. Besonders Zuckerbergs Spiritus rector, Elon Musk, ist das Regelwerk ein Dorn im Auge. Die Kommission wirft Musks Plattform X vor, europäische Regeln zu missachten; inzwischen laufen mehrere Verfahren wegen Verstößen gegen den DSA. Musk schießt scharf gegen die Kommission und bezichtigt sie, Zensur durchsetzen zu wollen.

Hier schließt Zuckerberg in seinem Video auf, indem er der EU ebenfalls vorwirft, mit ihren Gesetzen Zensur zu institutionalisieren. Außerdem kündigt der Meta-Chef an, sich gemeinsam mit der neuen US-Administration Regierungen entgegenzustellen, die vermeintliche Zensur ausweiten wollen. Explizit verweist Zuckerberg dabei auf die EU.

Trump könnte schon bald den Druck auf die EU erhöhen, die europäischen Vorgaben zu lockern. Tatsächlich hatte sein designierter Stellvertreter, der ultra-konservative J.D. Vance, schon im November die Durchsetzung des DSA mit der US-Unterstützung der NATO verknüpft. Und einem noch unbestätigten Bericht der französischen Zeitung Le Monde zufolge soll die EU-Kommission laufende Untersuchungen gegen DSA-Verstöße durch US-amerikanische Digital-Unternehmen bis auf Weiteres auf Eis gelegt haben. Sollte das tatsächlich stimmen, wäre dies eine fatale Entwicklung.

Anstatt kampflos einzuknicken, muss die EU dem Druck aus den USA entschieden standhalten – noch bevor Trump seine vierjährige Amtszeit antritt. Andernfalls gefährdet die Entscheidung Zuckerbergs auch die Demokratie diesseits des Atlantiks.

 


Die Ankündigung von Mark Zuckerberg vom 7.1.2025 auf Instagram in Wortlaut:


Hey everyone. I want to talk about something important today because it’s time to get back to our roots around free expression on Facebook and Instagram. I started building social media to give people a voice. I gave a speech at Georgetown five years ago about the importance of protecting free expression, and I still believe this today, but a lot has happened over the last several years.

There’s been widespread debate about potential harms from online content. Governments and legacy media have pushed to censor more and more. A lot of this is clearly political, but there’s also a lot of legitimately bad stuff out there. Drugs, terrorism, child exploitation. These are things that we take very seriously, and I want to make sure that we handle responsibly. So we built a lot of complex systems to moderate content, but the problem with complex systems is they make mistakes even if they accidentally censor just 1 percent of posts, that’s millions of people.

And we’ve reached a point where it’s just too many mistakes and too much censorship. The recent elections also feel like a cultural tipping point towards, once again, prioritizing speech. So, we’re going to get back to our roots and focus on reducing mistakes, simplifying our policies, and restoring free expression on our platforms. More specifically, here’s what we’re going to do.

First, we’re going to get rid of fact-checkers and replace them with community notes similar to X starting in the US. After Trump first got elected in 2016, the legacy media wrote nonstop about how misinformation was a threat to democracy. We tried in good faith to address those concerns without becoming the arbiters of truth, but the fact-checkers have just been too politically biased and have destroyed more trust than they’ve created, especially in the US. So, over the next couple of months, we’re going to phase in a more comprehensive community notes system.

Second, we’re going to simplify our content policies and get rid of a bunch of restrictions on topics like immigration and gender that are just out of touch with mainstream discourse. What started as a movement to be more inclusive has increasingly been used to shut down opinions and shut out people with different ideas, and it’s gone too far. So, I want to make sure that people can share their beliefs and experiences on our platforms.

Third, we’re changing how we enforce our policies to reduce the mistakes that account for the vast majority of censorship on our platforms. We used to have filters that scanned for any policy violation. Now, we’re going to focus those filters on tackling illegal and high-severity violations, and for lower-severity violations, we’re going to rely on someone reporting an issue before we take action. The problem is that the filters make mistakes, and they take down a lot of content that they shouldn’t. So, by dialing them back, we’re going to dramatically reduce the amount of censorship on our platforms. We’re also going to tune our content filters to require much higher confidence before taking down content. The reality is that this is a trade-off. It means we’re going to catch less bad stuff, but we’ll also reduce the number of innocent people’s posts and accounts that we accidentally take down.

Fourth, we’re bringing back civic content. For a while, the community asked to see less politics because it was making people stressed. So we stopped recommending these posts. But it feels like we’re in a new era now. And we’re starting to get feedback that people want to see this content again. So we’re going to start phasing this back into Facebook, Instagram, and Threads while working to keep the communities friendly and positive. Fifth, we’re going to move our trust and safety and content moderation teams out of California, and our US-based content review is going to be based in Texas. As we work to promote free expression, I think that will help us build trust to do this work in places where there is less concern about the bias of our teams.

Finally, we’re going to work with President Trump to push back on governments around the world. They’re going after American companies and pushing to censor more. The US has the strongest constitutional protections for free expression in the world. Europe has an ever-increasing number of laws, institutionalizing censorship, and making it difficult to build anything innovative there. Latin American countries have secret courts that can order companies to quietly take things down. China has censored our apps from even working in the country. The only way that we can push back on this global trend is with the support of the US government, and that’s why it’s been so difficult over the past four years when even the US government has pushed for censorship.

By going after us and other American companies, it has emboldened other governments to go even further. But now we have the opportunity to restore free expression, and I’m excited to take it. It’ll take time to get this right, and these are complex systems. They’re never going to be perfect. There’s also a lot of illegal stuff that we still need to work very hard to remove. But the bottom line is that after years of having our content moderation work focused primarily on removing content, it is time to focus on reducing mistakes, simplifying our systems, and getting back to our roots about giving people voice. I’m looking forward to this next chapter. Stay good out there, and more to come soon.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

EDMO: Plattformbeobachter mit großer Plattformnähe

01. Februar 2022 um 08:58
Illustration: Hand hält ein großes Teleskop
Wer beobachtet wen für wen? – Alle Rechte vorbehalten IMAGO / Ikon Images

Eine Stelle, die im Auftrag der EU das Vorgehen von Facebook und Google gegen Desinformationen beobachten soll, hat zahlreiche Verbindungen zu den Technologiekonzernen. Das ist das Ergebnis einer Recherche von Investigate Europe und netzpolitik.org. Die EU-Kommission initiierte im Juni 2020 die Europäische Beobachtungsstelle für digitale Medien (EDMO). An dieser sind laut der Recherche ein ehemaliger Facebook-Manager beteiligt sowie mehrere Organisationen, die von Google finanziert werden. Nun warnen Kritiker, dass die Nähe zu den Plattformen die Arbeit der Beobachtungsstelle beeinflussen könnte. EDMO soll im Auftrag der EU unter anderem beobachten, wie die Plattformen den EU-Verhaltenskodex für Desinformation umsetzen.

Von den 25 Personen im Vorstand sowie im Aufsichtsrat haben elf direkte Verbindungen zu großen Techfirmen. Darunter sind Akademikerinnen und Journalisten, deren Arbeitgeber von Plattformen wie Google oder Facebook finanziell unterstützt werden. In den Gremien arbeiten mehrere Hochschulprofessorinnen, die von den Konzernen Zuschüsse für ihre Lehrstühle und Forschungsprojekte erhalten. Zwei Personen in der EDMO-Führung haben in den vergangenen Jahren sogar unmittelbar für die Tech-Konzerne gewirkt – als Lobbyisten.

Bevor er Mitglied des EDMO-Vorstands wurde, reiste Richard Allan von 2009 bis 2019 als Facebooks Cheflobbyist durch Europa. Bereits 2019 konnte Investigate Europe dokumentieren, dass Allan Druck auf EU-Experten ausgeübt haben soll, die sich für einen strikteren Umgang mit den Plattformen einsetzten. Heute kümmert sich der Brite Nick Clegg um die Interessen Facebooks in Europa als „Vizepräsident für Globale Angelegenheiten. Clegg und der heutige EDMO-Vorstand Allan sind politische Verbündete.

Neben ihrer Tätigkeit als Vorsitzende des EDMO-Aufsichtsrats arbeitet Madeleine de Cock Buning als „Vizepräsidentin Public Policy“ für Netflix. Desinformationen haben für Netflix bisher nur eine nebensächliche Rolle gespielt. Den Verhaltenskodex der EU hat Netflix bisher nicht unterzeichnet.

Drehtüren und befürchtete Interessenskonflikte

Es verstoße gegen die Regeln der guten Organisationsführungen, dass Allan und de Cocking Buning trotz ihrer Nähe zu den Plattformen in der EDMO-Führung arbeiten, kritisieren mehrere Experten im Gespräch mit Investigate Europe und Netzpolitik.org.

„Eine Beobachtungsstelle darf nicht von Personen betrieben werben, die eng mit jenen verbunden sind, die sie beobachten sollen“, sagt die Leiterin des europäischen Verbraucherschutzverbandes BEUC, Monique Goyens. Richard Allans Wechsel von Facebook zur Beobachtsstelle verlief „nahtlos“. Das sei „ein klassisches Beispiel für den Drehtür-Effekt“.

„Personen, die so eng mit der Wirtschaft verbandelt sind, können nicht als unabhängig gelten“, sagt die Lobbyexpertin der Brüsseler Transparenzorganisation Corporate Europe Observatory, Vicky Chase. „Wer für die Technologiekonzerne arbeitet oder von ihnen finanzielle Mittel erhält, sollte nicht Teil einer Organisation wie EDMO sein.“ Laut Chase liegen „eindeutige Interessenskonflikte“ vor.

Neben EDMO hat die EU-Kommission auch den Verband nationaler Regulierungsbehörden (ERGA) damit beauftragt zu prüfen, ob die Technologiekonzerne den Verhaltenskodex einhalten. Anders als bei EDMO können sich bei ERGA nur Organisationen beteiligen, die ausschließlich mit öffentlichen Mitteln finanziert werden.

ERGA und EDMO

Der Leiter der Desinformationsabteilung bei ERGA, Lubos Kuklis, fordert Transparenz von der Beobachtungsstelle. „Es muss offengelegt werden, wer wieviel Geld von den Plattformen erhält“, sagt Kuklis. Ihm sei bisher kein Fall bekannt, den er als „unzulässige Einmischung der Plattformen“ werten würde. Falls es aber dazu komme, werde er es „nicht einfach hinnehmen“, sagt Kuklis.

Andere sehen die Nähe zwischen EDMO-Führung und den Plattformen weniger problematisch. Wie Netflix-Lobbyistin Madeleine de Cock Buning ist auch Sally Reynolds Teil des Aufsichtsrats der Beobachtungsstelle. Dass Personen in der EDMO-Führung Lebensläufen wie die von Allan oder de Cock Buning haben, sei für sie verständlich. „Sie wollen doch nicht, dass Leute über Desinformation sprechen, die nur Ahnung von der Fischerei haben“, sagt Reynolds im Gespräch mit Investigate Europe. Allan und de Cock Buning hätten eine „Meinung“. Reynolds sagt: „Das wird von ihnen erwartet“.

In einer Stellungnahme teilt EDMO mit, dass die Führung der Beobachtungsstelle alle Interessensgruppen repräsentieren solle. Der frühere Facebook-Lobbyist Richard Allan sei Teil des Vorstandes, weil er Erfahrung darin habe, mit der EU zu arbeiten. Die EDMO-Satzung enthalte zudem Vorkehrungen, um potenzielle Interessenskonflikte zu verhindern. Investigate Europe kontaktierte auch Allan und de Cock Buning. Beide verzichteten auf eine Stellungnahme.

Ein Netzwerk aus Plattform-Profiteuren

Auf dem Papier wird EDMO ausschließlich von der EU finanziert. Die Beobachtungsstelle selbst erhält 2,5 Millionen Euro Fördergelder. Weitere elf Millionen Euro erhalten acht regionale Zentren. Viele der Mitglieder von EDMO verfügen jedoch über eigene finanzielle Mittel. Die Beobachtungsstelle ist ein Netzwerk, geflochten aus Partnerschaften zwischen Hochschulen und Faktenprüfern, die nur zu einem kleinen Teil aus den EDMO-Mitteln finanziert werden.

Im Zentrum des EDMO-Netzwerks befindet sich ein Konsortium aus vier Organisationen, die im Jahr 2020 die Beobachtungsstelle gegründet haben: das Europäische Hochschulinstitut (EUI), das Athens Technology Center, die Universtät Aarhus sowie die italienischen Faktenprüfer Pagella Politica. Drei dieser vier Institute werden teilweise von Google finanziert. So erhielt das Athens Technology Center in den Jahren 2016 und 2019 Google-Stipendien. An der Universität von Aarhus finden neun Projekte statt, die von Google und Facebook finanziert werden. Pagella Politica nennt Facebook einen Hauptkunden.

Geld der Plattformen fließt auch an weitere Organisationen, die Teil des EDMO-Netzwerks sind. So kooperieren die Beobachtungsstelle und ihre Regionalzentren mit mindestens acht Hochschulen, die sich von jenen Konzernen mitfinanzieren lassen, die sie im Rahmen von EDMO beobachten sollen. Zudem sind 18 Medienorganisationen Teil des EDMO-Netzwerks, die Geld von den Plattformen erhalten haben, vor allem im Rahmen der Google Digital News Initiative.

Dabei handelt es sich um etablierte Medienorganisationen. Google will mit der Initiative laut eigenen Mitteilungen „Qualitätsjournalismus“ stärken. Doch eine Studie der Otto-Brenner-Stiftung und des Deutschen Gewerkschaftsbundes kommt zu einem anderen Schluss. Darin wird die Initiative als „Werkzeug für Lobbyismus“ beschrieben.

EDMO und die Google-Fördergelder

Die Nähe von EDMO und den Plattformen wird auch bei dem sogenannten Europäischen Medien- und Informationsfonds (EMIF) sichtbar. Der umfasst 25 Millionen Euro und richtet sich laut Website an „Forscher, Faktenprüfer, gemeinnützige Organisationen und andere im öffentlichen Interesse tätige Organisationen, die sich mit Desinformationsforschung und der Stärkung von Medienkompetenz“ befassen. Die finanziellen Mittel des Fonds stammen lediglich von einem Gönner: Google. Wenn künftig entschieden wird, welche Prioritäten mit dem Google-Geld aus dem EMIF unterstützt werden, sitzen auch EDMO-Vertreter mit am Tisch.

Ein Teil des Fonds ist bereits reserviert. Davon soll künftig das Europäische Hochschulinstitut (EUI) bezahlt werden, das Teil des EDMO-Konsortiums ist. Auf Nachfrage teilte das Institut mit, dass es mehr als 260.000 Euro für „Aktivitäten im Zusammenhang mit dem Fonds“ erhalten habe.

Die europäische Verbraucherschützerin Monique Goyens warnt davor, dass der Fonds zu Abhängigkeiten führen könnte. „Die Begünstigten werden wahrscheinlich nicht die Kritischsten gegenüber den Plattformen sein“, sagt Goyens. „Es wird immer schwieriger, Akademiker zu finden, die kein Geld von den Plattformen erhalten.“

Das sieht man bei Google anders. Auf Nachfrage teilte der Konzern zu dem Fonds mit: „Die Stärkung der Medienkompetenz, die Bekämpfung von Desinformation und die Unterstützung von Faktenprüfung sind ein integraler Bestandteil unserer Mission.“

Die EU-Kommission wirbt unterdessen für öffentliche-private Partnerschaften bei der Desinformationsbekämpfung. Auf Nachfrage teilte sie mit: „Der Kampf gegen Desinformation findet nicht im luftleeren Raum statt. Er erfordert die Anstrengung aller Beteiligten.“ Deshalb würden Plattformen mit Faktenprüfern und Forschern kooperieren und deren Arbeit „unterstützen“.

EU-Verhaltenskodex soll strenger werden

Der EU-Verhaltenskodex sieht zwar vor, dass die Plattformen verschiedene Projekte fördern sollen. Doch das Regelwerk selbst steht massiv in der Kritik. Denn geschrieben wurde es teilweise von den Technologiekonzernen selbst. Anschließend erklärten sie sich freiwillig bereit, das Papier zu unterzeichnen. Doch bei Verstößen müssen die Konzerne keine Strafen fürchten. Denn Sanktionen sieht der Kodex nicht vor.

Deshalb fordern einige nun einen strengeren Kodex. Dazu gehört auch der SPD-Europaabgeordnete Tiemo Wölken. „Es ist nicht überraschend, aber enttäuschend zu hören, dass das Gremium, das die Einhaltung des Verhaltenskodex überwachen soll, auch Verbindungen zu Plattformen haben soll“, sagt er. Wie auch der ERGA-Desinformationsexperte Lubos Kuklis fordert Wölken, dass der Verhaltenskodex nachgebessert werden müsse. Unabhängige Stellen müssten dann prüfen, dass die Plattformen die Regeln einhalten und bei Verstößen Sanktionen erlassen können.

Momentan prüft die EU-Kommission eine Änderung des Verhaltenskodex. Eine Neufassung des Textes könnte möglicherweise bereits im März verabschiedet werden. Doch das ist keinesfalls das Ende der Beobachtungsstelle und ihres Netzwerks. Die Pläne der Kommission würden die Rolle von EDMO sogar stärken.

Die Beobachtungsstelle würde dann als Teil einer Taskforce die EU-Kommission künftig dabei unterstützen , die Einhaltung des überarbeiteten Regelwerks zu prüfen. Zudem könnte EDMO weitere Gelder der Plattform in einem EU-Fonds verwalten und entscheiden, wer diese erhalten soll. Sanktionen sieht der Kodex auch in seiner neuen Fassung nicht vor.

„Investigate Europe“ ist ein europäisches Journalistenteam, das europaweit recherchiert und veröffentlicht. IE wird von Leserinnen und Lesern unterstützt sowie von folgenden Stiftungen: Logan Foundation, Rudolf-Augstein-Stiftung, Kennedy-Hübner, Fritt Ord, Adessium und Cariplo Foundation. Mehr zum Projekt und zum kostenlosen Newsletter. Diese Recherche ist ebenfalls auf Englisch erschienen..

Maxence Peigne ist ein französischer Journalist, der in London lebt. Er hat als Reiseschriftsteller, Fernseh- und Radioproduzent und als Großbritannien-Korrespondent gearbeitet. Er hat 11 Reiseführer über die Britischen Inseln und den Südpazifik veröffentlicht und war für Sender wie France Télévision, Radio France und den BBC World Service tätig.

Nico Schmidt studierte Kulturwissenschaft in Hildesheim und Berlin. Er lernte das journalistische Handwerk an der Hamburger Henri-Nannen-Schule. Als freier Journalist erschienen seine Artikel unter anderem im Spiegel, in der Zeit und bei Vice.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Netzwerkdurchsetzungsgesetz: Ab Februar gilt die Meldepflicht. Eigentlich.

31. Januar 2022 um 15:29
Ein fiktives Hassposting im Facebook-Stil. Enthält "Wir kriegen dich!", der Cursor zeigt auf "Gefällt mir"
VIelleicht strafbar? Dann müsste die Plattform den Post ans BKA melden (Symbolbild). – Alle Rechte vorbehalten IMAGO / photothek

Ab dem ersten Februar müssen große Anbieter sozialer Netzwerk potenziell strafrechtlich relevante Inhalte an das BKA melden. Das entstammt einer Neuregelung des Netzwerkdurchsetzungsgesetzes durch das Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität, das bereits Mitte 2020 im Bundestag beschlossen wurde. Ab Februar 2022 gilt nun die Meldepflicht.

In der Praxis verläuft der Start jedoch überaus holprig. Wir haben daher eine Übersicht erstellt: Was gilt (eigentlich)? Wer ist zur Meldung verpflichtet? Wer meldet wirklich? Und was ändert sich jetzt?

Die Rolle des BKA als Zentralstelle

Das BKA nimmt bei den Meldungen die Funktion einer Zentralstelle ein. Das bedeutet: Erfahren die Online-Anbieter von möglicherweise illegalen Inhalten auf ihrem Dienst, müssen sie diese an das BKA weiterleiten, mitsamt der IP-Adresse, von der diese gepostet wurden. Es geht dabei um vermutete Straftaten wie das Verwenden von Kennzeichen verfassungswidriger Organisationen, Gewaltdarstellungen oder bestimmte Bedrohungen.

Das BKA prüft die Inhalte und kann bei den Internetanbietern wie Telekom oder Vodafone die Bestandsdaten zu der übermittelten IP-Adresse abfragen – also herausfinden, wer hinter einem Anschluss steckt. Soll ein Verfahren eingeleitet werden, gibt das BKA dieses an die entsprechenden Staatsanwaltschaften und Länderpolizeien weiter.

Das BKA rechne mit 250.000 solcher Meldungen pro Jahr, sagte ein Sprecher der Behörde dem Redaktionsnetzwerk Deutschland. Man erwarte daraus rund 150.000 Strafverfahren. Um dieses Aufkommen zu bearbeiten, sollen in der Zentralen Meldestelle für strafbare Inhalte im Internet (ZMI) künftig etwa 200 BKA-Beamt:innen arbeiten.

Für wen gilt die neue Meldepflicht?

Die Regelung gilt für soziale Netzwerke mit mehr als zwei Millionen registrierten Nutzer:innen in Deutschland. Welche das konkret sind? Das für die Durchsetzung des NetzDG zuständige Bundesamt für Justiz (BfJ) führe keine abschließende Liste, heißt es in der Antwort auf eine parlamentarische Anfrage aus dem Februar 2021.

Transparenzberichte nach NetzDG hätten jedoch folgende Plattformen veröffentlicht, heißt es dort: Facebook, Twitter, Google+ (wurde 2019 eingestellt), YouTube, Instagram, Reddit, TikTok, Change.org und SoundCloud. Laut Ansicht des BfJ fallen auch Teile des Messengers Telegram unter die Regelung, aber der Betreiber kooperiert nicht. Deshalb laufen Bußgeldverfahren. Wir haben beim BfJ nochmals nachgefragt, welche Plattformen aktuell unter das NetzDG fallen und werden dies nachtragen, sobald wir eine Antwort erhalten.

Wer meldet ab 1. Februar wirklich?

Längst nicht alle Anbieter, die derzeit sonstigen Regeln aus dem NetzDG nachkommen, werden auch ab Februar Inhalte an das BKA melden. Denn es laufen mehrere Klagen gegen die Regelung. Den Anfang machte die Google-Tochter YouTube, bereits im vergangenen Juli reichte die Videoplattform eine Feststellungsklage vor dem Verwaltungsgericht Köln ein, gemeinsam mit einem Eilantrag. Facebook schloss sich YouTube an. In der vergangenen Woche zog TikTok nach, nun gab auch Twitter seine Klage bekannt. Wann das Verwaltungsgericht Köln in den Verfahren entscheidet, ist derzeit nicht absehbar.

Eine aufschiebende Wirkung haben die Verfahren zwar nicht, das Justizministerium sicherte jedoch im August zu, dass man Facebook und Google vorerst nicht zur Meldung zwingen würde, solange es keine Entscheidung in den Eilverfahren gebe.

Start mit „Alternativszenario“

Wie das BKA gegenüber dem Spiegel sagte, habe sich bisher keine der großen Plattformen „technisch“ an die Schnittstelle des BKA angebunden. Was passiert also am 1. Februar überhaupt?

Laut Recherchen des Spiegel startet zunächst ein „Alternativszenario“. Die Meldungen an die ZMI kommen dann noch nicht von den großen Plattformen, sondern aus anderen Projekten, etwa aus der Meldestelle von Hessen gegen Hetze. Dort können Nutzer:innen Hassrede melden. Die IP-Adressen der Inhalteerstellenden bekommen die BKA-Beamt:innen dadurch aber nicht. Sie müssen also selbst ermitteln, wer hinter einem Posting steckt, wenn es sich tatsächlich als strafbar herausstellt. Oder auf die Kooperation der Anbieter hoffen.

Die Kritik an der Meldepflicht

Streit um die Meldepflicht gab es bereits während des Gesetzgebungsverfahrens. Der Bundesdatenschutzbeauftragte Ulrich Kelber kritisierte damals, dass Daten wie die IP-Adresse erhoben und gespeichert werden sollen, bevor ein Anfangsverdacht überhaupt geprüft wurde. Darin liegt die Sorge, dass die Daten vieler Menschen beim BKA landen, auch wenn sich herausstellt, dass sie nichts Illegales getan haben.

Ähnlich argumentieren die Plattformen in ihren Klagen. Dem Spiegel sagte ein Vertreter von Twitter, dass die Weitergabe „private Unternehmen in die Rolle von Staatsanwälten zwingt, indem sie Nutzer auch dann an die Strafverfolgungsbehörden melden, wenn kein illegales Verhalten vorliegt.“

Kritik gibt es nicht nur an den rechtlichen Bedingungen, sondern auch bei der praktischen Umsetzbarkeit. Denn die 150.000 vermuteten Strafverfahren betreffen nicht nur das BKA, dafür braucht es auch Länderpolizeien, Staatsanwaltschaften und Gerichte – und die könnte die Menge der Verfahren quantitativ überfordern. Der Deutsche Richterbund fordert daher neue Stellen – und zwar viele. Gegenüber dem Redaktionsnetzwerk Deutschland sagte Bundesgeschäftsführer Sven Rebehn: „Um den Verfolgungsdruck bei Straftaten im Netz flächendeckend zu erhöhen, braucht es bundesweit sicher einige hundert zusätzliche Staatsanwälte und Strafrichter.“


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

BGH-Urteil: Kläger:innen dürfen Pseudonyme auf Facebook verwenden

28. Januar 2022 um 11:09
Alleinstehende Frau mit Maus-Maske
Pseudonyme sind essenzieller Bestandteil des öffentlichen Diskurses (Symbolbild) – Alle Rechte vorbehalten IMAGO / Addictive Stock

Zwei Personen hatten Facebook verklagt, da der Konzern ihre Nutzerkonten aufgrund einer Verwendung eines Pseudonyms deaktiviert hatte. Nun gab der Bundesgerichtshof den Kläger:innen recht – Facebook hätte ihnen die Verwendung eines Pseudonyms erlauben müssen, wenn sie sich vorher mit Klarnamen gegenüber Facebook registriert haben. Die Accounts müssen wiederhergestellt werden.

Allerdings gilt diese Rechtsprechung nur für Personen, die ihren Account vor dem Inkrafttreten des neuen europäischen Datenschutzrechts im Mai 2018 erstellt hatten. Im Falle dieser alten Accounts greift den Richter:innen zufolge das deutsche Telemediengesetz. Das Gesetz verpflichtet die Betreiber, im Rahmen ihrer Möglichkeiten die „Nutzung von Telemedien und ihre Bezahlung anonym oder unter Pseudonym zu ermöglichen“.

Wie Josephine Ballon der Organisation Hate Aid gegenüber netzpolitik.org erklärt, gilt die neue Rechtssprechung unmittelbar nur für die beiden vor Gericht behandelten Fälle. Alle anderen betroffenen Nutzer müssten ihr Recht selbst geltend machen. Es sei allerdings für diese Fälle erwartbar, dass Facebook zur Vorbeugung neuer Klagen eine neue Regelung einführe.

In der EU-Datenschutzgrundverordnung ist nicht geregelt, ob die Nutzer ein Recht auf die Verwendung eines Pseudonyms haben. Daher bleibt für alle nach dem Mai 2018 erstellten Accounts die Lage rechtlich ungeklärt.

Klarnamen helfen nicht gegen Hass

Facebook erhofft sich, dass die Klarnamenpflicht für weniger Hass sorgt, da die Nutzer auf diese Weise realweltliche Konsequenzen für ihre Aussagen fürchten müssten. So sagte ein Facebook-Sprecher der Süddeutschen Zeitung bereits 2015, dass Anonymität Hassrede befördere, während „authentische Namen zur Diskussionskultur“ beitragen würden.

Diese Haltung ist wissenschaftlich nicht klar belegt. Eine Studie aus dem Jahr 2016 ergibt sogar, dass nicht-anonyme Nutzer auf einer Petitionsplattform teilweise sogar ein aggressiveres Verhalten aufgewiesen hatten. Dabei bestehe die Motivation für solche Aggressionen darin, eigene soziale Normen durchzusetzen. In der zugehörigen Literaturzusammenfassung schreiben die Autoren:

Nicht-Anonymität hilft, Anerkennung zu erlangen, erhöht die eigene Überzeugungskraft und mobilisiert Anhänger.

Auch wenn sich das nicht einfach verallgemeinern lässt, zeigt es, dass es nicht so einfach ist, Anonymität mit mehr Hassrede gleichzusetzen. Ebenso ergab eine Untersuchung von Twitter, dass 99 Prozent der wegen Rassismus gesperrten Nutzer um das EM-Finale 2021 identifizierbar waren.

Tatsächlich ermöglichen Pseudonyme einen wichtigen Teil des öffentlichen Diskurses – vor allem dann, wenn es ungemütlich wird. Beispielsweise können Pseudonyme Mitglieder gesellschaftlicher Minderheiten vor Anfeindungen schützen. Auch Whistleblower können auf Pseudonyme angewiesen sein. Dazu passend haben wir diverse Beispiele gefunden, warum Pseudonymität im Netz unverzichtbar ist.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Debatte: Der Sinn von Dislike-Buttons – das sagt die Wissenschaft

27. Januar 2022 um 15:16
Ein Daumen nach oben und ein Daumen nach unten
Likes zählen, Dislikes aber nicht? Einige YouTube-Nutzer:innen finden das daneben (Symbolbild) Gemeinfrei-ähnlich freigegeben durch unsplash.com Unsplash/ Jan Antonin Kolar, Bearbeitung: netzpolitik.org

Sollte es öffentlich sichtbar sein, wie viele Menschen einen Online-Beitrag schlecht finden? YouTube findet: Nein. Ende 2021 hat die Plattform entschieden, die Anzahl der Dislikes auszublenden. Dazu gibt es viel Gesprächsbedarf. Ein Meinungsstück des Autors zu dem Thema gehörte vergangenes Jahr zu den meist kommentierten netzpolitik.org-Artikeln.

Likes und Dislikes sind eine spezifische Art von Feedback. Mit solchen Funktionen können große Plattformen die öffentliche Kommunikation und Meinungsbildung von Milliarden Menschen in Bahnen lenken. Welche Art von Meinung wird überhaupt abgefragt, welche ist für alle sichtbar?

Zumindest YouTube hat sich dafür entschieden, negatives Feedback nicht mehr öffentlich zu zählen. Was das bei Nutzer:innen auslöst, hat nun eine aktuelle Umfrage untersucht. Auch davor gab es Forschung zu Online-Bewertungssystemen wie den erhobenen und gesenkten Daumen.

Umfrage offenbart ahnungslose Mehrheit

Anfang Januar hat das Meinungsforschungsinstitut YouGov Direct mit mehr als 1.000 Menschen in den USA über Dislikes auf YouTube gesprochen. Der Auftrag dafür kam vom US-Magazin Variety. Fast alle Befragten nutzten demnach YouTube. Das zeigt einmal mehr, wie verbreitet die größte Videoplattform der Welt ist.

Überraschung: Nur rund ein Drittel (34 Prozent) der befragten YouTube-Nutzer:innen hat laut Variety überhaupt mitbekommen, dass die Anzahl der Dislikes nicht mehr öffentlich sichtbar ist. Offenbar gibt es eine ahnungslose Mehrheit, die sich zumindest bisher nicht um das Thema gekümmert hat.

Die rund 270 Menschen, die etwas von den entfernten Dislike-Zahlen wussten, sollten weitere Fragen beantworten. Etwa, ob sie durch die entfernten Dislike-Zahlen geneigt sind, weniger Videos zu schauen. Für rund die Hälfte dieser Befragten (49 Prozent) macht das laut Umfrage keinen Unterschied. Immerhin rund vier von zehn (41 Prozent) sagen, sie seien durch die entfernten Dislike-Zahlen weniger geneigt, Videos zu schauen. 45 Prozent sagen zudem, sie sind weniger geneigt, Likes, Dislikes oder Kommentare zu hinterlassen.

Bei der Umfrage wurde anscheinend nicht ermittelt, ob die Befragten die Änderung bei YouTube nun gut oder schlecht finden. Trotzdem lässt sich etwas aus der Umfrage ziehen: Neben einer ahnungslosen Mehrheit gibt es eine Gruppe von Nutzer:innen, für die entfernte Dislike-Zahlen durchaus einen Unterschied machen.

Daumen hoch für fünf Sterne

Öffentlich sichtbare Dislikes sind nur eines von vielen Feedbacksystemen auf Online-Plattformen. Viele Anbieter verzichten auf eigene Knöpfe und Zähler für negatives Feedback. Auf Twitter, TikTok und Instagram gibt es beispielsweise Herzen. Facebook bietet neben dem Daumen nach oben fünf Emoji-Reaktionen – aber keinen Daumen nach unten.

Eine Skala von eins bis fünf Sternen gibt es für Orte auf Google Maps, für Apps im App Store und Google Play Store und für Produkte auf Amazon. Für Filme in der Internet Movie Database (IMDb) sind es sogar bis zu zehn Sterne. Bei Reddit gibt es Up- und Downvotes. Die meistbesuchten Pornoseiten Deutschlands, xHamster und Pornhub, haben Zähler für „Daumen hoch“ und „Daumen runter“. Für Beiträge auf Telegram-Kanälen gibt es keinen fest eingerichteten Button.

Eine Besonderheit gibt es bei Spotify: Bevor Hörer:innen eine Podcast-Bewertung von eins bis fünf Sternen abgeben können, müssen sie den Podcast in der App gehört haben. Ist das nicht der Fall, kommt ein Popup-Fenster mit dem Hinweis: „Hör dir ein paar Folgen an und gib dann dein Feedback ab“.

Screenshot von Spotify-Popup, das Nutzer:innen bittet, vor einer Bewertung zuerst den Podcast zu hören
Erstmal reinhören – Spotify geht gegen impulsive Bewertungen vor. - Alle Rechte vorbehalten Screenshot: Spotify

Für eine Fachkonferenz haben US-Forschende im Jahr 2010 untersucht, was rund 350 Proband:innen von verschiedenen Feedbacksystemen halten. Untersucht wurden fünf Ansätze: Ein eindimensionales „Mag ich“, ein binäres „Daumen hoch / Daumen runter“, fünf Sterne – und eine Skala von bis zu 100 Punkten. Das Ergebnis: Feedback mit bis zu fünf Sternen fanden die meisten Proband:innen (83 Prozent) zufriedenstellend. Kurioserweise hatte YouTube vor der Einführung von Likes und Dislikes im Jahr 2009 genau dieses Feedbacksystem.

Eher gespalten waren die Proband:innen bei „Daumen hoch / Daumen runter“ (54 Prozent Zustimmung). Am wenigsten beliebt war das Feedbacksystem mit bis zu 100 Punkten, das mochten 57 Prozent der Proband:innen nicht. Mit dem eindimensionalen „Mag ich“ waren 47 Prozent unzufrieden.

Was ein Dislike-Button bei Nutzer:innen auslöst

Fans der öffentlichen Dislike-Zahl auf YouTube vermissen wohl vor allem eines: Anhand der Dislike-Zahl lasse sich auf einen Blick abschätzen, ob ein Video gut oder nutzlos ist, beispielsweise bei Tutorials. Diese Ansicht wird in zahlreichen Reaktionen von Nutzer:innen und YouTuber:innen geäußert.

Im Jahr 2012 haben Forschende der HU Berlin und der Uni Potsdam ein Paper veröffentlicht, das sich mit der Wirkung von Dislikes befasst. 653 Proband:innen haben mitgemacht. Gezeigt wurden ihnen Fotos von einem Burgerrestaurant, einem Gebrauchtwagenhändler und einem Wasserenthärter. Dann sollten sie deren Qualität einschätzen. Als zusätzliches Kriterium fügten die Forschenden den Fotos mal mehr, mal weniger Likes hinzu sowie eine Mischung aus Likes und Dislikes.

Kaum überraschend schätzten die Proband:innen die Qualität der Produkte als höher ein, wenn sie viele Likes hatten – und weniger hoch bei wenigen Likes. Komplexer wurde es, als Proband:innen sowohl Likes als auch Dislikes gezeigt bekamen. Aus der Studie ging hervor: Dislikes können ein Zeichen von Qualität sein. Die Proband:innen fanden etwa ein Produkt mit wenigen Likes besonders positiv, wenn es auch ein paar Dislikes hatte.

Screenshot aus der Studie über die Wirkung von Dislikes. Ein Burger-Restaurant mit Likes sowie mit Likes und Dislikes.
Ob die Burger wohl schmecken? Der Studie zufolge können ein paar Dislikes diesen Eindruck verstärken. - Alle Rechte vorbehalten Screenshot: Like versus dislike. How Facebook's like-button influences people's percetpion of product and service quality/ Humboldt-Universität Berlin, Uni Potsdam

„Dies mag kontraintuitiv erscheinen“, heißt es in dem Papier, lasse sich aber gut erklären. Die negativen Signale durch die Dislikes würden Glaubwürdigkeit schaffen und damit die positive Wirkung der Likes verstärken. Dieser Effekt ließ sich aber nicht immer beobachten. Wenn die Anzahl der Likes bereits sehr hoch war, hatte das Hinzufügen einiger Dislikes der Studie zufolge keine auffällige Wirkung mehr.

Eher schwer einzuordnen waren die Reaktionen der Proband:innen auf Fotos mit sehr vielen Dislikes. Hier gab es überraschenderweise „keinen negativen Effekt auf die Wahrnehmung der Produktqualität“, heißt es in der Studie. Dabei hätten die Forschenden erwartet, dass viele Dislikes zu einer negativen Einschätzung führen. In ihrem Fazit schreiben sie, insbesondere für die Wirkung höherer Mengen Dislikes brauche es weitere Untersuchungen.

Einzelne Studien wie diese können Hinweise geben, aber auch nicht mehr. Für sichere Aussagen braucht es mehr Forschung. Die Studie von damals lässt sich auch nicht ohne Weiteres auf YouTube heute übertragen: Andere Plattform, anderes Jahrzehnt. Zumindest zeigt sie, dass Dislikes wohl einen Unterschied machen können, wie Nutzer:innen etwas bewerten.

Ausgeblendete Likes, ausgeblendete Eigeninteressen

Über solche Studien mit ein paar Hundert Proband:innen können die großen Online-Plattformen nur müde lächeln. Die Anzahl der Teilnehmenden ist ein Witz im Vergleich zu den Abermillionen Nutzer:innen, deren Verhalten Plattformen wie YouTube, Instagram und TikTok täglich auswerten können. Nur teilen sie ihre internen Beobachtungen ungern mit der Außenwelt. Und wenn sie es tun, dann kann man sich auf die Informationen nicht unbedingt verlassen.

Im Jahr 2019 hat etwa Instagram probeweise bei vielen Nutzer:innen die Anzahl von Likes ausgeblendet, angeblich um das Wohlbefinden zu erhöhen. Das passte zur öffentlichen Debatte darüber, dass sich vor allem junge Menschen auf Instagram anhand von Likes vergleichen und großen, sozialen Druck empfinden. Die Studienlage dazu ist nicht eindeutig, weist aber in eine Richtung. Zumindest gibt es eine Reihe von Meta-Studien, die einen Zusammenhang zwischen Nutzung sozialer Medien und Symptomen von Depression zeigen. In Meta-Studien sichten und vergleichen Forscher:innen viele einzelne Studienergebnisse miteinander.

Ende 2021 wurden interne Informationen über das Experiment mit den ausgeblendeten Instagram-Likes bekannt. Sie stammten aus den sogenannten Facebook Files, einem umfassenden Leak von Dokumenten aus dem Konzern. Demnach hätten Untersuchungen von Facebook schon sehr früh gezeigt, dass das Ausblenden der Likes allein keine positive Wirkung auf Teenager hätte. Eine interne Notiz habe aber andere Vorteile der Aktion hervorgehoben, wie das Wall Street Journal berichtete: und zwar ein positiver Eindruck bei Eltern und Nachrichtenmedien.

Generell wird ein gewinnorientiertes Unternehmen kaum solche Entscheidungen treffen, ohne die öffentliche Wahrnehmung zu berücksichtigen – und natürlich den eigenen Profit. Einige Facebook-Nutzer:innen träumen seit 2009 von einem Dislike-Button und bekommen keinen. Dahinter steckt wohl auch das Interesse von Facebook, die eigenen Werbekund:innen vor Empörungswellen zu schützen.

Antworten gibt es bestimmt, aber unter Verschluss

Auch YouTube muss sich nach der Ausblendung der Dislike-Zahlen den Vorwurf gefallen lassen, nicht alle Gründe auf den Tisch gelegt zu haben. Offiziell sollen dadurch organisierte Hasswellen für Nutzer:innen verhindert werden. Eine Begründung, die YouTube-Chefin Susan Wojcicki jüngst in einem Blogpost bekräftigt hat. Kritiker:innen sahen in der Abschaffung der Dislike-Zahl auch eine Reaktion auf die Dislike-Welle für ein Video, das YouTube selbst veröffentlicht hat. Der Jahresrückblick „YouTube Rewind 2018“ wurde mit mehr als 19 Millionen Dislikes das meistkritisierte Video der Plattform. Das sei aber kein Grund für das Ausblenden der Dislike-Zahlen gewesen, wie YouTube etwa der BBC mitgeteilt hat.

Die fundiertesten Antworten über die Wirkung von Dislikes und anderen Funktionen auf Nutzer:innen haben wohl die Plattformen selbst. Sie könnten öffentlich diskutiert werden, wenn unabhängige Forschung einen Zugang zu den internen Daten bekäme. Daran haben die Plattformen wohl wenig Interesse. Sie wehren sich teilweise sogar gegen das Auswerten öffentlich einsehbarer Daten. Wie unter anderem der britische Guardian, die New York Times und Heise Online berichteten, hat etwa Facebook in mehreren Fällen Datensammlungen von Wissenschaftler:innen vereitelt. Als zentralen Grund nennt der Konzern den Schutz der Privatsphäre.

Eine Änderung könnte das geplante Digitale-Dienste-Gesetz der EU bringen. Es sieht vor, dass große Plattformen Forscher:innen Zugang zu ihren Daten geben, zumindest so lange Geschäftsinteressen und vertrauliche Informationen geschützt bleiben. Welche Erkenntnisse das Gesetz in Zukunft möglich macht, ist Spekulation. Zumindest hätten Konzerne einigen Spielraum, um potenziell unangenehme Forschungen zu bremsen.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Exklusiv: NATO-Zentrum will mit Facebook-Daten forschen dürfen

27. Januar 2022 um 10:52
Die NATO und die EU
Die NATO kooperiert eng mit den EU-Staaten – auch beim Thema Desinformation – Alle Rechte vorbehalten IMAGO / photothek

In der Ostukraine braut sich neue Konfrontation mit Russland zusammen. Der Konflikt wird dabei auch in sozialen Netzwerken ausgetragen, durch gezielte Falschinformation und Irreführung – so lautet zumindest der Vorwurf der US-Regierung und des Europäischen Auswärtigen Dienstes gegen die russische Regierung. Vorwürfe, Russland und China setzten gezielt Desinformation ein, sind schon seit Jahren aus Brüssel und Washington zu hören.

Die Vorwürfe machen deutlich, dass Social Media immer stärker zum Schauplatz moderner Kriegsführung gerät. Und wer diese Sichtweise teilt, für den ist die Informationsgewinnung über Propaganda der Gegenseite eine strategische Notwendigkeit.

Eine Datenpipeline für die Informationsgewinnung verspricht eine neue EU-Verordnung: Das Digitale-Dienste-Gesetz soll vorschreiben, dass große Plattformen wie Facebook und YouTube rasche Schritte gegen illegale Inhalte setzen müssen. Bei Werbung im Netz müsse nachvollziehbar sein, wer werbe und welche Zielgruppe angesprochen werde. Um diese und weitere Auflagen kontrollieren zu können, sollen Plattformen Forscher:innen Zugang zu ihren Daten gewähren.

Derzeit starten in Brüssel Verhandlungen zwischen Kommission, Rat und EU-Parlament über einen endgültigen Gesetzestext. Dabei könnte eine tief im Text versteckte Definition zum Streitpunkt werden: Denn in ihrem Gesetzesvorschlag hat die EU-Kommission den Datenzugang für die Forschung stark beschränkt. Konkret Zugriff haben sollen nur Forscher:innen wissenschaftlicher Institutionen, die wirtschaftlich unabhängig seien.

„Datenzugang für Organisationen wie unsere nicht verhindern“

Diese enge Definition verärgert NATO-Kreise. Das zeigt eine schriftliche Protestnote der NATO-Einrichtung Stratcom Centre of Excellence an die EU-Staaten, die netzpolitik.org veröffentlicht. In dem Schreiben verweist das Zentrum auf eigene Forschungsarbeit in sozialen Medien. Ein Stratcom-Bericht aus 2019 habe etwa gezeigt, dass Facebook, Instagram, Twitter und YouTube nicht genug gegen manipulative Auftritte in ihren Netzwerken unternähmen. Die meisten Fake-Profile würden mit Hilfe aus Russland betrieben.

Die Untersuchungen des NATO-Zentrums könnten durch das Digitale-Dienste-Gesetz der EU erheblich erleichtert werden, heißt es in dem Schreiben aus April 2021. „Leider sehen wir, dass der derzeitige Wortlaut von Artikel 31 eine solche Arbeit verhindern dürfte.“ Das Zentrum wäre daher „dankbar“, wenn der Artikel angepasst werden könnte, „um den Datenzugang für die Forschung durch Organisationen wie unsere nicht zu verhindern“.

Das Stratcom Centre of Excellence wurde 2014 von Deutschland und sechs weiteren NATO-Staaten gegründet. Es wird inzwischen von 14 Mitgliedern des Militärbündnisses finanziell unterstützt. Formell untersteht seine Arbeit nicht dem NATO-Oberkommando, das Zentrum ist allerdings als Dienststelle des Bündnisses eingerichtet und liefert der NATO strategische Analysen, Konzepte und bietet Fortbildungen für ziviles und militärisches Personal. Ziel ist es dabei auch, Strategien für das Entwickeln von „Gegenerzählungen“ zu russischen Propaganda-Narrativen zu entwerfen.

Als Fürsprecher des NATO-Zentrums im Rat der EU-Staaten tritt Lettland auf, in dessen Hauptstadt Riga das Zentrum seinen Sitz hat. Das „Recht auf Informationsgewinnung für Forschungszwecke sollte nicht auf wissenschaftliches Personal beschränkt sein“, forderten lettische Diplomat:innen unter Verweis auf den Brief. Das zeigt ein Verhandlungsdokument, dass wir ebenfalls veröffentlichen. Die Dokumente stammen aus einer Informationsfreiheitsanfrage von netzpolitik.org beim Rat der EU-Staaten.

Dass die EU-Staaten eng mit der NATO kooperieren, ist nicht ungewöhnlich. Fast alle EU-Länder sind auch NATO-Mitglieder, in den vergangenen Jahren wurde die Zusammenarbeit stetig vertieft. Etwa vereinbarte der Rat der EU mit dem Militärbündnis bereits 2016, gemeinsame Analysekapazitäten beim Aufspüren von Desinformation aufzubauen. Unterstützung dafür gibt es auch im EU-Parlament, wo ein eigens eingerichteter Ausschuss vor der Gefahr „fremder Einflussnahme“ warnt und sogar Sanktionsmöglichkeiten gegen die Verbreitung von Desinformation fordert.

Allerdings gibt es daran beständig Kritik. EU-Abgeordnete der Linksfraktion kritisieren „das Lobbying von transatlantischen und NATO-Thinktanks“. Deren Einfluss stelle eine ernste Bedrohung für politische Positionen dar, die sich international für Frieden und soziale Gerechtigkeit einsetzten, sagt etwa die irische EU-Abgeordnete Clare Daly. Eine von der Linksfraktion finanzierte Studie über „Rhetorik und Realität von Desinformation in der Europäischen Union“ sieht die Arbeit des NATO-Zentrums in Riga als Teil einer langjährigen Strategie zu Beeinflussung der öffentlichen Meinung.

Definition entzweit Rat und Parlament

Doch trotz der Kritik von links könnte der Wunsch der NATO-Einrichtung durchaus in Erfüllung gehen. Im November 2021 einigten sich die EU-Staaten auf eine gemeinsame Position zum Digitale-Dienste-Gesetz. Darin fordert der Rat die Ausweitung der Zugangsberechtigten nach Artikel 31. Nicht bloß wissenschaftliche Forscher:innen sollten Daten der großen Plattformen bekommen. Stattdessen sollte die Definition einer „Forschungseinrichtung“ aus Artikel 2 der Urheberrechtsrichtlinie herangezogen werden. Darunter fällt „eine Hochschule einschließlich ihrer Bibliotheken, ein Forschungsinstitut oder eine sonstige Einrichtung, deren vorrangiges Ziel die wissenschaftliche Forschung oder die Lehrtätigkeit – auch in Verbindung mit wissenschaftlicher Forschung – ist“. Diese Definition könnte auch das NATO-Zentrum einschließen.

Widerstand gegen diese breite Definition kommt hingegen aus dem EU-Parlament. Dieses weitet in seiner Version von Artikel 31 des Digitale-Dienste-Gesetzes den Zugang von wissenschaftlichen Institutionen explizit auch auf zivilgesellschaftliche Organisationen aus. Forscher:innen, die Datenzugang erhalten, müssten allerdings frei von kommerziellen Interessen sein, ihre Finanzierungsquellen offenlegen und „unabhängig von jeder Regierung, Verwaltung und anderen staatlichen Körperschaften sein“, mit Ausnahme von öffentlich finanzierten Forschungseinrichtungen. Ein Streit zwischen Rat und Parlament in der Definitionsfrage scheint programmiert.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Jahresrückblick 2021: Ein Jahr netzpolitik.org in Zahlen und Themen

29. Dezember 2021 um 15:24
Hintergrund: Zahlen, Vordergrund: Feuerwerk
Bilder von Feuerwerk sind weiterhin erlaubt. – geralt | RENXIN PAN

Welche Texte wir in diesem Jahr am liebsten gelesen haben, wisst ihr schon. Einen Jahresrückblick zum Hören haben wir hier veröffentlicht. Fehlt noch der Rückblick auf die Zahlen und wichtigsten Themen des Jahres.

2021 haben wir bis zum 28. Dezember 1.022 Artikel mit insgesamt 935.007 Wörtern publiziert. Die meisten davon sind im November erschienen (98), die wenigsten im April (68). Insgesamt 36 Autor:innen gab es im letzten Jahr, dazu 52 Gastbeiträge, die uns immer wieder mit ihren Perspektiven und Themen bereichern. Unser festes Team besteht mittlerweile aus 17 Personen. Dazu kommen einige freie Schreiber:innen. Wir haben in diesem Jahr 23 Podcasts veröffentlicht, jede Woche erscheint unser netzpolitischer Wochenrückblick als Newsletter.

Unsere meistgeklickten Artikel

Unsere Leser:innenzahl ist stabil geblieben, etwa drei Millionen Zugriffe zählen wir pro Monat, sagt unser IT-Team. Viele Daten haben wir über euch nicht, aber ein paar Trends konnten wir ablesen. Am meisten interessiert hat euch der Artikel zu den neuen WhatsApp-Geschäftsbedingungen aus dem Januar – 227.595 Mal wurde der abgerufen. Und das sind die gesamten Top 10 aus dem Jahr 2021:

  1. Neue WhatsApp-AGB: Shoot the Messenger 227.592 Abrufe
  2. Die Basis: Eine schrecklich nette Partei 161.090 Abrufe
  3. Microsoft 365: So überwachen Chefs eure Produktivität am Arbeitsplatz 131.825 Abrufe
  4. #allesdichtmachen-Initiator: Volker Bruch stellte Mitgliedsantrag bei Querdenker-Partei 123.122 Abrufe
  5. TKG-Novelle: Seehofer will Personalausweis-Pflicht für E-Mail und Messenger einführen 111.683 Abrufe
  6. Bundespolizeigesetz: Große Koalition einigt sich auf Staatstrojaner-Einsatz schon vor Straftaten 111.454 Abrufe
  7. „Wolfsgeist“: Wie Huawei seine Angestellten in Europa kontrolliert 110.286 Abrufe
  8. NRW: Laschet-Regierung will Demonstrierende wie Kriminelle behandeln 107.635 Abrufe
  9. Julian Assange: Die Rache der CIA 107.180 Abrufe
  10. #allesdichtmachen: Auf die Fresse 101.653 Abrufe

Die Top-Themen des Jahres

Wie im Jahr zuvor hat uns auch 2021 die Pandemie stark beschäftigt. Zu Beginn des Jahres tauchte die Luca-App auf uns versprach uns einen Ausweg aus der Pandemie. Schon zu Beginn gab es viel Skepsis: Wozu noch eine App neben der Corona-Warn-App? Ist die Luca-App wirklich so sicher wie sie verspricht? Dass es zunächst ruckelte in puncto Open Source und Lizenzen hat nicht zum Vertrauen beigetragen. Viele Bundesländer kauften dennoch teure Lizenzen.

Am Ende brachte die App weniger als man sich vielleicht zu Beginn erhofft hatte und die Corona-Warn-App konnte wieder Boden gutmachen. Vorbei ist das Thema noch lange nicht und wir bleiben auch im neuen Jahr dran.

Pandemie und die sonstige Gesundheit

Im November hat uns ein weiteres Pandemiethema stark beschäftigt. Was tun bei einer roten Warnung in der CWA? Das Versprechen vom unkomplizierten PCR-Test stellte sich als nicht ganz so einfach heraus, aus eigener Erfahrung und durch Berichte von anderen wussten wir von Schwierigkeiten, sodass wir dem Problem gleich vier Artikel gewidmet haben.

Nicht nur in den Gesundheitsämtern und der Pandemiebekämpfung ging die Digitalisierung 2021 schleppend voran, auch im Rest des Gesundheitswesens laufen digitale Projekte oft eher mittelprächtig. Meist mit dabei war Ex-Gesundheitsminister Jens Spahn. Etwa beim Patientendatenschutz, dem E-Rezept, das nun doch noch nicht kommt. Das Fazit: Viele seiner Digitalprojekte wurden ganz schön vergeigt.

Regulieren oder soll man es lassen?

Viele Diskussionen gab es 2021 auch um die Regulierung von Social-Media-Plattformen. Mit Donald Trump verlor ein prominenter Falschnachrichtenverbreiter zu Beginn des Jahres nach der Stürmung des Kapitols seine reichweitenstarken Kanäle. Aber ist sogenanntes De-Platforming die Lösung? Wir haben dem Thema auch einen Podcast gewidmet und die unterschiedlichen Meinungen aus der Redaktion aufbereitet. Das Thema kam immer wieder auf, etwa bei Massenlöschungen von Querdenken-Kanälen.

Die besonders zu Jahresende hitzig geführte Diskussion über den Messenger Telegram begann schon im Februar. Zu den Kernfragen gehört, ob Telegram unter das NetzDG fällt und was angemessene Möglichkeiten sind, dem Hass auf der Plattform beizukommen. Technische Lösungen allein werden es wohl nicht sein, denn das Problem mit Hass ist größer als die Plattform.

Top Ten der Artikel von 2021
Das habt ihr am meisten gelesen.

Ein wichtiges Vorhaben zur Plattformregulierung ist das Digitale-Dienste-Gesetz, das auf EU-Ebene für klarere Regeln sorgen soll. Es soll die großen Player bei der Inhaltemoderation stärker in die Pflicht nehmen und personalisierte und manipulierende Werbung ein bisschen mehr einschränken.

Im Lauf des Jahres hat das EU-Parlament seine Position zum Digitale-Dienste-Gesetz immer weiter ausgearbeitet. Nächstes Jahr müssen sich dann Kommission, Rat und Parlament einigen, es bleibt spannend.

Einen ähnlichen Namen hat das Digitale-Märkte-Gesetz, der Fokus ist aber ein etwas anderer. Es soll unter anderen unfairen Praktiken der Digitalgiganten einen Riegel vorschieben. Mit in der Werkzeugvorschlagskiste: die Pflicht zur Interoperabilität.

Aufreger Chatkontrolle

Für viel Aufregung haben die Pläne der EU-Kommission für die sogenannte Chatkontrolle gesorgt. Das Prinzip: Inhalte werden auf dem Gerät durchleuchtet, bevor sie beispielsweise verschlüsselt verschickt werden. Das ganze soll der Bekämpfung von Kindesmissbrauch dienen. Zuvor hatte Apple mit Scan-Plänen für Proteste gesorgt – und sie dann kurzerhand verschoben.

Was uns aus Brüssel noch so beschäftigte: die schon jahrealten Pläne für ein einheitliches Ladekabel, zu denen wir Dokumente veröffentlichten. Um weniger Müll zu produzieren könnte auch ein Recht auf Reparatur helfen. Frankreich hat schonmal vorgelegt.

Die EU beschloss außerdem ein Gesetz gegen Terrorpropaganda im Netz und arbeitet an Regeln für den Einsatz Künstlicher Intelligenz.

„Frau von der Leyen, wann dürfen wir Ihre SMS lesen?“, fragte Alexander Fanta im Januar. Eine abgelehnte Informationsfreiheitsanfrage und eine Beschwerde bei der EU-Ombudsperson später hieß es im Dezember: leider gar nicht.

Last Minute im Bundestag

Gesetzverabschiedungsmäßig läuft im Jahr vor Bundestagswahlen erfahrungsgemäß noch so einiges. In diesem Jahr dabei: die umstrittene Bestandsdatenauskunft, die nach einem Gerichtsurteil geändert werden musste. Die Große Koalition hat die Änderungen gegen die Meinung von Expert:innen durchgeboxt, der Bundesrat ließ es schließlich durchfallen, am Ende wurde mit leicht erhöhten Abfragehürden etwas nachgebessert.

Daneben standen Staatstrojaner hoch im Kurs. Alle 19 Geheimdienste bekamen die Erlaubnis zur Quellen-TKÜ. Die Bundespolizei sollte Trojaner präventiv einsetzen dürfen, doch daraus wurde am Ende nichts.

Außerdem auf der Gesetzesliste stand die Registermodernisierung, mit der es eine einheitliche Nummer für alle geben wird. Dann kam noch die Strafbarkeit von Feindeslisten, die im Entwurf noch ziemliche Kollateralschäden mit sich gebracht hätte. Zum Glück wurde dann noch nachgebessert.

Alles können wir nicht aufzählen, aber ebenso durch den Bundestag gingen: ein neues BND-Gesetz mit noch mehr Befugnissen, mehrere Überarbeitungen von verschiedenen Aspekten des Telekommunikationsgesetzes, eine Urheberrechtsnovelle inklusive Uploadfilter, eine Überarbeitung des Netzwerkdurchsetzungsgesetzes (gegen die Plattformbetreiber vorgehen), ein eID-Gesetz, Kennzeichen-Scanner.

Sommerloch ist ausgefallen

Nach dem Gesetzesendspurt fiel das Sommerloch dieses Jahr aus, denn es war Wahlkampf. Aus diesem Anlass haben wir uns Wikipedia-Artikel von Bundestagsabgeordneten angeschaut, Wahlprogramme verglichen und Meme-Kanäle analysiert. Nach der Wahl ging es weiter: Wer sind die alten und neuen Digitalpolitiker:innen, was sollte sich bei der Wahlberichterstattung ändern?

Am Ende stand eine Bilanz der Digital-Ära Merkel und eine gemeinschaftliche Analyse des Koalitionsvertrags, das Urteil fiel vorsichtig optimistisch aus. Umso mehr Grund, im nächsten Jahr genau zu verfolgen, was aus den Zielen der neuen Regierung wird und was sich die neuen Minister:innen des Kabinetts Scholz als erstes vornehmen!

Mehr Überblick bei Überwachung

Wer bei Überwachungsgesetzen der bisherigen Regierungen den Überblick verliert, kann sich in unserem Dossier dazu etwas Orientierung abholen. Und vielleicht wird es auch bald was mit der Überwachungsgesamtrechnung, dann gäbe es diesen Überblick sogar offiziell.

Bei der Vorratsdatenspeicherung war alles wie immer: Es gab sowohl neue Anläufe und Ideen für eine massenhafte Speicherung von Kommunikationsdaten als auch diverse Gerichtsurteile dagegen. Immerhin: Unser neuer Justizminister ist offenbar kein Fan des Überwachungsgesetz-Zombies.

Im Juli enthüllte ein Rechercheteam das Ausmaß der Überwachung durch den Pegasus-Trojaner von NSO Group. Noch immer werden neue Ziele bekannt, zuletzt Oppositionelle aus Polen. Auch das Bundeskriminalamt und der Bundesnachrichtendienst sollen Pegasus nutzen. Die NSO Group ist schon vorher in Erscheinung getreten, etwa bei einem Hack von WhatsApp.

Die meisten Kommentare hatte ein Gastbeitrag

Viele Reaktionen hat der Gastbeitrag des Schülers Lukas Wagner hervorgerufen. 176 Kommentare und damit die meisten in diesem Jahr gab es unter seinem Artikel zu „Datenschutz an Schulen: Microsoft Teams oder Nichts“. Die Digitalisierung der Schulen und Hochschulen hat uns auch anderweitig beschäftigt, sei es beim digitalen Brockhaus, bei Schul-IT im Ländle oder dem langsam tröpfelnden Geld aus dem Digitalpakt.

Ein diesjähriger Recherche-Schwerpunkt waren Pornos und ihre Plattformen. Deren Chefs stellen sich nur ungern öffentlicher Kritik und würden offenbar am liebsten im Verborgenen bleiben. Spoiler: Ganz geklappt hat das nicht. Sollte es auch wohl nicht, denn sie tragen eine Menge Verantwortung, etwa für ungewollte Nacktaufnahmen auf ihren Seiten.

Währenddessen versuchen Jugendschützer:innen die Plattformen an die Leine zu nehmen und drohen mit Netzsperren, wenn die nicht kooperativ sind und effektive Alterskontrollen durchführen.

Kein Jahr ohne ein paar gute Nachrichten

Eine andere große Recherche gab es zu Datenschutz-Einwilligungen bei O2. Viele Kund:innen mussten im Nachhinein feststellen, dass sie angeblich Einwilligungen gegeben hatten, an die sie sich nicht mehr erinnern. Irgendwas schien da schiefzulaufen und wir haben genauer nachgeforscht. Mittlerweile hat O2 Maßnahmen ergriffen, um das Problem zu verbessern. Ob das reicht, wird sich zeigen.

Wie in jedem Jahr gab es auch 2021 denkwürdige Sicherheitslücken und häufig einen noch denkwürdigeren Umgang damit. Etwa bei der Wahlkampf-App CDU Connect, woraufhin die CDU die verantwortungsvolle Finderin anzeigte. Das Verfahren wurde zum Glück eingestellt. Auch bei ID Wallet lief einiges schief, kurz nach der Bekanntgabe war die App zum digitalen Ausweisen wieder weg. Ob da noch was kommt? Wir sind gespannt.

Damit ihr am Ende dieses Textes nicht niedergeschlagen zurückbleibt, manches läuft auch gut da draußen. Da sind zum Beispiel die Digitalbotschafter:innen, die älteren Menschen bei ihren ersten Schritten ins Netz unterstützen. Das EU-Parlament sprach sich gegen biometrische Massenüberwachung aus. Und unser Team wurde mit dem Fritz-Bauer-Preis ausgezeichnet, das freut uns sehr!

Alles können wir hier nicht aufzählen, daher freuen wir uns, wenn ihr in die Kommentare schreibt, welches netzpolitische Thema für euch dieses Jahr am wichtigsten war.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Verstörende Gewalt: Löscharbeiterin klagt gegen TikTok

28. Dezember 2021 um 16:24
Eine Hand umfasst den Kopf einer Puppe. Eine andere Hand zeigt ein Smartphone mit dem TikTok-Logo
Löscharbeiter:innen schauen sich Gewaltvideos an, damit wir es nicht tun müssen (Symbolbild) – Alle Rechte vorbehalten Smartphone: imago/ NurPhoto; Puppe: Pixabay/ isabellaquintana

Candie Frazier kann nicht schlafen. In Gedanken sieht sie die verstörenden Videos vor sich, die sie als Löscharbeiterin für TikTok überprüfen musste. Nach einer Schießerei an einer Schule hat sie die Leichen von Kindern gesehen. Wenn Frazier endlich einschläft, bekommt sie Albträume. Das und mehr steht zumindest in der Klageschrift (PDF), in der Frazier schwere Vorwürfe gegen TikTok und dessen Mutterkonzern Bytedance erhebt.

In den USA fordert Frazier jetzt Entschädigung und gesundheitliche Hilfe – für sich und für andere Content-Moderator:innen, auch bekannt als Löscharbeiter:innen. TikTok habe sie nicht ausreichend vor potentiell traumatisierenden Videos geschützt.

Im Jahr 2020 gab es eine vergleichbare Sammelklage von Löscharbeiter:innen gegen Facebook. Der TikTok-Konkurrent hatte sich damals auf eine Entschädigung geeinigt: Umgerechnet rund 46 Millionen Euro war Facebook bereit zu zahlen. Entsprechend gespannt darf man auf den Ausgang der aktuellen Sammelklage gegen TikTok sein. Hinter beiden Klagen steckt die kalifornische Anwaltskanzlei Joseph Saveri Law Firm.

Weltweit sortieren abertausende Menschen verstörende Inhalte für Online-Plattformen. Allein für TikTok waren es Ende 2020 offenbar rund 10.000, wie ein TikTok-Manager damals der britischen Regierung mitteilte. Immer wieder gibt es Berichte über belastende Arbeitsbedingungen in der Branche. Die aktuelle Sammelklage gegen TikTok beschreibt im Detail, was hinter den Kulissen der Kurzvideo-Plattform angeblich alles schiefläuft.

Löscharbeit in 12-Stunden-Schichten

Ob die Vorwürfe stimmen, lässt sich nicht ohne Weiteres überprüfen. Eine TikTok-Sprecherin schreibt netzpolitik.org: „Bitte haben Sie Verständnis, dass wir uns zu dem laufenden rechtlichen Verfahren in den Vereinigten Staaten nicht äußern können.“ Es ist sei TikTok „ein Anliegen“, dass sich Mitarbeiter:innen und Auftragnehmer:innen in ihrem Arbeitsumfeld wohlfühlen. „Wir bauen deswegen kontinuierlich unsere bestehenden Angebote zum emotionalen und mentalen Wohlbefinden von Moderator*innen weiter aus.“

Frazier ist der Klageschrift zufolge nicht direkt bei TikTok angestellt, sondern bei einem US-Unternehmen namens Telus. Es ist nicht ungewöhnlich, dass Online-Plattformen andere Unternehmen für ihre Löscharbeit beauftragen. Aktuell ist Frazier aber offenbar nicht mehr als Löscharbeiter:in aktiv. TikTok lasse sie nach dem Einreichen der Klageschrift nicht mehr arbeiten, zitiert das Magazin Business Insider Fraziers Anwalt.

Wir haben die Pressestelle von Telus gefragt, ob das stimmt. Diese Frage wurde uns nicht beantwortet. Ein Sprecher schrieb netzpolitik.org, das Unternehmen habe ein robustes Programm für die psychische Gesundheit. Mitarbeiter:innen könnten Fragen und Bedenken über interne Kanäle vorbringen. Frazier habe „diese Bedenken über ihr Arbeitsumfeld noch nie geäußert, und ihre Behauptungen stehen in völligem Widerspruch zu unseren Richtlinien und Praktiken.“

Als Löscharbeiterin habe Frazier in 12-Stunden-Schichten gearbeitet, heißt es in der Klageschrift. Für ein einzelnes Video habe sie demnach maximal 25 Sekunden Zeit gehabt. Die Flut an neuen Videos sei so enorm, dass Löscharbeiter:innen drei bis zehn Videos gleichzeitig sichten würden.

Fragwürdige Videos würden jeweils von zwei Löscharbeiter:innen überprüft. Dabei müssen sie ein Video einer von 100 Kategorien zuordnen. Fehler dürften dabei möglichst nicht passieren. Frazier und ihre Kolleg:innen sollten mindestens acht von zehn Videos richtig einordnen.

Traumatisierende Bilder

Die Pausen sind laut Klageschrift streng begrenzt. In den ersten vier Stunden beim Sichten potentiell verstörender Inhalte („graphic content“) gebe es 15 Minuten Pause. Danach gebe es alle zwei Stunden weitere 15 Minuten Pause. Die Mittagspause sei eine Stunde lang.

Durchgeführt und überwacht werde die Löscharbeit mit einer Software namens TCS. Laut Klageschrift müssen Löscharbeiter:innen um ihre Bezahlung fürchten, wenn sie sich außerhalb der vorgeschriebenen Pausenzeiten mal eine Verschnaufpause gönnen.

Triggerwarnung: Die Klageschrift nennt auch einige Beispiele von verstörenden TikTok-Videos, die Frazier als Löscharbeiterin anschauen musste. Sie können belastend und retraumatisierend sein. Wer das nicht lesen möchte, springt bitte direkt zum Abschnitt: Was TikTok besser machen könnte.

TikTok zensiert LGBTQ-Themen und politische Hashtags

Ein Video, das auf Fraziers Bildschirm gelandet ist, zeigte der Klageschrift zufolge Menschen, die aus einem zerschmetterten Schädel essen. Andere Videos sollen gezeigt haben, wie ein Fuchs lebendig gehäutet wird und wie ein Mann einer lebenden Ratte den Kopf abbeißt. Im Jahr 2019 hat eine VICE-Recherche gezeigt, wie verbreitet Tierquälerei auf TikTok ist.

Auch sexualisierte Gewalt gegen Kinder habe Frazier mitansehen müssen, außerdem die Hinrichtung einer Frau durch Abschlagen des Kopfes. Andere Videos hätten Abtreibungen in Hinterhöfen gezeigt.

In der Folge ihrer Arbeit habe Frazier schwere psychologische Traumata entwickelt, unter anderem Depression und Symptome von posttraumatischen Belastungsstörungen.

Was TikTok besser machen könnte

Heute habe Frazier „schwere und lähmende“ Panikattacken, heißt es in der Klageschrift. Sie habe Angst, wenn sie unter Leuten sei, und habe viele Freunde verloren. TikTok und Mutterkonzern ByteDance seien sich der negativen seelischen Auswirkungen laut Klageschrift bewusst. Branchenübliche Maßnahmen zum Schutz der Löscharbeiter:innen habe TikTok aber nicht umgesetzt. Nähere Rückfragen zu einzelnen Vorwürfen hat TikTok auf Anfrage von netzpolitik.org nicht beantwortet.

Um Löscharbeiter:innen zu schützen, könnten potentiell verstörende Videos zum Beispiel verkleinert, verschwommen oder stumm abgespielt werden. Das ist der Klageschrift zufolge nicht passiert. Weiter heißt es, neue Löscharbeiter:innen würden nicht ausreichend über die potentiell schädlichen Auswirkungen der Arbeit auf ihre Psyche vorbereitet.

Wie viele Löscharbeiter:innen außer Frazier Anspruch auf Entschädigung haben könnten, ist laut Klageschrift nicht genau bekannt. Es könnten demnach Tausende sein. Falls die Sammelklage Erfolg hat, wäre es besonders interessant, wie viel TikTok den Betroffenen zahlen würde. Nach der ähnlichen Sammelklage gegen Facebook konnten einzelne Löscharbeiter:innen laut Medienberichten mit mindestens 1.000 US-Dollar rechnen. Das sind umgerechnet rund 880 Euro.

Ein Recht auf eine höhere Entschädigung von bis zu 50.000 Dollar (rund 44.000 Euro) hatten demnach Facebook-Löscharbeiter:innen, die Diagnosen für entsprechende Erkrankungen nachweisen konnten. Anwalt Steve Williams äußerte sich im britischen Guardian „begeistert“ über das Facebook-Urteil.

Update, 29.12.: Wir haben den Artikel um die Antwort von Telus ergänzt.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

  • Es gibt keine weiteren Artikel
❌