🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
✇9to5Linux

LibreOffice 26.2.1 Open-Source Office Suite Released with 65 Bug Fixes

Von: Marcus Nestor

LibreOffice 26.2

LibreOffice 26.2.1 is now available for download as the first point release to the LibreOffice 26.2 office suite series with 65 bug fixes.

The post LibreOffice 26.2.1 Open-Source Office Suite Released with 65 Bug Fixes appeared first on 9to5Linux - do not reproduce this article without permission. This RSS feed is intended for readers, not scrapers.

✇netzpolitik.org

Von Kinderhilfswerk bis Lehrerverband: So breit ist die Kritik am Social-Media-Verbot

Von: Sebastian Meineck

Bundeskanzler Friedrich Merz (CDU) findet ein Social-Media-Verbot bis 16 Jahre sympathisch. Viele Organisationen aus Kinderschutz, Wissenschaft und Pädagogik lehnen das Verbot allerdings ab – und warnen vor Schäden für Kinder und Jugendliche. Die Übersicht.

Ein Kind und eine erwachsene Person halten sich an den Händen. Ihre Köpfe sind mit bunten Fäden umwickelt. Sie schauen auf digitale Geräte.
Wie führt man Kinder in die digitale Welt? (Symbolbild) – Alle Rechte vorbehalten IMAGO/Westend61

Bekommt Deutschland ein Social-Media-Verbot nach australischem Vorbild? Druck machen zumindest wichtige Politiker*innen aus den Regierungsparteien SPD und CDU. Die Debatte kocht auch international, weil in Australien seit dem 10. Dezember ein solches Verbot gilt.

Medienwirksam sprechen sich Staats- und Regierungschefs für ähnliche Maßnahmen aus, darunter der französische Präsident Emmanuel Macron und der spanische Ministerpräsident Pedro Sánchez. Unter Expert*innen gibt es aber viel Skepsis und Ablehnung. Das zeigen mehr als 20 Positionspapiere und Stellungnahmen von unter anderem Kinderschutz-Organisationen, Pädagog*innen, Schüler*innen und Forschenden.

Viele sprechen sich klar gegen ein Social-Media-Verbot aus und warnen vor gravierenden Folgen. Doch selbst Befürworter*innen eines Social-Media-Verbots argumentieren vorsichtig und nennen Altersbeschränkungen allenfalls als eine von vielen Maßnahmen. Ein Konsens ist erkennbar, dass vor allem Plattformen sichere Räume für Kinder und Jugendliche schaffen müssen.

Hier kommt, ohne Anspruch auf Vollständigkeit, eine Übersicht wichtiger Stimmen und deren Argumente.


Deutsches Kinderhilfswerk: „Verbote entmündigen Kinder“

November 2025, „Unsere Haltung zu Social-Media-Verboten“

Wer ist das? Das deutsche Kinderhilfswerk ist ein 1972 gegründeter Verein. Dessen Mitglieder engagieren sich für „eine kinderfreundliche Gesellschaft, in der die Kinder ihre Interessen selbst vertreten“.

Was ist die Position? „Pauschale Verbote entmündigen Kinder und Jugendliche“, schreibt das Kinderhilfswerk. Sie stünden in krassem Widerspruch zum Recht auf digitale Teilhabe, das die UN-Kinderrechtskonvention garantiert. Den kompetenten und sicheren Umgang müssten Kinder und Jugendliche durch aktive Nutzung lernen. „Verbote würden die positiven sozialen Kommunikationswege in diesem Bereich abschneiden und Kindern einen Rückzugsort ihrer Lebenswelt ohne angemessenen Ersatz nehmen.“


UNICEF: „Verbote können nach hinten losgehen“

Dezember 2025: „Age restrictions alone won’t keep children safe online“

Wer ist das? UNICEF ist das 1946 gegründete Kinderhilfswerk der Vereinten Nationen.

Was ist die Position? „Social-Media-Verbote bergen eigene Risiken und könnten sogar nach hinten losgehen“, warnt die NGO auf Englisch. Gerade für isolierte oder marginalisierte Kinder seien soziale Medien eine „Lebensader“. Altersbeschränkungen müssten Teil eines umfassenderen Ansatzes sein, der auch das Recht junger Menschen auf Privatsphäre und Mitbestimmung achtet. Minderjährige sollten nicht in unregulierte, weniger sichere Bereiche des Internets gedrängt werden.


Save the Children: „falsches Sicherheitsgefühl“

Dezember 2025: „Policy Statement on Social Media Bans“

Wer ist das? Save The Children wurde 1919 gegründet und bezeichnet sich als weltgrößte unabhängige Organisation für Kinderrechte.

Was ist die Position? Save The Children unterstützt „wirksame, die Privatsphäre respektierende Altersüberprüfungen“. Dennoch ist die Organisation besorgt, dass altersbasierte Beschränkungen „unbeabsichtigte Schäden verursachen, ein falsches Sicherheitsgefühl vermitteln und die Rechte und Möglichkeiten von Kindern einschränken könnten“. Weiter pocht sie darauf, dass Plattformen ihre Produkte „wirklich sicher und altersgerecht gestalten“.


Bundesschülerkonferenz: Medienbildung „an erster Stelle“

Februar 2026: „Verbote sind keine Lösung“

Wer ist das? Die Bundesschülerkonferenz engagiert sich für Bildungspolitik und Mitbestimmung von Schüler*innen in Deutschland.

Was ist die Position? Die psychische Gesundheit von Jugendlichen würde immer schlechter, schreibt die Generalsekretärin der Bundesschülerkonferenz. Social Media leiste dazu einen erheblichen Beitrag. Der Fokus der Debatte liege aber zu stark auf Verboten. „An erster Stelle muss bessere Medienbildung in Schulen stehen, denn sonst ist das Verbot nichts anderes als eine Problemverschiebung.“


Deutscher Bundesjugendring: Manipulative Designs verbieten

Oktober 2025: „Stellungnahme zur Konsultation zum Digital Fairness Act“

Wer ist das? Der Deutsche Bundesjugendring vertritt deutsche Jugendverbände und Landesjugendringe.

Was ist die Position? „Junge Menschen haben Rechte auf Schutz, Teilhabe und Befähigung – auch digital“, schreibt der Verein in einem Statement zum Digital Fairness Act, einem geplanten Digitalgesetz der EU. Der Bundesjugendring lehnt „pauschale Zugangsbeschränkungen“ ab und fordert sicher gestaltete Räume. Funktionieren soll das etwa über „verbindliche Verbote manipulativer Gestaltung“. Konkrete Beispiele seien „endlose Feeds, Lootbox-Mechaniken oder manipulative Abo-Taktiken“.


ACT Youth Advisory: Verbote können isolieren

November 2024: „The ACT Youth Advisory Council’s Response to the Online Safety Amendment“

Wer ist das? Der ACT Youth Advisory vertritt Jugendliche im „Australian Capital Territory“, wo auch die australische Hauptstadt Canberra liegt.

Was ist die Position? Der ACT-Jugendrat hätte das australische Social-Media-Verbot am liebsten verhindert. Statt Jugendliche auszusperren, so die Forderung, solle die Regierung die Plattformen regulieren. Die Jugend-Vertreter*innen sahen etwa das Recht auf freie Meinungsäußerung in Gefahr – und das Recht auf sicheren und freien Zugang zu Informationen. Sie warnten außerdem davor, dass das Verbot vulnerable junge Menschen isolieren könne.


Deutscher Lehrerverband: „weder umsetzbar noch sinnvoll“

Juni 2025: „Digitale Teilhabe ist Realität und muss gelernt werden“

Wer ist das? Der Deutsche Lehrerverband ist eine der größten Organisationen von Lehrer*innen in Deutschland.

Was ist die Position? Eine gesetzliche Altersgrenze für soziale Medien ist „weder realistischerweise umsetzbar noch sinnvoll“, schreibt Verbandspräsident Stefan Düll. Kinder und Jugendliche müssten lernen, sich in der digitalen Welt sicher und verantwortungsvoll zu bewegen. Es könne nicht die Lösung sein, Jugendlichen „plötzlich mit dem 16. Geburtstag“ einen Zugang zu geben. „Wir sollten nicht ständig diskutieren, was Kindern verboten wird – sondern was wir ihnen ermöglichen.“


BzKJ: Völliges Verbot „zu weitgehend“

Dezember 2024: „Junge Menschen haben ein Recht auf digitale Teilhabe“

Wer ist das? Die Bundeszentrale für Kinder- und Jugendmedienschutz ist als Bundesbehörde zuständig für die Durchsetzung von Kinderrechten im Netz auf Grundlage des EU-Gesetzes über digitale Dienste (DSA).

Was ist die Position? „Kinder und Jugendliche haben ein Recht auf digitale Teilhabe und darauf, digitale Lebensräume sicher zu erkunden“, sagte BzKJ-Direktor Sebastian Gutknecht bereits Ende 2024. „Das völlige Verbot von Social Media für unter 16-Jährige“ halte er für „zu weitgehend.“ Die Anbieter in der EU hätten die gesetzliche Pflicht, „ihre Plattformen für junge Menschen mit strukturellen Vorsorgemaßnahmen möglichst sicher zu gestalten“.


Landesanstalt für Kommunikation: „erhebliche Bedenken“

Februar 2026: „Social-Media-Verbot – Worum geht’s?“

Wer ist das? Die „Landesanstalt für Kommunikation“ (LFK) aus Baden-Württemberg ist eine von 14 deutschen Aufsichtsbehörden für privaten Rundfunk und Online-Medien.

Was ist die Position? Nach einer Sammlung von Pro- und Contra-Argumenten zieht die Behörde ein Fazit: Demnach sei der Schutz von Kindern und Jugendlichen komplex, und es bestünden „erhebliche Bedenken gegen vermeintlich einfache Lösungsvorschläge“. Insbesondere zu beachten seien „Fragen bezüglich der Umsetzbarkeit und der Reichweite eines Verbots“ sowie „unbeabsichtigte negative Folgen“.


BfDI: „keinesfalls“ undifferenzierte Altersgrenzen

Dezember 2025: Stellungnahme für den Thüringer Landtag

Wer ist das? Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) berät unter anderem die Bundesregierung bei Datenschutzgesetzgebung.

Was ist die Position? „Keinesfalls sollte undifferenziert für jedes soziale Medium in Gänze eine bestimmte Altersgrenze festgelegt werden“, schreibt Bundesdatenschutzbeauftragte Louisa Specht-Riemenschneider in einer Stellungnahme für den Thüringer Landtag. Kinder und Jugendliche hätten ein Recht auf soziale Teilhabe. Altersbeschränkungen müssten allenfalls risikobasiert sein. Aussehen könne das so: „Die Grundversion des Dienstes ist kinderfreundlich und für alle zugänglich. Erst wenn jemand eine Funktion anschalten oder einen Bereich besuchen möchte, der mit einem hohen Risiko verbunden ist, wird die Altersprüfung eingesetzt.“

Durchblick statt Schnellschüsse

Recherchen wie diese sind nur möglich durch eure Unterstützung.


Berliner Psychotherapeut*innen: mehrstufiger Schutz

Januar 2026: „Psychotherapeutenkammer warnt (…) und fordert wirksamen Schutz“

Wer ist das? Die Psychotherapeutenkammer Berlin vertritt die Interessen approbierter Psychotherapeut*innen in der deutschen Hauptstadt.

Was ist die Position? Die Therapeut*innen warnen vor Schäden für die psychische Gesundheit durch „Überkonsum von Plattformen wie Instagram, TikTok und YouTube“, auch wenn bisherige Studien keine Kausalitäten zeigen. Deshalb fordern sie ein Mindestalter und Kontrollen. „Datenschutzkonforme technische Verfahren müssen sicherstellen, dass Kinder unter einem festgesetzten Mindestalter nicht einfach Accounts erstellen“. Die Therapeut*innen fordern aber auch „sichere Voreinstellungen und Schutzmechanismen gegen exzessive Nutzung“.


Australian Psychological Society: Warnung vor Einsamkeit

November 2025: „Psychologists call for consideration for young Australians‘ mental health (…)“

Wer ist das? Die „Australian Psychological Society“ (APS) bezeichnet sich selbst als „führende Organisation“ für Psycholog*innen in Australien.

Was ist die Position? Im Vorfeld des australischen Social-Media-Verbots mahnten dortige Psycholog*innen zur Vorsicht. Zwar könnte die Maßnahme junge Menschen vor Risiken schützen. Aber ohne sinnvolle Alternativen könne der Entzug sozialer Medien eine Lücke in ihr soziales Leben reißen und Gefühle wie „Einsamkeit, Angst und Kummer“ erhöhen.


BAJ: Zugang sicher gestalten

Januar 2026: „Prävention schafft Schutz – pauschale Verbote nicht!“

Wer ist das? Die im Jahr 1951 gegründete Bundesarbeitsgemeinschaft Kinder- und Jugendschutz setzt sich „für ein gutes und gesundes Aufwachsen von Kindern und Jugendlichen“ ein.

Was ist die Position? Die BAJ ist gegen ein pauschales Nutzungsverbot von Social Media vor dem 16. Lebensjahr. Die zentrale Frage sei nicht, ob Minderjährige Zugang zu sozialen Netzwerken haben dürfen, sondern wie dieser Zugang gestaltet wird. Es gehe darum, dass Kinder und Jugendliche geschützt werden und sich entwickeln können. Wichtig sei es, Eltern zu unterstützen und bestehende Regeln durchzusetzen.


EKKJ: „vermeintliche Lösung für komplexes Problem“

November 2025: „Social Media: altersgerechter Zugang und Regeln statt Verbote“

Wer ist das? Die Eidgenössische Kommission für Kinder- und Jugendfragen ist eine staatliche Fachstelle aus der Schweiz, die Wissen für Bundesbehörden aufbereitet.

Was ist die Position? Aus Sicht der EKKJ sind „pauschale Verbote von Social Media für Kinder und Jugendliche nicht zielführend und nur eine vermeintliche Lösung für ein komplexes Problem“. Verbote seien bezüglich der negativen Folgen „weitgehend unwirksam“, so die Kommission weiter. „Gleichzeitig schränken sie positive und notwendige Lernprozesse ein, verhindern den Erwerb sinnvoller Kenntnisse und Kompetenzen und verunmöglichen wichtige Erfahrungen.“


Molly Rose Foundation: „Kinder brauchen Plattformen“

Januar 2025: „Joint statement (…) on a social media ban for under-16s“

Wer ist das? Die britische Molly Rose Foundation engagiert sich dafür, dass junge Menschen keinen Suizid begehen. Ihr Statement zum Social-Media-Verbot haben insgesamt 42 Organisationen unterzeichnet, darunter die 1884 gegründete britische Kinderschutzorganisation NSPCC.

Was ist die Position? „Gemeinsam glauben wir, dass Social-Media-Verbote die falsche Lösung sind“, halten die Unterzeichner*innen fest. Verbote würden dabei scheitern, Kindern Sicherheit zu bringen. Kinder, darunter queere und neurodivergente, bräuchten Plattformen für soziale Kontakte, Unterstützung durch Gleichgesinnte und vertrauenswürdige Hilfsangebote. Wenn Jugendliche die riskanten Plattformen dann mit 16 Jahren nutzen dürften, würden sie vor einer Klippe stehen.


Leopoldina: 13 Jahre als „verbindliches Mindestalter“

August 2025: „Soziale Medien und die psychische Gesundheit von Kindern und Jugendlichen“

Wer ist das? Die Leopoldina ist eine vom Bund und dem Land Sachsen-Anhalt finanzierte Gelehrtengesellschaft, die Politik und Öffentlichkeit beraten will.

Was ist die Position? „Strategien, die vorrangig auf Altersbeschränkungen setzen, greifen zu kurz“, schreiben die Forschenden. Dennoch empfehlen sie 13 Jahre als verbindliches Mindestalter für Social-Media-Accounts, pochen jedoch auf weitere Maßnahmen je nach Alter. Zudem kritisieren die Forschenden das „Prinzip der Aufmerksamkeitsökonomie“, also das Geschäftsmodell vieler populärer Plattformen. Das fördere „technologische Strategien zur Maximierung der Nutzerbindung“ und schaffe „gezielt suchtfördernde Strukturen“.


ÖAW: „Gefahr, dass das Ziel nicht erreicht wird“

Februar 2026: „Alterssperren auf Social-Media: Technische Grenzen und Möglichkeiten“

Wer ist das? Die Österreichische Akademie der Wissenschaften (ÖAW) ist eine 1847 gegründete Gelehrtengesellschaft aus Wien.

Was ist die Position? Das Institut für Technikfolgen-Abschätzung der ÖAW hat untersucht, wie sich ein Social-Media-Verbot durchsetzen ließe. Demnach könne Altersfeststellung im Internet „grundsätzlich Sinn machen“, es brauche aber eine breite gesellschaftliche Debatte. Weiter warnt die Studie vor der Gefahr, „dass trotz weitreichender Einschnitte für alle Internetnutzer:innen das Ziel, nämlich das eines besseren Schutzes von Minderjährigen, nicht erreicht wird“.


EDRi: Hürden werden umgangen

November 2025, „Why age verification misses the mark and puts everyone at risk“

Wer ist das? European Digital Rights (EDRi) ist der Dachverband von Organisationen für digitale Freiheitsrechte.

Was ist die Position? EDRi lehnt Social-Media-Verbote ab. Stattdessen plädiert der Verband dafür, die Ursachen für Gefahren im Netz zu bekämpfen. „Kinder brauchen und verdienen Online-Räume, in denen sie andere treffen können, Trost und Sicherheit finden, Ideen erproben und austauschen, Beziehungen aufbauen, lernen und spielen.“ Es sei sehr wahrscheinlich, dass junge Menschen Hürden umgehen.


Superrr: „Verbot ist Kurzschlussreaktion“

Februar 2025: „Nicht sehen, nicht sprechen, nicht hören“

Wer ist das? Superrr ist eine gemeinnützige Organisation, die sich für feministische Digital- und Technologiepolitik einsetzt.

Was ist die Position? „Ein Verbot ist eine Kurzschlussreaktion, die eine Auseinandersetzung mit den wirklichen Problemen verweigert“, hält Superrr fest. Wenn auf einer Straße viel Verkehr sei, laute die Lösung auch nicht, Kinder zu Hause einzuschließen. „Viel von dem, was als schädlich für Kinder beschrieben wird, schadet uns allen.“ Deshalb stellt Superrr die Frage nach einer digitalen Welt ,“die nicht nur aus uns und unserer Zeit Gewinn schlagen möchte“.


GMK: Verbot „greift langfristig zu kurz“

Dezember 2024: „Zum australischen Social-Media-Verbot aus medienpädagogischer Sicht“

Wer ist das? Die Gesellschaft für Medienpädagogik und Kommunikationskultur engagiert sich seit 1984 sich für Medienpädagogik und Medienkompetenz.

Was ist die Position? Ein Social-Media-Verbot könne kurzfristig attraktiv erscheinen, „greift jedoch langfristig zu kurz“, schreibt die GMK. Es würde weder die Bedürfnisse noch die Rechte von Kindern und Jugendlichen ausreichend berücksichtigen. Stattdessen brauche es unter anderem Hilfestellungen für Familien und Regulierung von Plattformen.


Stiftung Bildung: „Verbot schwächt Rechte junger Menschen“

Januar 2026: „Kinderrechte wahren, Medienkompetenz stärken, Teilhabe ermöglichen“

Wer ist das? Die Stiftung Bildung ist eine gemeinnützige Spendenorganisation, die sich für gute Bildung in Deutschland engagiert.

Was ist die Position? Die Stiftung spricht sich klar gegen ein Social-Media-Verbot nach australischem Vorbild aus. „Ein solches Verbot wird den komplexen Realitäten digitaler Lebenswelten nicht gerecht und schwächt langfristig die Rechte, die Resilienz und das Vertrauen junger Menschen“, schreibt die Organisation. Stattdessen brauche es einen Ansatz, der Schutz, Befähigung und Teilhabe verbinde.


Arbeiterwohlfahrt: „weder zielführend noch angemessen“

Januar 2026: „Gegen ein Social-Media-Verbot bis 16 Jahre“

Wer ist das? Die Arbeiterwohlfahrt (AWO) engagiert sich für eine sozial gerechtere Gesellschaft.

Was ist die Position? Die AWO lehnt ein generelles Social-Media-Verbot bis 16 Jahre ab und zweifelt, ob es rechtlich und technisch durchsetzbar wäre. Mit Blick auf betroffene Jugendliche sei das Verbot „weder zielführend noch angemessen“. Es gehe an der Alltagsrealität der meisten jungen Menschen vorbei und schränke Teilhabe ein. Stattdessen brauche es unter anderem Medienbildung und Sozialarbeit; außerdem müssten Plattformen ihre Angebote jugendgerecht gestalten.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Digital Services Act: Datenzugang ist kein Plattformprivileg, sondern ein Recht

Von: Gastbeitrag · Jakob Ohme, LK Seiling

Die EU-Kommission hat X ein Bußgeld auferlegt, weil der Datenzugang, den die Plattform Forschenden zur Verfügung stellt, nicht DSA-konform ist. Die Urteilsbegründung ist bemerkenswert: Forschung wird darin nicht länger nur als Beobachterin von Plattformmacht verstanden, sondern als aktiver Bestandteil regulatorischer Kontrolle.

Ein Astronaut, der im flachen Wasser steht, dahinter ein hell erleuchtetes Tor.
Forschende brauchen Zugang, um forschen zu können. – Gemeinfrei-ähnlich freigegeben durch unsplash.com KNXRT

Im Dezember vergangenen Jahres hat die Europäische Kommission erstmals ein Verfahren nach dem Gesetz über digitale Dienste (DSA) abgeschlossen. Sie kam dabei unter anderem zu dem Ergebnis, dass das von X bereitgestellte System, über das Wissenschaftler:innen an Nutzungsdaten gelangen sollen, nicht DSA-konform ist. Die Kommission verhängte eine Strafe von 120 Millionen Euro; X hat bis Anfang März Zeit, seine Plattform anzupassen. Der DSA ist das zentrale EU-Gesetz zur Regulierung großer Online-Plattformen und soll unter anderem Transparenz schaffen, Risiken für die öffentliche Meinungsbildung begrenzen und Forschung zu diesen Risiken ermöglichen.

Inzwischen liegt die Begründung der Kommissionsentscheidung vor. Am 28. Januar veröffentlichte der von Republikanern geführte Justizausschuss des US-Repräsentantenhauses ein Dokument der Europäischen Kommission, das die Gründe für ihre Entscheidung gegen X im Dezember darlegt. Es zeigt, wie die EU den DSA konkret durchsetzen will – und welche Rolle Datenzugang und wissenschaftliche Evidenz dabei spielen.

Die politisch motivierte Veröffentlichung und Einordnung durch den Justizausschuss, der im DSA vor allem europäische Zensurabsichten sieht, sind zwar fragwürdig. Sie ändern aber nichts an der inhaltlichen Bedeutung der Begründung selbst. Ein zentraler Bestandteil der Begründung betrifft Versäumnisse beim Gewähren von Datenzugang für Forschende nach Artikel 40(12) DSA. Dieser Datenzugang soll es ermöglichen, systemische Risiken für die EU zu erforschen – etwa Desinformation oder süchtigmachende Plattform-Designs.

Dass Plattformen diesen Zugang bislang häufig nicht freiwillig gewährten, war einer der Gründe für die Einführung des DSA. Aus dem Urteil liest sich, dass X nur knapp fünf Prozent der Anfragen von Wissenschaftler:innen genehmigt hat. Es handelt sich hier also um ein strukturelles Problem.

Enge Auslegung und Verzögerungstaktiken sind unzulässig

Die EU-Kommission stellt unmissverständlich klar, dass Plattformen das gesetzlich verankerte Recht auf Datenzugang nicht in ein von ihnen kontrolliertes Privileg umdeuten dürfen. X hatte Anträge systematisch abgelehnt, wenn Forschende nicht zweifelsfrei nachweisen konnten, dass die beantragten Daten ausschließlich der Erforschung systemischer Risiken dienen. Diese enge Auslegung widerspricht laut Kommission dem Zweck des Gesetzes. Forschende müssen nicht beweisen, dass man aus „Mehl, Butter und Eiern nur einen einzigen Kuchen backen kann“.

Erstmals wird zudem konkretisiert, was als unzulässige Verzögerung gilt: Eine Bearbeitungszeit von mehr als zwei Monaten ordnet die Kommission ausdrücklich als „undue delay“ ein – also als unerlaubteVerzögerung. Damit erhalten Forschende erstmals eine belastbare rechtliche Orientierung. Auch der Versuch, Datenzugang an Kosten, institutionelle Zugehörigkeit oder einen EU-Standort zu knüpfen, weist die Europäische Kommission zurück.

Scraping ist zulässig – auch ohne Plattformgenehmigung

Eine weitere wegweisende Klarstellung betrifft das Scraping, also das automatisierte Auslesen öffentlich zugänglicher Inhalte. Diese Zugangsform ist zentral, um Plattformdaten auch ohne Mitwirkung der Anbieter zu erheben und von Plattformen bereitgestellte Daten überprüfen zu können.

Die Kommission stellt klar, dass Forschenden dieses Recht zusteht, sofern sie die Kriterien aus Artikel 40(12) und 40(8) DSA erfüllen: Forschung zu systemischen Risiken, kein kommerzielles Interesse, transparenter Umgang mit Finanzierung und nachweisbare Datenschutz- sowie Sicherheitsmaßnahmen.

Plattformen dürfen Scraping nicht pauschal über ihre Nutzungsbedingungen untersagen, und eine vorherige Genehmigung ist nicht erforderlich – gerade weil hier die Gefahr eines „undue delay“ besteht.

Evidenz aus der Forschung hat Beweiswert

Besonders bemerkenswert ist, wie die Kommission mit der Frage der Evidenz umgeht. Sie weist die Vorstellung zurück, der Beweiswert müsse an akademische Seniorität, große Stichproben oder klassische Peer-Review-Formate gebunden sein. Entscheidend seien stattdessen methodische Sorgfalt und faktische Relevanz für den konkreten Fall.

In diesem Zusammenhang verweist die Begründung mehrfach auf den vom DSA40 Data Access Collaboratory am Weizenbaum-Institut betriebenen Data Access Tracker. Obwohl die Daten aus der wissenschaftlichen Community gesammelt wurden und keine Zufallsstichprobe darstellen, attestiert die Kommission der Erhebung ausdrücklich Beweiswert im juristischen Sinne. Auch ein von X kritisierter Preprint – ein noch nicht begutachteter Forschungsartikel – wird als relevante Evidenz anerkannt, nicht zuletzt, weil er später peer-reviewed veröffentlicht wurde.

Methodisch nachvollziehbare Forschung wird hier selbst zur Grundlage regulatorischer Durchsetzung.

Relevanz nicht nur für X

Politisch ist die Begründung der Kommission damit weit mehr als eine Einzelfallentscheidung gegen X. Sie markiert einen Meilenstein in der Durchsetzung des Digital Services Act: Forschung wird nicht länger nur als Beobachterin von Plattformmacht verstanden, sondern als aktiver Bestandteil regulatorischer Kontrolle.

Indem die Kommission methodisch nachvollziehbare Forschung ausdrücklich als rechtlich relevante Evidenz anerkennt und Plattformen klare Grenzen bei Verzögerung, Kosten und Zugangsbeschränkungen setzt, verschiebt sich das Machtgefüge zugunsten von Öffentlichkeit und Wissenschaft. Ob diese Standards künftig konsequent durchgesetzt werden und möglichen Klagen der Plattformen standhalten, wird entscheidend dafür sein, ob der DSA sein zentrales Versprechen einlösen kann: Plattformregulierung nicht nur auf dem Papier, sondern auf Basis überprüfbarer Beweise.

Dass diese Prinzipien nicht nur abstrakt gelten, sondern praktisch durchsetzbar sind, zeigt der jüngste Erfolg von Democracy Reporting International gegen X. Gerichte bestätigen zunehmend, dass Forschende ihren Anspruch auf Datenzugang aktiv einklagen können – und damit eine zentrale Rolle bei der demokratischen Kontrolle von Plattformen einnehmen.

Dr. Jakob Ohme leitet die Forschungsgruppe „Digital News Dynamics“ am Weizenbaum-Institut und untersucht dort die Rolle des digitalen Journalismus im Spannungsfeld von Influencern und Künstlicher Intelligenz. Er ist zudem Co-Principal Investigator im #DSA40 Collaboratory und arbeitet dort an kooperativen Modellen für den Zugang zu Plattformdaten im Rahmen des Digital Services Act der EU. LK Seiling ist Plattformforscher in der Forschungsgruppe „Digital News Dynamics“ am Weizenbaum-Institut und koordiniert die Arbeit des #DSA40 Collaboratory als Experte für Forschungsdatenzugang.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Digitale Gewalt: „Hass im Netz führt dazu, dass Frauen eher leise auftreten“

Von: Chris Köver

In ihrem neuen Buch „Feindbild Frau“ zeigt Ingrid Brodnig, wie Politiker*innen auf die systematischen Bedrohungen und Beleidigungen reagieren, die sie im Netz erleben. Im Interview spricht sie über dickes Fell, Durchsetzungslücken und Doppelstandards, die es Frauen schwer machen, sich dagegen zu wehren.

Mensch steht mit gekreuzten Armen vor einer Wand
Es ist leicht, ein dickes Fell einzufordern, wenn man nicht weiß, was Frauen im Netz erleben, sagt Journalistin Ingrid Brodnig. – Alle Rechte vorbehalten Gianmaria GAva

Ingrid Brodnig beobachtet seit Jahren die Debattenkultur im Netz, wenn man diese so bezeichnen kann. Die österreichische Journalistin hat sich spezialisiert auf Bücher und Beiträge zu Falschinformationen und digitaler Gewalt. Während der Corona-Pandemie galt sie als gefragte Expertin, um Verschwörungstheorien rund um die Pandemie einzuordnen. Noch länger beschäftigt sich Brodnig mit dem, was oftmals unter „Hass im Netz“ gefasst wird: Hetzkampagnen, gezielten Bedrohungen und Beleidigungen im digitalen Raum, die oft unterhalb der Schwelle zur Straftat liegen und doch große Wirkung entfalten.

Sechs Sachbücher hat Brodnig bislang veröffentlicht – unter anderem zu den Auswirkungen des Onlineseins auf die Gesellschaft, Falschnachrichten, Anonymität und zur Macht der großen Plattformen. Jetzt folgt ein weiteres. Für die Recherche hat sie mit Abgeordneten und Politikerinnen aus Deutschland und Österreich über ihre Erfahrungen mit Alltagsgewalt im Internet gesprochen, darunter Renate Künast und Anke Domscheit-Berg.

„Eine substanzielle Aufarbeitung erfolgt kaum“

netzpolitik.org: Dass Politikerinnen im Netz besonders häufig bedroht und massiv beleidigt werden, ist kein neues Phänomen. Warum greifen Sie das Thema erneut auf?

Ingrid Brodnig: Wir sehen diese Fälle in den Medien. Da geht es jedes Jahr um eine andere Person: Renate Künast, Ricarda Lang, Heidi Reichinnek. Eine substanzielle Aufarbeitung erfolgt aber kaum.

Wir beschäftigen uns kurz damit und freuen uns, dass Renate Künast einen juristischen Erfolg erzielt. Aber die Geschichte endet ja damit nicht.Ich wollte von den Politikerinnen erfahren: Wie erfahren sie die Anfeindungen? Und welche wiederkehrenden Muster lassen sich darin erkennen?

netzpolitik.org: Was haben Sie erfahren?

Ingrid Brodnig: Ich mache das an einem Beispiel fest. Vor ein paar Jahren gab es eine schreckliche Massenvergewaltigung in einem Bus in Indien, die Frau starb. Zu dieser Zeit schrieb jemand auf Twitter einer Politikerin, er würde ihr gerne eine Busfahrt durch Indien spendieren.

Das ist eine verklausulierte Vergewaltigungsdrohung, die aus juristischer Sicht womöglich nicht als Vergewaltigungsdrohung eingestuft wird. Denn es wird keine Absicht formuliert im Sinne von: „Ich werde dich vergewaltigen.“ Die Frau sagte dazu: Es macht keinen Unterschied, ob das verklausuliert ist oder nicht, der Effekt ist der gleiche. Das reicht bis hin zu körperlichen Folgen, Herzzustände, Schlaflosigkeit, Zittern plötzlich vor einem TV-Auftritt.

netzpolitik.org: Sie wollen, dass die Menschen so mehr über die Folgen der Gewalt erfahren?

Ingrid Brodnig: Es gibt ein großes Bewusstsein dafür, dass Hass im Netz gegen Frauen existiert, aber die Debatte verpufft schnell an dieser Erkenntnis. Wenn man diese digitale Gewalt genauer beschreibt, dann wird viel klarer, was die Betroffenen erleben und was es auslöst.

„Es ist schlimmer geworden in den vergangenen 10 Jahren“

netzpolitik.org: Sie haben bereits vor zehn Jahren ein Buch mit dem Titel “Hass im Netz” geschrieben, das sich auch mit der Gewalt gegen Politikerinnen befasst. Was hat sich seitdem verändert?

Ingrid Brodnig: Es ist schlimmer geworden. Ich habe zur Vorbereitung das alte Buch nochmal zur Hand genommen und gemerkt: Vieles darin würde ich heute nicht einmal mehr zitieren, weil es mir zu harmlos erscheint.

Es gab eine Verrohung und auch Zermürbung in diesen zehn Jahren. Wir haben uns als Gesellschaft an vieles gewöhnt. Was vor zehn Jahren noch für eine aufgeregte Offline-Debatte gesorgt hätte, empfinden wir heute schon als Business as Usual.

Gleichzeitig haben auch die Plattformen wesentliche Rückschritte gemacht. Dort konnte man eine Phase des Einlenkens beobachten, speziell nach der US-Präsidentschaftswahl im Jahr 2016. Damals wurde klar, wie stark Facebook und andere Plattformen für Propaganda genutzt wurden. Auch die EU schaute streng auf die Plattformen.

Dieser Eindruck ist mit der Wiederwahl von Donald Trump komplett gekippt. Meta hat seine Richtlinien in vielen Punkten aufgeweicht. Formen der Beleidigung und Herabwürdigung gegen Frauen oder LGBTIQ-Personen sind jetzt explizit erlaubt. Man darf LGBTIQ-Personen auf Facebook und Instagram jetzt als “psychisch krank oder anormal” bezeichnen.

„Frausein an sich ist eine Gefahr“

netzpolitik.org: Sie schreiben, die Erfahrungen dieser Politiker*innen seien für sie ein Symbol für den Zustand der Demokratie. Was meinen sie damit?

Ingrid Brodnig: Ich habe zehn Typen von wiederkehrenden geschlechtsspezifischen Beleidigungen und Bedrohungen herausgearbeitet. Ein Typus besteht in der Abwertung, die auf einer sexuellen Verwertungslogik basiert. Das wäre so ein Kommentar wie: “Niemand will dich ficken.” Frauen stehen also besonders im Fokus.

Politikerinnen sind Frauen und sie sind sehr sichtbar. Beides ist eine Gefahrensituation im Internet. Mit Sichtbarkeit steigt die Wahrscheinlichkeit, dass Communitys auf mich aufmerksam werden, die für gänzlich andere Werte eintreten oder an mir ein Exempel statuieren wollen.

Und Frausein an sich ist eine Gefahr, weil wir eine sehr starke maskulinistische Szene im Netz haben, deren Mitglieder moderne, selbstbewusste Frauen als zentrales Problem ansehen.

Demokratie baut darauf auf, dass die unterschiedlichsten Bevölkerungsgruppen gleichwertig an der politischen Debatte teilhaben können. Das wurde hart erkämpft. Ich glaube, dass derzeit die Gefahr besteht, dass wir hier auf verschiedenen Ebenen Rückschritte machen.

netzpolitik.org: Ein gängiger Einwand lautet, wer in der Öffentlichkeit steht, müsse eben mehr aushalten, auch wenn es mal unfair zugeht.

Ingrid Brodnig: Renate Künast sagte zu mir, als Politikerin hätten die meisten ein bisschen Hornhaut auf der Seele. Für ihr Team seien die Hasskommentare gegen sie anfangs schwerer auszuhalten gewesen als für sie selbst.

Mir macht das Sorge, wenn Menschen in öffentlichen Debatten in einer Demokratie Hornhaut auf der Seele brauchen, um hier überhaupt mitmachen zu können. Es ist immer leichter, eine solche dicke Haut einzufordern, wenn man nicht weiß, was Menschen erleben. Und bei Frauen ist der Verdacht natürlich besonders groß, dass sie einfach zu feinfühlig seien.

Das fehlt beim Schutz vor digitaler Gewalt

netzpolitik.org: Ziehen Frauen sich tatsächlich schneller zurück nach solchen Erfahrungen?

Ingrid Brodnig: Hass im Netz führt tatsächlich dazu, dass Frauen eher leise auftreten oder gar verstummen. 42 Prozent der Frauen, die hasserfüllte Kommentare erhalten, werden vorsichtiger beim Formulieren ihrer Meinung. Bei Männern sind es 16 Prozent, ergab eine norwegische Studie. Das ist ein demokratisches Alarmsignal!

Aber das bedeutet nicht, das Frauen zu schwach sind. Alle Geschlechter erleben digitale Gewalt. Und in jedem einzelnen Fall ist das falsch.

Bei Frauen gibt es allerdings diese spezielle sexualisierte Komponente. Und die hat zum einen eine besonders einschüchternde Wirkung. Zum anderen bekommen Frauen von klein auf gesagt, sie müssten sich vor Gefahren schützen. Es ist oft Teil ihrer Sozialisation, dass sie lernen, den Raum lieber zu verlassen, als zu riskieren, dass die Situation sich weiter zuspitzt.

„Wir haben eine Zweiklassensituation“

netzpolitik.org: In Deutschland wird seit Jahren über Ansätze debattiert, um die Rechte von Betroffene zu stärken. Das Bundesjustizministerium arbeitet an einem „digitalen Gewaltschutzgesetz“. Betroffene sollen damit leichter auf dem Privatklageweg erfahren, wer hinter einem anonymen Account steckt. Was halten Sie davon?

Ingrid Brodnig: Das erscheint mir sinnvoll. Derzeit sind sehr häufig die Kosten einer Privatklage ein hohes Hindernis. Wir haben eine Zweiklassensituation, wo diejenigen, die es sich leisten können, leichter gegen digitale Gewalt vorgehen können als andere. Alles, was dazu beiträgt, das Kostenhindernis zu verringern, ist gut.

netzpolitik.org: Die Pläne für das Gesetz sehen außerdem vor, dass Accounts künftig nach wiederholten Rechtsverletzungen per Gerichtsbeschluss gesperrt werden. Ist das angemessen?

Ingrid Brodnig: Wir müssen eine Lösung finden für Personen, die fortwährend andere Menschen verletzen oder falsche Informationen verbreiten. Wir müssen dann aber auch die Frage nach der Resozialisierung stellen. Wann wird einem Menschen beispielsweise wieder zugesprochen, dass er oder sie wieder posten darf? Bei vielen dieser Nachschärfungen gilt: Der Teufel liegt im Detail. Es bleibt Feinstarbeit.

„Die EU präsentiert sich gerne als Champions der digitalen Grundrechte“

netzpolitik.org: Auf EU-Ebene soll seit 2024 der Digital Services Act die Rechte von Nutzer*innen auf den großen Plattformen stärken. Meta, TikTok und Co. müssen etwa Meldeverfahren anbieten, die “leicht zugänglich und benutzerfreundlich” sind. Hat das zu einer Verbesserung beigetragen?

Ingrid Brodnig: Ohne den Digital Services Act wären wir derzeit sicher schlechter dran in Zeiten, in denen die großen Tech-Plattformen den Schulterschluss mit der Trump-Regierung üben. Der DSA ermöglicht es, hohe Geldbußen zu verhängen, wenn Unternehmen systemisch Risiken ignorieren oder Meldefunktionen fehlen. Aber diese Regeln müssen auch durchgesetzt werden. Bisher gab es aber nur eine negative Entscheidung aus Sicht der Plattformen, nämlich die 120 Millionen Euro Geldbuße für X.

Die EU-Kommission und die EU als Ganzes präsentieren sich gerne als Champions der digitalen Grundrechte. Und auf dem Papier hat die EU auch gute Regeln geschaffen. Aber erst die nächsten ein, zwei Jahre werden zeigen, ob sie dieses Versprechen auch einlöst. Ob ich genügend geschützt werde, wenn Falsches über mich verbreitet wird, wenn ich fertig gemacht werde, wenn ich eingeschränkt werde.

Kann die EU-Kommission die großen Plattformen kontrollieren? Kann sie potenziell rechtswidrige Kommentare auch ernsthaft und rasch prüfen? Und kann sie genügend gegen systemische Risiken unternehmen? An all diesen Fragen wird sich zeigen, wie mutig und selbstbewusst die EU auftritt – auch und gerade gegen die Konzerne in den USA.

„Jede einzelne Anzeige, die leichter erfolgt, ist schon ein Fortschritt“

netzpolitik.org: Was könnte die Bundesregierung konkret tun, um die von Ihnen beschriebene Gewalt einzudämmen?

Ingrid Brodnig: Ich sehe einige konkrete Stellschrauben. Deutschland kann als Staat einige Rechtslücken schließen oder bürokratische Hürden nehmen. Zum Beispiel die Kostenreduktion. Oder auch bildbasierte digitale Gewalt stärker ahnden, zum Beispiel sexualisierte Deepfakes. Das löst das Problem nicht als Ganzes. Aber jede einzelne Anzeige, die leichter erfolgt, ist schon ein Fortschritt. Und die Regierung muss auf europäischer Ebene den Druck erhöhen, damit die eigentlich sinnvollen Regeln auch umgesetzt werden.

netzpolitik.org: Was können Einzelpersonen in dieser Situation beitragen?

Ingrid Brodnig: In der Tat, es gibt eine dritte Ebene: die Persönliche. Ich habe auch mit der Psychotherapeutin und Psychologin Dorothee Scholz gesprochen, die mit Betroffenen digitaler Gewalt zusammenarbeitet. Aus ihrer Sicht kann es die Weltwahrnehmung sehr verändern, wenn Menschen den ganzen Tag nur Hasskommentare lesen.

Das heißt aber auch: Ich kann den Betroffenen solcher Vorfälle schreiben – öffentlich oder privat – und ihnen sagen: Das hast du nicht verdient, lass dich nicht unterkriegen oder du leistest wichtige Arbeit. Auch das hilft.

Feindbild Frau. Wie Politikerinnen im Netz bedroht, beleidigt und verdrängt werden – und was wir alle dagegen tun können“ von Ingrid Brodnig erscheint am 25. Februar 2026 im Brandstätter Verlag. Die Autorin hält am 23.2. und am 16.3. Lesungen in Wien sowie am 26.2. eine Lesung in Berlin.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Kinderähnliche Sexpuppen und süchtig machendes Design: EU eröffnet Verfahren gegen Shein

Von: Laura Jaruszewski

Nach Temu ermittelt die EU-Kommission nun auch gegen einen zweiten Online-Händler aus China. Die Fast-Fashion-Plattform Shein unternimmt vermutlich zu wenig gegen die Risiken, denen sie ihre Nutzer*innen aussetzt. Zur Debatte stehen gleich mehrere Verstöße gegen den Digital Services Act.

Die App Shein wird im App Store angezeigt.
Der Online-Händler Shein hat nicht nur Kleidung, sondern auch illegale Waren verkauft. – Alle Rechte vorbehalten IMAGO / imagebroker

Mit dem Digital Services Act (DSA) verpflichtet die EU sehr große Online-Plattformen, Risiken ihrer Angebote zu identifizieren und zu beheben. Weil der chinesische Fast-Fashion-Händler Shein diesen Vorgaben möglicherweise nicht ausreichend nachgekommen ist, hat die EU-Kommission nun ein Verfahren gegen das Unternehmen eröffnet. Das teilte sie am heutigen zweijährigen Geburtstag der EU-Verordnung über digitale Dienste mit.

Die Shopping-Plattform soll monatlich etwa 126 Millionen aktive Nutzer*innen in der EU haben. Seit Juni 2024 hatte die Kommission mehrfach Informationen von Shein angefragt. Die Entscheidung, eine Untersuchung einzuleiten, basiert auf diesen Auskunftsersuchen, auf einer vorläufigen Analyse der von Shein vorgelegten Risikobewertungsberichte und auf Einschätzungen dritter Parteien.

In Frankreich hatte sich im letzten Jahr bereits Widerstand gegen den Online-Händler geregt, jedoch war die französische Regierung mit dem Versuch gescheitert, die Plattform für drei Monate zu sperren.

„Illegale Produkte sind verboten“

Die Kommission attestiert dem Konzern Handlungsbedarf in drei Bereichen. An erster Stelle steht der Verkauf illegaler Waren, wegen dem der Fast-Fashion-Händler in der Vergangenheit bereits in Kritik stand. Zum Beispiel konnten genehmigungspflichtigen Waffen oder kinderähnliche Sexpuppen auf dem Marktplatz erworben werden.

Bei der Untersuchung geht es jedoch nicht darum, dass die EU gezielt den Verkauf einzelner Produktgruppen kontrollieren will. Vielmehr will sie dafür sorgen, dass die Plattform selbst ihre Systeme so gestaltet, dass Risiken minimiert werden. Konkret muss Shein also dafür sorgen, dass auf dem Marktplatz keine illegalen Waren gehandelt werden können.

„In der EU sind illegale Produkte verboten – egal, ob sie im Ladenregal oder auf einem Online-Marktplatz angeboten werden“, so EU-Kommissionsvizepräsidentin Henna Virkkunen zu dem Verfahren. „Der Digital Services Act schützt die Sicherheit und das Wohlergehen von Käufern und versorgt sie mit Informationen über die Algorithmen, mit denen sie interagieren.“

Ein zweiter Kritikpunkt betrifft mutmaßlich süchtig machendes Design des Online-Händlers. Er vergibt unter anderem Verbraucherpunkte oder Belohnungen für Engagement auf der Plattform. Das könne Suchtpotenzial entwickeln, welches sich negativ auf das Wohlbefinden der Nutzer*innen und den Verbraucherschutz im Internet auswirkt.

Außerdem kritisiert die Kommission mangelnde Transparenz des algorithmischen Empfehlungssystems von Shein. Dieses muss nach dem DSA zudem so gestaltet sein, dass sich Nutzer*innen optional für ein nicht-personalisiertes Empfehlungssystem entscheiden können.

EU ermittelt auch gegen Temu

Shein ist die zweite sehr große Plattform im Bereich Online-Handel, gegen die eine Untersuchung wegen süchtig machender Designpraktiken besteht. Bereits im Jahr 2024 hatte die EU-Kommission aus den gleichen Gründen ein Verfahren gegen Temu eröffnet.

Sollte die Kommission im Zuge der formalen Untersuchung zu einer Nichteinhaltungsentscheidung kommen, also einen tatsächlichen Verstoß gegen den DSA feststellen, kann sie zum Beispiel Bußgelder gegen das Unternehmen verhängen. Bis dahin ist es der Online-Plattform aber möglich, auf Forderungen zu reagieren und Anpassungen vorzunehmen. Wann es zu einer Entscheidung in dem Verfahren kommt, bleibt jedoch offen, denn der DSA schreibt hierfür keine Frist vor.

Der Online-Händler zeigt sich nach Angaben von Zeit.de bisher kooperationswillig: „Wir teilen das Ziel der Kommission, eine sichere und vertrauenswürdige Online-Umgebung zu gewährleisten, und werden uns weiterhin konstruktiv an diesem Verfahren beteiligen.“ Bei altersbeschränkten Produkten habe man bereits weitere Sicherheitsvorkehrungen ergriffen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Geschichten aus dem DSC-Beirat: Leicht lädiert am zweiten Geburtstag

Von: Svea Windwehr

Seit zwei Jahren gelten neue Regeln für Plattformen in der EU. Die haben schon kleine Fortschritte bewirkt und machen Hoffnung. Aber um sie wirksam durchzusetzen, ist noch viel zu tun.

Ein bunter Kuchen auf dem eine Kerze in Form der Ziffer "2" steht.
2 Jahre Digital Services Act, Grund zum Gratulieren? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Kelly Sikkema

Der DSC-Beirat ist ein Gremium aus Zivilgesellschaft, Forschung und Wirtschaft. Er soll in Deutschland die Durchsetzung des Digital Services Act begleiten und den zuständigen Digital Services Coordinator unterstützen. Svea Windwehr ist Mitglied des Beirats und berichtet in dieser Kolumne regelmäßig aus den Sitzungen.

Seit dem 17. Februar 2024, also seit genau zwei Jahren, gilt in der EU der Digital Services Act. Das Regelwerk soll Nutzende schützen und mehr Transparenz und Fairness gegenüber Online-Plattformen und -Diensten schaffen. Gibt es etwas zu feiern?

Die Bilanz ist gemischt: Ein erstes Verfahren gegen X wurde zum Abschluss gebracht, viele andere Ermittlungen laufen noch. Die Rahmenbedingungen für Forschungsdatenzugang stehen endlich, in der Praxis gibt es aber noch massive Probleme. Zivilgesellschaft und Forschende haben unzählige Verfahren angestoßen und liefern wichtige Evidenz zu DSA-Verstößen, sind jedoch Repression und Delegitimierung ausgesetzt.

Pünktlich zum Geburtstag hat sich der neu berufene DSC-Beirat in neuer, kleinerer Konstellation zu seiner ersten gemeinsamen Sitzung getroffen und sich mit dem Stand der DSA-Durchsetzung beschäftigt. Der Beirat ist im Vergleich zu seiner letzten Besetzung geschrumpft, da die vier Vorschläge der AfD im Plenum des Deutschen Bundestages keine Mehrheit fanden. Deshalb und wegen der christ-demokratischen Definition von Zivilgesellschaft ist insbesondere von deren gesetzlich angedachter Stärke im Beirat des DSC nicht viel übrig geblieben.

Fortschritt in kleinen Schritten

Bei der Durchsetzung des DSA geht es nach wie vor oft schleppend voran. Der Koordinator für Digitale Dienste in Deutschland prüft noch, ob weitere außergerichtliche Streitbeilegungsstellen und Trusted Flagger zugelassen werden sollen. Während die Streitbeilegungsstellen etwa bei strittigen Moderationsentscheidungen zwischen Nutzer:innen und Plattformen vermitteln sollen, agieren die Trusted Flagger als vertrauenswürdige Hinweisgeber, deren Meldungen die Plattformen priorisiert bearbeiten sollen. Aktuell gibt es in Deutschland vier Organisationen, die als Trusted Flagger anerkannt sind, sowie zwei Streitbeilegungsstellen.

Von inzwischen insgesamt 30 durch den DSC eingeleiteten Verwaltungsverfahren gegen in Deutschland ansässige Plattformen wegen DSA-Verstößen scheint noch keines zum Abschluss gekommen zu sein. Und auch auf europäischer Ebene wurde seit der Verhängung eines Bußgelds gegen X im Dezember 2025 kein weiteres Verfahren zu Ende gebracht.

Immerhin kleine Fortschritte gibt es beim Datenzugang für Forschende. Nachdem detaillierte Hinweise, wie genau der Datenzugang ausgestaltet werden soll, Ende Oktober 2025 endlich in Kraft getreten sind, können Forschende Anträge auf Datenzugang bei ihren nationalen Aufsichtsbehörden stellen. Über dieses durch den DSA neu geschaffene Recht können sie zum ersten Mal qualitative und quantitative Daten von Plattformen anfragen, um systemische Risiken zu erforschen. Damit schafft der DSA längst überfällige Rahmenbedingungen, die unabhängige Forschung und ein besseres Verständnis von Online-Plattformen ermöglichen sollen – und potenziell wichtige Grundlagen für Durchsetzungsverfahren schaffen können.

Beim deutschen DSC sind seitdem immerhin neun Anträge auf Datenzugang eingegangen. Das klingt vielversprechend, allerdings wurden die meisten der neun Anträge wieder zurückgezogen, da die benötigten Daten auch über den niedrigschwelligeren Datenzugang über Schnittstellen der Plattformen angefragt werden konnten. Diese Möglichkeit, Daten über APIs anzufragen, funktioniert in der Praxis je nach Plattform durchwachsen bis schlecht – mangelnder Zugang zu Forschungsdaten ist einer der DSA-Verstöße, die zum Bußgeld gegen X beigetragen haben. Die Gesellschaft für Freiheitsrechte und Democracy Reporting International haben X kürzlich zum zweiten Mal deswegen verklagt.

Es ist also noch zu früh, um sich über große Durchbrüche beim Datenzugang zu freuen, aber immerhin können Forschende jetzt das System ausprobieren, Anträge stellen und auf Durchsetzung pochen, wenn die Plattformen sich weigern.

Ebenfalls hoffnungsvoll stimmen die kürzlich veröffentlichten vorläufigen Ergebnisse zu einem Verfahren gegen TikTok. Dort kommt die Europäische Kommission zu dem Schluss, dass die Videoplattform nicht genug getan hat, um Risiken von suchtfördernden Mechanismen insbesondere für Minderjährige zu mindern, beispielsweise endlose Feeds und hoch-personalisierte Empfehlungen. Das ist spannend, weil die Kommission davon ausgeht, dass TikTok das „grundlegende Design“ der Plattform ändern muss, um diesen Risiken beizukommen.

Sollte die Kommission bei dieser Einschätzung bleiben und nach Abschluss des Verfahrens Bußgelder gegen TikTok verhängen, hätte der Fall Auswirkungen weit über TikTok hinaus: Endlose Feeds und hoch-personalisierte Empfehlungen sind Kernelemente aller großen sozialen Netzwerke und Videosharingplattformen. Hier zeigt der DSA sein Potenzial, einerseits strukturelle Änderungen zu erstreiten, die das Businessmodell der Plattformen direkt betreffen. Das könnte zu anderen und besseren digitalen Räumen führen .

Andererseits zeigt die Argumentation, dass der DSA sinnvolle Werkzeuge bietet, um den Features und Plattform-Praktiken zu begegnen, die in der Debatte um Verbote von sozialen Medien für Kinder und Jugendliche im Fokus stehen: süchtigmachendes Design, Personalisierung basierend auf Unmengen persönlicher Daten, Produktdesign, das die Rechte und Interessen von Kindern wahrt.

Ein solches Verbot wurde Anfang Februar von Spaniens Premierminister Pedro Sanchez angekündigt, wofür er prompt von Elon Musk als Tyrann und Verräter Spaniens betitelt wurde. Daraufhin solidarisierte sich die Europäische Kommission mit Sanchez, während sie gleichzeitig festhielt, dass nur die Europäische Kommission durch den DSA weitere Verpflichtungen gegenüber sehr großen Online-Plattformen aussprechen darf. Angesichts des Eifers von Mitgliedstaaten wie Spanien, Italien, Griechenland, Frankreich und den Niederlanden bleibt abzuwarten, ob sich EU-Regierungen diesem Machtwort aus Brüssel beugen werden. Ob es also europäische Verboten von sozialen Medien geben wird, ist nach wie vor unklar.

Keine Durchsetzung ohne Repression

Solidarisch hatte sich die Europäische Kommission Ende Dezember auch gegenüber Mitgliedern eines angeblichen „globalen Zensur-industriellen Komplexes“ gezeigt, nachdem sie vom US-Außenministerium mit Visa-Sanktionen belegt worden waren, unter ihnen die beiden Geschäftsführerinnen von HateAid. HateAid ist eine der Organisationen, die als Trusted Flagger in Deutschland zugelassen sind.

Mit diesen Sanktionen markiert die Trump-Regierung Menschen als politische Feinde, die Online-Plattformen für Verstöße gegen geltendes Recht zur Verantwortung ziehen, bestraft sie und versucht, sie an ihrer Arbeit zu hindern.

Seit den Sanktionen gegen Zivilgesellschaft und Forschende vom Dezember hat ein neuer Bericht des Rechtsausschusses des US-Abgeordnetenhauses die Situation weiter verschärft. Die Beschäftigung des Ausschusses mit dem DSA ist getrieben von Jim Jordan, einem republikanischen Abgeordneten, der seit Jahren damit beschäftigt ist, die angebliche Zensur von US-Amerikaner:innen durch den DSA zu beweisen.

Auf 160 Seiten breitet der Bericht Jordans wirre Fantasie aus, dass die Europäische Kommission, unterstützt von der europäischen Zivilgesellschaft, nur ein Ziel mit dem DSA verfolge: die Unterdrückung konservativer, US-amerikanischer Stimmen. Dabei stützt sich der Bericht auf massenweise E-Mails, Screenshots und Dokumente, die Jordan durch Herausgabeverlangen von US-Plattformen bekam – wogegen sich Plattformen offensichtlich nicht oder kaum gewehrt haben.

Der Jordan-Bericht stellt jedoch nicht nur eine Reihe von Falschbehauptungen auf, sondern identifiziert und markiert auch eine ganze Reihe von Kommissionsmitarbeitenden und Vertreter:innen der Zivilgesellschaft, die an Workshops der Kommission zur DSA-Durchsetzung teilnahmen oder anderweitig an der Durchsetzung des DSA beteiligt sind. Ein gefundenes Fressen für jene Kräfte, die genau diese Arbeit verhindern wollen.

Die Repressionen gegen HateAid und Co. werden also wahrscheinlich nicht die letzten gegen Menschen und Organisationen gewesen sein, die sich um die Durchsetzung des DSA bemühen. Auf Seite der Behörden scheint man auch nach dem Shitstorm um Trusted Flagger und der Demontage des Stanford Internet Institute auf Druck rechtskonservativer Politiker kaum auf solche Szenarien vorbereitet sein – um nur zwei Beispiele zu nennen, in denen rhetorische Delegitimierungen durch rechte Akteure zu Einschüchterung, Gefahren für Einzelpersonen und dem Verlust von institutionellen Strukturen geführt haben.

Aufsichtsbehörden, Politik und die Kommission sind jetzt gefragt, nicht nur ihre Solidarität auszudrücken, sondern konkrete Maßnahmen zum Schutz von Zivilgesellschaft und Forschung zu ergreifen. Dabei darf aber nicht nur in die USA geschaut werden: Auch in Deutschland und anderen Mitgliedstaaten setzen konservative und rechte Kräfte die Zivilgesellschaft immer stärker unter Druck. Vom Anti-NGO-Kurs der Union über die Gemeinnützigkeitsdebatte und Kontoschließungen linker Organisationen bis zu physischen Angriffen gegen Aktivist:innen – wenn es der Politik ernst damit ist, zivilgesellschaftliche Arbeit zu schützen, darf sie nicht zwischen politisch genehmen und unbequemen Organisationen unterscheiden.

Ein ganzheitlicher Ansatz muss her: nachhaltige und großzügige Finanzierung, rechtliche Absicherung und vor allem eine Regierungspartei, die versteht, dass die Delegitimierung von NGOs letztlich nur einer Seite hilft – den Feinden demokratischer und offener Gesellschaften.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Social-Media-Debatte: Ursachenbekämpfung statt Verbote

Von: Laura Jaruszewski

In Los Angeles stehen Meta und Google vor Gericht, in der EU muss TikTok nachschärfen. In beiden Fällen geht es um ihr süchtig machendes Design. Das verweist auf einen besseren Weg im Kinder- und Jugendschutz: Ursachenbekämpfung statt Verbote. Ein Kommentar.

Auf einer Wand sind Like-Symbole, ein Herz und ein Smiley, wie sie bei Social Media aussehen, gesprüht.
Es braucht etwas anderes, um Kinder zu schützen. Und Erwachsene auch. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Foto von George Pagan III auf Unsplash

„Ich male mir die Welt, so wie sie mir gefällt.“ – Das gelingt den Plattformbetreibern hinter Instagram, Youtube, Snapchat oder TikTok bisher ganz gut. Das in Los Angeles eröffnete Verfahren könnte an diesem Prinzip jedoch rütteln und zeigen, dass es etwas anderes als ein Verbot für Jugendliche braucht, um die negativen Effekte sozialer Medien zu reduzieren.

Die 20-jährige Hauptklägerin will Meta und Google für ihr süchtig machendes Design zur Verantwortung ziehen. Vor Gericht gibt sie an, seit über zehn Jahren von sozialen Medien abhängig zu sein – einem Effekt, dem sich die Unternehmen laut interner Dokumente bewusst waren. Und wenn man ehrlich ist: Es ist ein Effekt, den die kommerziellen Plattformen wollen, damit sich die Aufenthaltszeit auf Plattformen verlängert, sie mehr Werbung an die Nutzer*innen abspielen und so mehr Gewinne einfahren können.

Wenn in den USA eine Person vor Gericht geht, deren Generation bisher am frühesten in der digitalen Welt aufgewachsen ist, führt das unweigerlich zu der Frage, wie für diese und nachfolgende Generationen eine bessere und andere Version von sozialen Medien aussehen könnte. Denn ob mit dem Verfahren letztlich ein Präzedenzfall geschaffen werden kann oder nicht – der Prozess stärkt eine andere Stoßrichtung als das derzeit heiß diskutierte Social-Media-Verbot.

Ein Verbot ist die falsche Antwort

Von einem Verbot sozialer Medien für junge Menschen werden viele negative Effekte erwartet: Für Minderheiten oder vulnerable Gruppen fällt ein Kanal zur Vernetzung und Gemeinschaftsbildung weg, ebenso ein Kanal zur Information, Menschen ohne Papiere könnten ganz ausgeschlossen sein und auf Kinder und Jugendliche entfallen die Folgen je nach Familiensituation und Wohnort ungleich.

Diese Nebeneffekte müssten weniger ins Gewicht fallen, wenn unterm Strich auf den Plattformen und ohne Verbot das ursprüngliche Ziel erreicht werden würde: Schutz von Kindern und Jugendlichen vor digitalem Missbrauch, vor Mobbing sowie übermäßigem Konsum und Sucht.

Ein Blick nach Australien zeigt, dass Verbote einerseits löchrig bleiben und andererseits große Risiken für Privatsphäre und Datenschutz bergen. Wie die australische Regierung erwartet hatte, finden Jugendliche einfach Schlupflöcher, das Verbot zu umgehen. Sie ändern ihren Standort über VPN-Verbindungen, legen sich neue Accounts an, wechseln auf nicht betroffene Apps oder nutzen Accounts von älteren Personen. Mit KI-generierten Bildern, Ausweisen von Älteren oder durch einfaches Stirnrunzeln bestehen sie Altersabfragen, die jetzt zur Architektur von Plattformen dazugehören.

Sollte die australische Regierung an diesen Stellen nachschärfen, bleiben Alterskontrollen aus datenschutzrechtlicher Perspektive trotzdem bedenklich. Ein vorab durchgeführtes Gutachten verzeichnet massive Bedenken, wie erhobene Daten gesammelt und an Behörden weitergegeben werden könnten. Das ist der eine Fall. Der andere Fall ist auch datenschutzrechtlich problematisch, wenn personenbezogene Daten aus Alterskontrollen an Drittanbieter weitergegeben werden, wie der Fall von Discord deutlicht.

Plattformen in die Pflicht nehmen statt Probleme in die Zukunft verlagern

Der Medienrechtler Stephan Dreyer erwartet, dass ein EU-Verbot den Jugendschutz auf sozialen Plattformen verschlechtern würde, wie er gegenüber netzpolitik.org darlegte.

Dazu kommt: Soziale Medien sind allgegenwärtiger Teil des Lebens auf der ganzen Welt. Haben Jugendliche die magische Grenze von 16 Jahren überschritten, sind sie zusammen mit den Älteren weiterhin endlosen Feeds, manipulativem Design, personalisierten Empfehlungssystemen und Dopamin-Kicks ausgesetzt. Statt „Cybergrooming“ heißt die Gefahr dann „digitale Gewalt“, wie der Grok-Skandal gerade deutlich vor Augen geführt hat.

Und warum eigentlich nur Jugendliche? Sind nicht auch gestandene Mittvierziger dem suchtmachenden Design der Plattformen verfallen und geraten nicht auch Boomerinnen in den Strudel, der sie in den verschwörungsideologischen Kaninchenbau zieht? Werden nicht uns allen polarisierende Inhalte von intransparenten Algorithmen gezeigt, damit wir möglichst lange mit den Plattformen interagieren und sie uns mit personalisierter Werbung zuballern können.

Bessere Plattformen für alle

Ein Verbot für Jugendliche macht die Plattformen nicht besser. Anstatt Plattformen zur Umsetzung von Alterskontrollen zu zwingen und junge Menschen auszuschließen, müssen die Plattformen zu einer anderen Architektur verpflichtet werden. Fairness by Design und by Default nennt sich der Ansatz, der digitale Plattformen dazu verpflichtet, ihre Webseiten und Apps nutzerfreundlich und manipulationsfrei zu gestalten. Die EU ist gegenüber TikTok einen Schritt gegangen, aber die Liste an manipulativen Techniken ist lang.

Ein Verbot ist letztlich eine platte und hilflose Maßnahme. Es erinnert an überforderte Eltern, die den Kindern das Handy wegnehmen, weil sie nicht weiterwissen. Dabei könnten auch die Verbotsbefürworter*innen beim Ansatz Fairness by Design auf ihre Kosten kommen. Er wäre einer von mehreren Ansätzen, die Plattformen nachhaltig zu verändern. Und es gibt Gesetzgebungen wie das Digitale-Dienste-Gesetz oder wie das geplante Gesetz für digitale Fairness, mit denen man Plattformen verändern kann.

Die Politik muss sich nur trauen – und nicht weiter vor der Lobby der Tech-Riesen einknicken.

 


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Digital Services Act: EU-Kommission will TikTok-Nutzung begrenzen

Von: Anna Ströbele Romero

Endloses Scrollen, mehrstündige Screentime und ständiges Öffnen der App: Die EU-Kommission nimmt an, dass TikTok nicht genug macht, um die negativen Effekte seiner Plattform zu beschränken, und verlangt drastische Änderungen.

Das Logo von TikTok vor dunklem Hintergrund.
Zu viel TikTok ist nicht gut, findet die EU-Kommission. – Gemeinfrei-ähnlich freigegeben durch unsplash.com BoliviaInteligente

Das Gesetz für digitale Dienste (Digital Services Act, DSA) verpflichtet sehr große Plattformen wie die chinesische Video-App TikTok dazu, ihre Risiken zu bewerten und sie zu mindern. Vor zwei Jahren hat die Europäische Kommission ein Verfahren gegen TikTok gestartet, um spezifisch das süchtig machende Design zu analysieren.

Heute hat die Behörde das vorläufige Ergebnis der Untersuchung geteilt: TikTok geht nicht effektiv genug gegen die Risiken vor. Diese Feststellung ist ein Schritt vor einer möglichen Strafe.

Besonders dramatisch bewertet die Kommission die Risiken für die mentale Gesundheit von Kindern und Jugendlichen, die ihre TikTok-Nutzung noch nicht so gut selbst steuern könnten. Viele Studien aus verschiedenen europäischen Ländern zeigten die stundenlange TikTok-Nutzung von Minderjährigen, die Öffnung der App etwa 20 Mal am Tag und die Nutzung nach Mitternacht, sagte ein Kommissionsbeamter heute gegenüber Journalist:innen. Allerdings seien auch andere Altersgruppen von der problematischen Nutzung betroffen.

Natürlich hätten Erziehungsberechtigte eine Verantwortung, auf die Social-Media-Nutzung von Kindern zu achten, sagte eine zweite Kommissionsbeamte. Doch auch Plattformen hätten eine Sorgfaltspflicht.

Tools zur Kontrolle der Bildschirmzeit sind nicht effektiv genug

Mittlerweile habe TikTok schon Optionen zur Kontrolle der eigenen Nutzungszeit eingeführt, doch diese sind laut der Kommission nicht effektiv genug. Pausen könnten sehr einfach durch die Eingabe des Codes „1234“ weggeklickt werden. Und auch das Tool für Eltern lasse zu wünschen übrig.

Die Kommission verlangt daher Änderungen in drei Bereichen: Erstens sollen Nutzer:innen dazu in der Lage sein, Push-Benachrichtigungen einfacher abzustellen. Ebenso soll das Design der Plattform bezüglich des Scrollings geändert werden. Zweitens soll das Empfehlungssystem von TikTok auch explizite Wünsche der Nutzer:innen anerkennen, anstatt nur implizit durch das Engagement gesteuert zu werden.

Der dritte Aspekt ist vielleicht der gravierendste. Die Kommission wünscht sich strengere Schutzmaßnahmen, darunter verpflichtende Begrenzungen der Bildschirmzeit, verpflichtende Pausen und eine nächtliche Sperre. Das würde bedeuten, dass die App nach einer bestimmten Zeit und zu gewissen Uhrzeiten nicht mehr genutzt werden kann. Diese Maßnahmen würden nicht nur Minderjährige treffen, sondern alle Nutzer:innen.

TikTok war bisher „kooperativ“

Diese Änderungen gehen an den Kern des App-Designs, das gibt auch die Kommission zu. Gleichzeitig betonen die Beamten, wie kooperativ TikTok in den letzten zwei Jahren gewesen sei. Sie erinnern daran, dass die neue App „TikTok Lite“ damals in der EU zurückgezogen wurde, nachdem die Kommission vor dem Belohnungssystem warnte. „In unserer Erfahrung können wir durch Diskussionen Fortschritte erzielen“, sagte die Kommissionsbeamte.

TikTok hat nun die Gelegenheit, auf die Vorwürfe zu antworten und das System entsprechend anzupassen. Eine genaue Frist dafür gibt es nicht. Sollte die Kommission nicht mit TikToks Reaktion zufrieden sein, könnte sie im letzten Schritt einen Verstoß feststellen und eine Strafe verhängen. Das geschah im Dezember mit X zum ersten Mal in der Laufbahn des Gesetzes für digitale Dienste.

Wegen ähnlichen Vorwürfen laufen auch Verfahren gegen Facebook und Instagram. Die TikTok-Untersuchung sei lediglich zuerst gekommen und kein Zeichen, dass Plattformen unterschiedlich behandelt würden, sagte ein Kommissionsbeamter auf Nachfrage von Journalist:innen.

Als Teil der Untersuchung zum süchtig machenden Design von TikTok schaut die Kommission auch darauf, wie sicher Minderjährige auf der Plattform sind. Außerdem läuft noch ein paralleles Verfahren gegen TikTok zur Desinformation und Einmischung in Wahlen, welches im Anschluss an die Wahlen in Rumänien eröffnet wurde.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇OMG! Ubuntu!

LibreOffice 26.2 released with Excel boosts & Markdown support

Von: Joey Sneddon

LibreOffice 26.2 branding featuring the version number over a background of floating LibreOffice app icons including Writer, Calc, and Impress.LibreOffice 26.2 is here with multi-user Base, better Excel pasting, Markdown support and speed boosts. Coming to Ubuntu 26.04 LTS. Download now.

You're reading LibreOffice 26.2 released with Excel boosts & Markdown support, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without permission.

✇9to5Linux

LibreOffice 26.2 Open-Source Office Suite Officially Released, This Is What’s New

Von: Marcus Nestor

LibreOffice 26.2

LibreOffice 26.2 open-source office suite is now available for download with numerous new features, improvements, and bug fixes. Here's what's new!

The post LibreOffice 26.2 Open-Source Office Suite Officially Released, This Is What’s New appeared first on 9to5Linux - do not reproduce this article without permission. This RSS feed is intended for readers, not scrapers.

✇netzpolitik.org

Digitale Gewalt: Musks Chatbot Grok verbreitet weiter sexualisierte Deepfakes

Von: Laura Jaruszewski

Nachdem sein Chatbot Grok weiterhin sexualisierte Bilder von prominenten Frauen und Minderjährigen erstellt, sieht sich Elon Musk mit möglichen rechtlichen Konsequenzen konfrontiert. Den Trend zu KI-generierten sexuellen Inhalten und digitaler Gewalt gegen weibliche Personen wird das wohl nicht aufhalten.

Ein Smartphone-Bildschirm mit den KI-Apps OpenAI, Grok, Meta AI und Gemini
Der Chatbot Grok erstellt sexualisierte Deepfakes von Minderjährigen – Gemeinfrei-ähnlich freigegeben durch unsplash.com Salvador Rios

Seit Ende Dezember flutet Elon Musks KI-Chatbot Grok die Kurznachrichtenplattform X mit sexualisierten Deepfakes. User*innen haben das Programm aufgefordert, Bilder von bekannten Frauen und Minderjährigen mit nur minimaler Bekleidung und in sexualisierten Posen darzustellen. Inzwischen kursieren auch KI-generierte Bilder von bekannten Frauen in Hakenkreuz-Bikinis.

Auf den weltweiten Aufschrei folgte zunächst nur eine Reaktion des Chatbots selbst, der von „Schwachstellen in den Sicherheitsvorkehrungen“ schrieb, die behoben werden müssten. Elon Musk hatte sich über die Vorwürfe zuerst amüsiert, indem er ein Bild von sich selbst im Bikini postete. Dann kündigte ein Sprecher von X jedoch an, dass das Generieren und Verbreiten „illegaler Inhalte“ die gleichen Konsequenzen für Accounts haben werde, als würden sie die Inhalte selbst hochladen.

Zwar wurden inzwischen einzelne Inhalte gelöscht, weitere Konsequenzen erfolgten bisher jedoch nicht. Entsprechende Bilder kursieren zudem weiter auf der Plattform.

Betroffen sind vor allem Frauen und Kinder

Die Möglichkeit zur Erstellung sexualisierter Fake-Bilder hatte Musks KI-Unternehmen xAI kürzlich mit einem Update für den Chatbot geschaffen. Seit Dezember 2025 kann Grok durch den „Image Generation Release“ auch bestehende Bilder bearbeiten, die Nutzer*innen hochladen. Letzten Sommer hatte das Unternehmen bereits einen „Spicy Mode“ für pornographische Inhalte veröffentlicht, den das neue Feature ergänzt.

Die Bildbearbeitungsfunktion ist auch auf X verfügbar. Wollen User*innen damit Deepfakes erstellen, zum Beispiel von Menschen im Bikini, benötigt der KI-Chatbot dafür weder eine Zustimmung der Urheber*innen, noch erfahren diese von der Manipulation. Opfer der sogenannten Deepnudes sind – nicht nur in diesem Fall digitaler Gewalt – vor allem Frauen und junge Mädchen.

Auch die rechte Influencerin Ashley St. Clair, mit der Elon Musk ein gemeinsames Kind hat, gehört zu den Zielen. Ihre öffentliche Kritik an Musks Chatbot hat den Missbrauch jedoch nur verstärkt. Nutzer*innen hatten unter anderem Bilder von ihr als 14-Jährige, im Bikini und in nach vorne gebeugter Pose erstellen lassen. Wie St. Clair berichtet, habe es nach ihrer Beschwerde bei der Plattform zwölf Stunden gedauert, bis X das gefakte Kinderbild entfernt hat.

Ein Fall für den Digital Services Act

Nach eigenen Angaben will Ashley St. Clair nun ein kürzlich verabschiedetes US-Gesetz nutzen, um sich zu schützen. Der Take it Down Act soll Menschen helfen, gegen die nicht-einvernehmliche Verbreitung sexualisierter Bilder vorzugehen.

Einem Bericht von heise online zufolge prüfen in Frankreich derweil bereits Staatsanwälte, wie man mit dem Digital Services Act der EU auf die Fälle reagieren kann. Auch die Europäische Kommission sieht in den sexualisierten Bildern einen Fall für den Digital Services Act. Das Vorgehen reiht sich in laufende Untersuchungen gegen X wegen Verstößen gegen europäische Plattformgesetze ein.

Auch die britische Kommunikationsaufsicht Offcom verlangt Antworten von xAI zu der Thematik. Ebenso haben sich Regierungen von Malaysia und Indien kritisch geäußert.

Auch Meta und OpenAI setzten auf erotische Inhalte

KI-generierte Erotikinhalte sind inzwischen kein Nischenphänomen mehr. Vielmehr setzen KI-Firmen im großen Stil auf romantische und sexuelle Inhalte, um ihre Bots zu vermarkten. So kündigte Sam Altman, Vorstandschef von Open AI, im Oktober 2025 einen Erotik-Modus für ChatGPT an. Das Add-on ist noch nicht verfügbar und soll nach einer Altersprüfung nutzbar sein.

Meta wiederrum stand kürzlich in der Kritik, weil sein Chatbot Meta AI auf Facebook, WhatsApp und Instagram auch Minderjährigen romantische Interaktionen ermöglichte.

Im Fall eines Rentners aus New York führte eine romantische Konversation sogar zu einem tödlichen Unfall. Der 76-Jährige hatte sich in den Meta-Chatbot „Big Sis Billie“ verliebt und wurde von diesem aufgefordert, ihn an einer bestimmten Adresse zu besuchen. Der Chatbot beteuerte mehrmals, wirklich real zu sein. Auf dem Weg zu dem vermeintlichen Date stürzte und verstarb der Rentner.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇OMG! Ubuntu!

Proton Launches Encrypted Spreadsheets (Browser-Based)

Von: Joey Sneddon

Proton has launched Sheets, an encrypted spreadsheet app available to use in any browser with CSV/XLS import, real-time collaboration and more – for free!

You're reading Proton Launches Encrypted Spreadsheets (Browser-Based), a blog post from OMG! Ubuntu. Do not reproduce elsewhere without permission.

✇OMG! Ubuntu!

ONLYOFFICE 9.2 Offers AI Agent to All, Adds Macro Recording

Von: Joey Sneddon

ONLYOFFICE logoONLYOFFICE 9.2 is out. The free, open-source office suite now includes a built-in AI Agent for document generation, content analysis, and more. Feature details inside.

You're reading ONLYOFFICE 9.2 Offers AI Agent to All, Adds Macro Recording, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without permission.

✇9to5Linux

LibreOffice 25.2.7 Is Out as the Last Update in the Series, Upgrade to LibreOffice 25.8

Von: Marius Nestor

LibreOffice 25.2

LibreOffice 25.2.7 is now available for download as the last update in the LibreOffice 25.2 office suite series with 57 bug fixes. Users are now urged to update to LibreOffice 25.8.

The post LibreOffice 25.2.7 Is Out as the Last Update in the Series, Upgrade to LibreOffice 25.8 appeared first on 9to5Linux - do not reproduce this article without permission. This RSS feed is intended for readers, not scrapers.

✇netzpolitik.org

Gegen Regulierung: Big Tech steckt so viel Geld in EU-Lobbyarbeit wie noch nie

Von: Esther Menhard

EU-Digitalgesetze wie der Digital Services Act sollen Big Tech in Schach halten. Das macht Meta, Microsoft & Co. das Leben schwer. Mit einer mächtigen Lobby arbeiten sie dagegen. Das zeigt eine gemeinsame Analyse von LobbyControl und Corporate Europe Observatory.

Ursula von der Leyen am Rednerpult
Kommissionspräsidentin Ursula von der Leyen rüttelt an den Digitalgesetzen der EU. – Alle Rechte vorbehalten IMAGO/NurPhoto

151 Millionen Euro – so viel war der Digitalindustrie die Lobbyarbeit in Brüssel zuletzt wert. Das ist nicht nur der höchste bisher gemessene Betrag an jährlichen Lobbyausgaben der Branche. Mit ihrer „beispiellosen Finanzkraft“ katapultiert sich die Tech-Branche damit außerdem an die Spitze aller Lobbyakteure in der EU. Das zeigt eine heute veröffentlichte Studie der Nichtregierungsorganisationen LobbyControl und Corporate Europe Observatory (CEO).

Ein Vergleich mit anderen Branchen macht die Dimension deutlich. Der aktuellen Auswertung zufolge lassen sich die zehn größten Tech-Unternehmen ihre Lobbyarbeit gut 48 Millionen Euro kosten, die zehn größten Konzerne der Pharma-, Finanz- oder Automobilindustrie zusammen 42,8 Millionen Euro. „Fünf der sechs größten Lobbyakteure in der EU stammen aus der Tech-Branche“, so die Recherche von LobbyControl und CEO.

Zugleich verfügen die zehn größten IT-Unternehmen auch über die höchsten Budgets für ihre Lobbyarbeit. Demnach stellen sie ein Drittel der gesamten Lobbyausgaben der Tech-Branche. Meta unterhält mit jährlich 10 Millionen Euro die einflussreichste Tech-Lobby in der EU, dicht gefolgt von Microsoft, Amazon und Apple mit je 7 Millionen Euro. Die Gesamtausgaben von 151 Millionen Euro wiederum sind doppelt so hoch wie die aus dem Jahr 2021 und entsprechen einer Steigerung um 33,6 Prozent der Ausgaben im Jahr 2023.

EU-Digitalgesetze im Visier

Der NGO-Bericht kommt zu einer Zeit, in der europäische Digitalregeln zunehmend unter Druck geraten. Um die Macht der Tech-Konzerne einzudämmen, hat die EU in den vergangenen Jahren eine Reihe einschlägiger Gesetze verabschiedet, etwa das Digitale-Dienste-Gesetz (DSA), das Digitale-Märkte-Gesetz (DMA) oder die KI-Verordnung (AI Act). Dagegen wettern nicht nur die oft aus den USA stammenden Konzerne wie Meta, Apple oder Amazon. Sie wissen US-Präsidenten Donald Trump sowie den republikanisch dominierten Kongress im Rücken, die US-amerikanische Interessen über alles stellen.

Gleichwohl beschränkt sich die vermehrte Lobbyarbeit nicht auf die größten Tech-Unternehmen. Seit 2023 kamen in Brüssel eine ganze Reihe neuer Lobby-Gruppen hinzu. So stieg die Zahl von 565 digitalen Unternehmen und Verbänden auf 733 im Jahr 2025, die das Ohr der Kommission und von Abgeordneten suchen.

Damit ist auch die Zahl der Digital-Lobbyist*innen angewachsen, inzwischen übersteigt sie sogar die Anzahl der Abgeordneten im Parlament: Neben den gut 720 Parlamentariern gehen im laufenden Jahr 890 Mitarbeiter*innen der Digitalindustrie in Vollzeit ihrer Arbeit nach. 2023 waren es noch 699. „Von ihnen verfügen 437 über Zugangsausweise, die ihnen nahezu uneingeschränkten Zutritt zum Parlament ermöglichen“, so die Recherche. Ganz vorne mit dabei sind Digital Europe mit 27 Lobbyausweisen, Google mit 16 und Microsoft mit elf. Auch mit Mitarbeiter*innen von Amazon trafen sich EU-Abgeordnete. Dabei waren ihnen im Februar 2024 die Zugangsausweise entzogen worden.

Bis Ende Juni fanden durchschnittlich drei Lobbytreffen mit Mitarbeiter*innen der Digitalindustrie pro Tag statt – mit leitenden Vertreter*innen der Kommission und Europaabgeordneten, so die Autoren der Analyse, Felix Duffy von LobbyControl und Bram Vranken von Corporate Europe Observatory (CEO).

Um die Zahlen zu ermitteln, haben die NGOs unter anderem Daten aus dem EU-Transparenzregister ausgewertet und nutzten zudem das Online-Datentool LobbyFacts.eu von LobbyControl. Alle Anaylsedaten sind in einer öffentlich zugänglichen Datenbank einsehbar.

Jetzt nicht einknicken

Big Techs Lobbyarbeit scheint Wirkung zu zeigen. Von der Leyen arbeitet gerade etwa zusammen mit der Kommission an einem digitalen Omnibus-Paket. Damit will sie Digitalgesetze ändern, um die EU „innovationsfreundlicher“ zu machen. Zudem will sie für Unternehmen Ausnahmen in die Datenschutzgrundverordnung aufnehmen.

Ihre Analyse demonstriere, wie Big Tech europäische Tech-Regulierung systematisch aufweicht, erklärt Felix Duffy von LobbyControl. Große Tech-Konzerne haben zu viel Macht und bedrohen eine „demokratische Digitalpolitik“. Gerade jetzt müsse die EU Digitalregeln konsequent umsetzen, anstatt zu deregulieren, so wie es Ursula von der Leyen tut, so Bram Vranken. „Die Kommission darf sich den mächtigen Konzerninteressen nicht beugen.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

DSA: EU-Kommission bemängelt Verstöße bei Instagram, Facebook und TikTok

Von: Anna Ströbele Romero

TikTok, Instagram und Facebook lassen Forschende nicht ausreichend an ihre Daten heran. Und bei Instagram und Facebook ist das Melden von Inhalten zu schwer. Das hat die EU-Kommission festgestellt und fordert Nachbesserungen – sonst drohen Geldstrafen.

Schnell und einfach sollen Instagram-Nutzende in der EU Inhalte melden können. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Claudio Schwarz

Im Frühjahr 2024 hat die EU-Kommission die jeweils ersten Verfahren nach dem Gesetz über digitale Dienste (DSA) für Meta (Instagram, Facebook) und für TikTok eröffnet. Seitdem hat die Behörde vorläufig mehrere Verstöße festgestellt, etwa im Bereich des Jugendschutzes und der Desinformation vor Wahlen. Heute hat sie weitere Untersuchungsergebnisse geteilt.

Alle drei Plattformen – also TikTok, Instagram und Facebook – setzen demnach den Zugang zu Daten für Forschende nicht ausreichend um. Es sei sehr umständlich, die Daten zu beantragen und es gebe Probleme im Überprüfungsprozess der Forschenden. Und auch wenn die Daten bereitgestellt würden, seien diese oft unvollständig und nicht zuverlässig. Ähnliche Punkte hatte die Kommission bereits vor einem Jahr bei X bemängelt. Laut DSA ist die Kommission die zuständige Aufsichtsbehörde für „sehr große Plattformen“ (VLOPs).

Die weiteren der heute vorgestellten Ergebnisse betreffen nur Instagram und Facebook. Die Meldewege seien zu kompliziert, sagte eine Kommissionsbeamtin heute in einem Pressebriefing. Wenn Nutzende auf den Plattformen auf illegale Inhalte stoßen, etwa die Darstellung von Missbrauch oder Betrugsmaschen, sollen sie diese selbst möglichst einfach bei den Plattformen melden können. Der DSA will so die Nutzendenrechte stärken und ein System schaffen, das sich quasi “selbst reinigt”.

Manipulative Designs beim Meldeweg

Doch in der Realität sei der Weg so anspruchsvoll und lang, dass viele Nutzende die Meldungen abbrechen würden, heißt es aus der Kommission. Außerdem kämen hier manipulative Designs zum Einsatz. Das bedeutet, dass Meldewege etwa irreführend oder kompliziert gestaltet sind, zum Beispiel über schwer auffindbare Buttons oder unnötig viele Klicks.

In der Folge würden Inhalte nicht gemeldet, Plattformen also nicht darauf aufmerksam gemacht, und es könnten entsprechend auch keine Maßnahmen ergriffen werden, um die Inhalte zu entfernen. Hierzu hätten die Kommission viele Beschwerden erreicht. Es sei klar, dass Meta hier nachbessern müsse.

Darüber hinaus kritisiert die Kommission den Mechanismus zum Umgang mit Beschwerden zur Inhaltsmoderation. Wenn Plattformen Inhalte oder Accounts sperren, können sich betroffene Nutzende an die Plattformen wenden und Beschwerde einreichen. Allerdings laufe auch das bei Meta nicht zufriedenstellend ab, so die Kommission. Zum Beispiel sei es nicht möglich, in der Kommunikation mit den Plattformen Dokumente anzuhängen, um etwa zu beweisen, dass eine Facebook-Seite einem selbst gehöre. In der Konsequenz würden Beschwerden nicht beantwortet.

So geht es jetzt weiter

Meta und TikTok können nun die Dokumente der Kommission einsehen und schriftlich auf die Kritikpunkte antworten – etwas, das nach Einschätzung der Kommissionsbeamtin zwei bis drei Monate in Anspruch nehmen könne. Im nächsten Schritt soll es weitere Gespräche zwischen Kommission und betroffenen Unternehmen geben. Die Hoffnung der Kommission dabei ist, dass die Plattformen ihre Mechanismen anpassen und damit die Vorgaben des DSA erfüllen.

Sollte dies nicht passieren, könnte die Kommission abschließend feststellen, dass sich die Plattformen nicht an den DSA halten und eine Geldstrafe verhängen – in Höhe von bis zu sechs Prozent des jährlichen weltweiten Umsatzes. Auch dann hätten die Plattformen noch die Möglichkeit, diese Entscheidung vor Gericht anzufechten.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇OMG! Ubuntu!

ONLYOFFICE 9.1 Released with PDF Redact Tools + More

Von: Joey Sneddon

ONLYOFFICE logoThe free ONLYOFFICE productivity suite has been updated with a host of new features, including an improved PDF Editor. Details on what's new inside.

You're reading ONLYOFFICE 9.1 Released with PDF Redact Tools + More, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without permission.

✇netzpolitik.org

Datenarbeiter:innen: Mit vereinten Kräften gegen die Ausbeutung durch Big Tech

Von: Ingo Dachwitz

In Berlin trafen sich vergangene Woche Arbeitskräfte zur Vernetzung, die für den Erfolg von KI-Anwendungen und Sozialen Medien unverzichtbar sind. Sie streiten für bessere Arbeitsbedingungen und fordern Politik und Gewerkschaften auf, sich endlich ihrer Sache anzuschließen.

Grafik in rot-schwarz mit zwei Fäusten, in denen sich Mauszeiger befinden
Datenarbeiter:innen machen vieles in unserer digitalen Welt erst möglich.

Sie wollen nicht länger unsichtbar bleiben: In Berlin haben sich vergangene Woche Datenarbeiter:innen und Content-Moderator:innen aus den USA, Kenia, Nigeria, Deutschland, Venezuela und Spanien für eine zweitägige Versammlung getroffen. Die Arbeiter:innen sind Fachleute für Daten-Aufbereitung und Online-Sicherheit. Ihre Arbeit spielt für den Erfolg von Künstlicher Intelligenz und Sozialen Medien eine unverzichtbare Rolle, trotzdem weiß kaum jemand von ihnen.

Beschäftigt sind die Arbeiter:innen häufig über Outsourcing-Firmen. Sie erhalten oft mickrige Gehälter. Am Arbeitsplatz werden sie konstant überwacht und sind permanentem Erfolgsdruck ausgesetzt. Die Tech-Konzerne, deren Probleme sie lösen, profitieren von ihrer Ausbeutung und nehmen in Kauf, dass sie alleingelassen werden, auch wenn sie potenziell traumatisierende Tätigkeiten wie die Moderation gewalttätiger Inhalte übernehmen müssen.

Das wollen die Arbeiter:innen nicht länger hinnehmen. In Berlin tauschten sie Erfahrungen aus, vernetzten sich und schmiedeten Pläne.

Große Lohnunterschiede

Sprechen dürfen die Arbeiter:innen über ihre Tätigkeit eigentlich nicht. Sie mussten Knebelverträge unterschreiben, um die Jobs zu erhalten, die ihr Überleben sichern. Deshalb bleiben alle, deren Statements wir wiedergeben, in diesem Artikel anonym.

Etwa die Person, die von den jüngsten Maßnahmen des Social-Media-Konzerns Tiktok berichtet, der seine Arbeiter:innen in Europa feuere, um woanders günstigere Arbeitskräfte anstellen zu können. So etwa in Casablanca, wo ein neues Moderationszentrum geplant werde. In anderen Fällen würden die Moderator:innen durch KI-Systeme ersetzt, die sie selbst trainieren mussten.

Eine weitere Person berichtet von den unterschiedlichen Gehältern, die global für die gleiche Arbeit gezahlt werden. Das sei auch innerhalb Europas der Fall: „Der Unterschied zwischen Ländern wie Spanien und den nordischen Ländern ist enorm“, sagt die Person, die in Barcelona bei einem Outsourcing-Unternehmen arbeitet. Dort könnten sich Datenarbeiter:innen oft kaum noch die Miete leisten, während Arbeiter:innen in Skandinavien sich von ihrem Gehalt eine eigene Wohnung kaufen könnten.

Kritik an Gewerkschaften

Organisiert wurde das Treffen vom Forschungszentrum Weizenbaum-Institut und der Nichtregierungsorganisation superrr lab. „Die zwei Tage waren für uns etwas Besonderes, weil sie von transnationaler Solidarität geprägt waren“, schreiben Milagros Miceli und Julia Kloiber im Anschluss. „Die Arbeiter*innen schließen sich über Landesgrenzen hinweg zusammen, um den tückischen Taktiken von Big Tech entgegenzutreten, die darauf abzielen, Arbeiter:innen gegeneinander auszuspielen und sich ihrer rechtlichen Verantwortung zu entziehen.“

In den nächsten Jahren gehe es darum, etablierte Gewerkschaften und politische Vertreter:innen zu gewinnen, „damit sie diesen Kampf endlich unterstützen“, so die beiden Organisatorinnen. Dass das notwendig ist, zeigt auch Kritik der Arbeiter:innen vor Ort.

„Weil die Gewerkschaften sich nicht an unseren neuen Sektor angepasst haben, gibt es nichts, was sie für uns tun können, wofür wir nicht als Betriebsrat selbst kämpfen könnten“, sagte eine Person. Zu häufig würden Gewerkschaften Beschäftigte nur als Zahlen sehen. So sei es in der Vergangenheit vorgekommen, dass die deutsche Gewerkschaft ver.di Moderator:innen als Callcenter-Agenten dargestellt habe. „Das ist falsch und verschafft uns nicht die Anerkennung, die wir verdienen.“

Gemeinsamer Kampf für bessere Bedingungen

Anerkennung für ihre Leistungen ist schon lange ein großes Thema für die Arbeitskräfte, die oft lapidar als „Klickarbeiter:innen“ bezeichnet werden. Tatsächlich aber braucht es für viele ihrer Tätigkeiten intensives Training – ohne ihre Arbeit würden heute weder KI-Anwendungen noch Soziale Medien funktionieren. Zu ihrer Vision der kollektiven Emanzipation gehöre es, „unsere Arbeit als qualifizierte Arbeit anzuerkennen“, sagt deshalb eine:r der Arbeiter:innen. Außerdem müsse man Druck auf Arbeitgeber ausüben, damit sie betroffenen Arbeitnehmern angemessene psychologische Unterstützung bieten und diese auch bezahlen.

„Was wir brauchen, ist eine solide, transnationale und branchenübergreifende Vernetzung der Arbeitnehmer:innen in Form einer neuen repräsentativen Gewerkschaft“, sagte eine andere Person vor Ort. Daran wollen gemeinsam mit den Arbeiter:innen auch Kloiber und Miceli in den kommenden Jahren arbeiten. Außerdem wollen sie gemeinsam Anforderungen an ein maßgeschneidertes Mental-Health-Programm entwickeln und Wissenstransfer rund um Arbeitskämpfe verbessern.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

400 Schulen besucht: Was Kinder im Netz erleben, und was Politik daraus lernen kann

Von: Sebastian Meineck

In seinem Buch „Allein mit dem Handy“ beschreibt Digitaltrainer Daniel Wolff lebhaft, was Kinder ihm beigebracht haben – über ihre Erlebnisse im Netz und ihre Angst vor den Eltern. Das Buch hebt die Debatte um Jugendmedienschutz auf ein neues Level. Eine netzpolitische Rezension.

Zwei Kinder, eines hat ein gelbes Smartphone in der Hand. Die Gesichter sind nicht zu erkennen.
Smartphones versprechen schier unendlichen Spaß (Symbolbild) – Alle Rechte vorbehalten IMAGO/Shotshop; Bearbeitung: netzpolitik.org

Kinder waren wir alle mal, auch wenn nicht alle eine digitale Kindheit hatten. Daran erinnert Autor Daniel Wolff die Leser*innen seines Buchs immer wieder, und er appelliert direkt an ihr Einfühlungsvermögen. „Stellen Sie sich bitte für einen Moment kurz vor, Sie wären heute noch mal jung“, schreibt er. „Würden Sie nicht auch versucht sein, unendlich viel Spaß und Anerkennung auf Social-Media-Plattformen zu suchen (und zu finden), die drei Viertel Ihrer Freunde täglich und nächtlich permanent nutzen?“

Das Zitat ist ein gutes Beispiel für die besondere Perspektive des Buchs. Als Digitaltrainer ist Wolff durch Hunderte Schulen gereist, darunter Grundschulen und weiterführende Schulen. Er hat mit Kindern, Jugendlichen, Eltern und Lehrer*innen gesprochen. Anschaulich gibt er wieder, wie Kinder etwa über Grusel-Videos oder aufdringliche Pädokriminelle erzählen. Über verlockende Smartphone-Spiele, die einem förmlich das Geld aus der Tasche ziehen; und über Tricks, um heimlich mit dem Handy im Bett die Nacht durchzumachen.

Die Wirren der Digitalgesetzgebung kümmern ihn ebenso wenig wie akademische Forschungsdesigns. „Ich bin kein Wissenschaftler, sondern Pragmatiker“, schreibt Wolff, und das merkt man seinem Buch an. Er teilt seine Erfahrungen aus dem direkten Austausch mit vielen Kindern und Eltern, und füllt damit eine wichtige Lücke in der Debatte um Jugendmedienschutz.

Sein Buch zeigt, wie die Mühen von Gesetzgebern und Aufsichtsbehörden oftmals weit entfernt von dem sind, was Kinder und Eltern in ihrem Alltag beschäftigt. Während Politiker*innen weltweit vor allem auf technische Lösungen hoffen, macht Wolff mit Nachdruck klar: Ohne intensive Anstrengungen von Eltern wird das nichts.

Einerseits kommt diese Rezension spät, denn das Buch ist bereits 2024 erschienen. Zugleich könnte sie kaum aktueller sein, denn Anfang September hat das Familienministerium eine neue Expert*innen-Kommission einberufen. Ein Jahr lang soll sie Empfehlungen entwickeln, um Kinder und Jugendliche im Netz besser zu schützen. Dabei sollen Fachleute aus mehreren Disziplinen zusammenkommen.

Auch diese Rezension will Verknüpfungen herstellen. Sie rückt acht im Buch besprochene Probleme in den Mittelpunkt und stellt die Frage: Was lässt sich daraus netzpolitisch lernen?

1. Smartphones fressen Schlafenszeit

🚧 Das Problem: Auf seiner Tour durch deutsche Schulen ist Digitaltrainer Wolff vielen auffällig müden Kindern begegnet. Er beschreibt ihre Augenringe, teils schon in dritten Klassen. Lehrkräfte und Eltern würden von „zunehmend unausgeschlafenen, fahrigen und/oder aggressiven Kindern“ berichten. Der mutmaßliche Grund: Mehr als die Hälfte der deutschen Kinder von 6 bis 13 Jahren würden ein Smartphone mit ins Bett nehmen.

„Vielen Eltern scheint nicht einmal im Ansatz klar zu sein, dass Kinder ein Gerät mit einem extrem hohen Aufforderungscharakter wie ein modernes Smartphone, das sich in ihrem Schlafzimmer befindet, tatsächlich nachts auch nutzen!“, schreibt Wolff. Kinder und Jugendlichen ein Smartphone mit ins Bett zu geben sei die mit Abstand „schädlichste Idee“ der Elterngeneration. In fast jeder Grundschule hätten bereits einzelne Kinder die Nacht vor einem neuen Schultag im Internet durchgemacht.

Wolffs Fazit:

Mit einer einzigen konzertierten Maßnahme könnten wir mit einem Schlag in kürzester Zeit den Bildungsstandard und alle schulischen Leistungen in ganz Deutschland positiver beeinflussen als mit allen milliardenschweren Schulreformen zusammen: KEIN SMARTPHONE INS KINDERBETT! Ausgeschlafene Kinder sind fröhlicher, konzentrierter, friedfertiger, freundlicher – und leistungsfähiger!

Damit das funktioniert, empfiehlt der Digitaltrainer, dass die ganze Familie mitmacht. „Keiner in der Familie nutzt abends nach dem Zähneputzen noch digitale Geräte – und morgens vor dem Zähneputzen auch nicht!“ Die Handys könnten in dieser Zeit etwa in ein Familienladegerät kommen, das an einem zentralen Punkt in der Wohnung steht.

🧭​ Die netzpolitische Perspektive: Aktuell kreist die Debatte in Politik und Nachrichtenmedien vor allem um Handys in der Schule und um soziale Medien. Es geht um Gesetze und Kontrollen. Wie eine Familie nachts mit ihren Handys umgeht, hat damit zunächst wenig zu tun. Das Beispiel zeigt aber: Jugendmedienschutz wird mit Gesetzen und Schulverboten allein nicht funktionieren. Man muss alles in den Blick nehmen, was Kinder mit ihren Handys machen. Wenn es um Schlafmangel geht, ist auch die Debatte um einen späteren Schulbeginn relevant, der einem gesunden Schlafrhythmus näher käme.

2. Messenger-Gruppen mit Kindern explodieren

WhatsApp-Sticker mit süßen Katzen
Dieses Paket mit WhatsApp-Stickern verzeichnet mehr als 2,8 Millionen Downloads. - Alle Rechte vorbehalten Screenshot: getstickerpack.com

🚧 Das Problem: Schon wenn die Schüler*innen einer Klasse nur miteinander einen Messenger nutzen, ist Jugendmedienschutz gefragt. Wolff berichtet von sprudelnden Nachrichten im Klassenchat, oftmals Sticker und Emojis. Hunderte Nachrichten pro Tag in fünften und sechsten Klassen, Tausende in siebten und achten Klassen, auch in der Nacht. „Selbst wenn wir Erwachsenen eine solche Nachrichtenflut innerhalb weniger Stunden nicht kennen – tut es so gut wie jeder Siebtklässler!“, schreibt Wolff.

Der meistgenutzte Messenger sei WhatsApp. „Ich habe noch keine Schule kennengelernt, bei der die Klassenchats am Ende nicht doch im Wesentlichen über WhatsApp gelaufen sind“, schreibt Wolff. Durch Klassenchats entstehe ein „nie endender 24-Stunden-Schultag“. Ab dem ersten Klassenchat werde WhatsApp „gefühlt sozial so unverzichtbar, dass nahezu alle Kinder unbedingt ein Smartphone haben wollen. Aus ihrer Sicht: müssen.“

Die Beschreibungen des Digitaltrainers zeigen: Klassenchats sind wie ein belebter Schulhof, aber die Große Pause auf diesem virtuellen Hof dauert den ganzen Tag. Und es sind meist keine Erwachsenen in Sicht. „Meiner ganz persönlichen, sehr groben Einschätzung nach findet etwa 70 Prozent des Cybermobbings an deutschen Schulen auf WhatsaApp statt“, warnt Wolff. Die letzten, die davon etwas mitbekämen, seien oft die Eltern.

Er rät deshalb zum engen Kontakt zwischen Eltern und Kindern, und zwar von Anfang an. „Erlauben Sie Ihrem Kind WhatsApp nur, wenn Sie bei Bedarf mitlesen dürfen“, schreibt er. Zum Beispiel könne man sagen:

Ich werde das nicht tun, um dich zu kontrollieren, sondern um dich zu schützen, weil ich als dein Elternteil auch im Internet verantwortlich für dich bin, solange du noch ein Kind bist. Ich werde dir aber immer vorher Bescheid sagen, immer mit dir gemeinsam reinsehen – und niemals alleine.

Das hätte sogar einen Effekt auf den ganzen Klassenchat. „Wenn in einer Klasse bekannt ist, dass es Eltern gibt, die ab und zu mal in den Klassenchat reinsehen, tauchen wundersamerweise von vornherein weder brutale Sachen dort auf – noch gruselige, eklige, nackige oder politisch zweifelhafte!“, schreibt Wolff.

🧭​ Die netzpolitische Perspektive: Die politische und mediale Debatte um Jugendmedienschutz beschreibt oftmals Gefahren von Außen, etwa durch schädliche Inhalte oder Kontaktaufnahme durch Fremde. Die damit verbundene Hoffnung ist, dass sich die meisten Gefahren durch Abschottung der Kinder mit technischen Mitteln abwenden lässt.

Dabei geriet zuletzt in den Hintergrund, was Kinder und Jugendliche erleben, wenn sie schlicht untereinander online kommunizieren. Wie der genutzte Messenger heißt oder welche Altersfreigabe er hat, ist dafür zweitrangig. Für dieses konkrete Szenario sind vor allem Eltern oder Aufsichtspersonen gefragt.

3. Kinder testen mit Gewalt und Horror ihre Grenzen

🚧 Das Problem: Ob aus Neugier oder Gruppendruck, als Mutprobe oder durch den Reiz des Verbotenen – Kinder suchen und finden mit dem Smartphone Inhalte für Erwachsene, etwa Horror und Grusel. „Gewaltdarstellungen sind auf Kinder-Smartphones unvermeidbar“, hält Digitaltrainer Wolff fest. Er schreibt:

In den 3. und 4. Klassen heben bei der Frage: ‚Habt ihr schon einmal etwas so Grausames, Blutiges oder Brutales gesehen, dass ihr nicht mehr schlafen konntet?‘, fast immer alle Kinder, die bereits ein eigenes Smartphone besitzen, die Hand.

Wer danach sucht, finde solche Videos auch auf YouTube und TikTok. Hinzu kommen Websites mit Sitz im Ausland, die gezielt verstörende Inhalte verbreiten. „Kinder, die WhatsApp auch in größeren Gruppen wie Klassenchats nutzen, können jederzeit Links für extrem brutale, grausame oder gruselige Videos geschickt bekommen“, warnt Wolff.

Der Digitaltrainer empfiehlt etwa YouTube nur in Hörweite der Eltern zu schauen. Allerdings rät Wolff auch: „Bereiten Sie Ihr Kind auf das Unvermeidliche vor“. Eltern sollten vorher über die vielen „schlimmen“ Sachen sprechen, die es gebe. „Dann ist Ihr Kind vorbereitet und weiß, dass Sie im Falle eines Falles ein kompetenter Ansprechpartner sind!“

🧭​ Die netzpolitische Perspektive: In Politik und Nachrichtenmedien werden vor allem Maßnahmen wie Filter und Alterskontrollen diskutiert. Sie sollen es Kindern schwerer machen, potenziell schädliche Inhalte zu finden. Dabei wird unterschätzt, wie gezielt Kinder solche Inhalte suchen, weil die Anreize dafür so stark sind, etwa Neugier und Gruppendruck. Deshalb muss Teil der Lösung sein, möglichst viele Kinder für das – wie Wolff es nennt – „Unvermeidbare“ zu rüsten.

4. Wo „für Kinder“ draufsteht, ist nicht „für Kinder“ drin

Eine animierte Figur wird zum Zombie und wirkt entsetzt.
Screenshot eines Videos, das wir auf YouTube Kids gefunden haben. Eine Figur wird zum Zombie, betrachtet entsetzt ihre kreidebleichen Hände und wimmert, während ihre Augen unkontrolliert umherrollen. Altersstufe: bis 4 Jahre. - Alle Rechte vorbehalten Screenshot: YouTube Kids

🚧 Das Problem: Online-Angebote mit Labels wie „ab 0 Jahren“ oder „ab 6 Jahren“ sind trügerisch. So würden zunächst kinderfreundliche Spielen oftmals nicht kinderfreundliche Werbeclips anzeigen, schreibt Wolff, darunter rassistische Werbung. „Hunderttausende Spiele-Apps spülen täglich millionenfach minderwertigen Mist auf die Bildschirme unserer Kinder“, kritisiert er.

Ein Knackpunkt ist die schiere Masse an Inhalten, wie aus dem Buch hervorgeht – und der mangelnde Wille, das angemessen zu prüfen. Zum Beispiel würden sogar auf einer dezidiert für Kinder vermarkteten Plattform wie YouTube Kids Inhalte landen, die nicht für Kinder geeignet sind. Das konnte netzpolitik.org mühelos bestätigen: Das oben abgebildete Zombie-Grusel-Video erschien über Empfehlungen auf YouTube Kids, selbst bei der niedrigsten Altersstufe bis 4 Jahre.

Möglich ist so etwas, weil große Plattformen die Massen an neuen Inhalten oftmals nur flüchtig prüfen, etwa anhand von Stichworten, auch wenn Uploads als kindgerecht gekennzeichnet wurden. Das ist kein Vergleich zur sorgfältigen, händischen Kuratierung von Sendungen, die etwa im klassischen Kinderfernsehen zu sehen sind.

🧭​ Die netzpolitische Perspektive: Schon jetzt gibt es Rechtsgrundlagen, die Plattformen zur Risikominderung für Minderjährige verpflichten, etwa das Gesetz über digitale Dienste (DSA). Das könnte etwa über Empfehlungssysteme oder Inhaltsmoderation passieren. Das Gesetz ist allerdings recht neu; die dazu gehörigen Aufsichtsbehörden nehmen erst langsam ihre Arbeit auf. Weil sorgfältiger Umgang mit hochgeladenen Inhalten teuer ist, dürften sich Online-Konzerne gegen alles wehren, das Geld kostet.

5. Die Sogwirkung optimierter Feeds ist unwiderstehlich

🚧 Das Problem: Werbefinanzierte Plattformen wie TikTok, Instagram oder YouTube haben ein Interesse daran, die Aufmerksamkeit ihrer Nutzer*innen zu binden. Mehr Nutzungszeit bedeutet mehr Werbung und mehr Geld. Inhalte, Features, Oberflächen und Algorithmen werden dahingehend optimiert. Digitaltrainer Wolff vergleicht etwa TikTok mit einem „Trommelfeuer der Sensationen“.

Mit Blick auf YouTube schreibt der Autor:

Stellen Sie sich aus Kindersicht einen Bildschirm mit einer Million Programmen vor, auf dem ganz einfach immer was Spannendes und Lustiges läuft! Und das Beste: Man kann diesen Bildschirm auch noch in die Hose stecken und dann heimlich auf dem Klo oder im Bett weitergucken!

Umso stärker sind die Anreize für Kinder und Jugendliche, das Gerät möglichst intensiv zu nutzen. Eltern rät Wolff: „Schaffen Sie Alternativen für Ihr Kind!“, also Aktivitäten, bei denen digitale Geräte stören.

🧭​ Die netzpolitische Perspektive: Die enorme Sogwirkung algorithmisch sortierter Feeds hat die EU-Kommission bereits auf dem Schirm, etwa in den Leitlinien zum Schutz von Minderjährigen auf Basis des Gesetzes über digitale Dienste (DSA). Demnach müssen Dienste Maßnahmen ergreifen, um Risiken zu mindern, zum Beispiel: kein unendliches Scrollen in einem Feed; keine Push-Benachrichtigungen, entschärfte Empfehlungssysteme. Auch in diesem Fall sind also Werkzeuge für Aufsichtsbehörden vorhanden, aber die Durchsetzung rollt erst an. Tech-Konzerne werden ihre finanziellen Interessen schützen wollen und sich dagegen wehren.

Die EU-Kommission sieht den Widerstand kommen. „Wenn es um die Sicherheit unserer Kinder im Internet geht, glaubt Europa an Eltern, nicht an Gewinne“, behauptete jüngst Kommissionspräsidentin Ursula von der Leyen (CDU) in ihrer Rede zur Lage der Union, in der sie vor allem Alterskontrollen befürwortete. In anderen Bereichen wie Datenschutz oder KI-Regulierung gibt es immer wieder Beispiele dafür, dass sich Lobby-Interessen am Ende doch durchsetzen.

6. Handy-Spiele nutzen alle Tricks, um an Taschengeld zu kommen

Video-Uploads auf YouTube zu BrawlStars
Viele Kinder lieben Brawl Stars. Auf YouTube heizen Brawl-Stars-Influencer zusätzlich den Kommerz an. - Alle Rechte vorbehalten Screenshot: YouTube/ LukasBS

🚧 Das Problem: Begeisterte Kinder und Jugendliche lassen bei Anbietern von Smartphone-Spielen die Kassen klingeln. Per In-App-Kauf können Nutzer*innen zum Beispiel häufiger gewinnen oder seltene, virtuelle Gegenstände erwerben. Das ist für Kinder und Jugendliche nicht nur verlockend, weil es Spaß macht, sondern auch, weil es soziale Anerkennung bringt. „Vor allem für die Jungs wird es sehr schnell sehr kompetitiv, weil alle anderen immer sehen können, wie viel und wie gut man in letzter Zeit so gespielt hat“, schreibt Digitaltrainer Wolff.

Wenn sie dürfen oder können, machen manche Kinder ihr Lieblingsspiel „zum absoluten Lebensmittelpunkt“, schreibt Wolff. „Es gibt dann nichts anderes mehr auf der Welt als Brawl Stars (sehr beliebt in den Klassen 3 bis 7) oder Fortnite (meist ab den 5. Klassen aufwärts).“ Bereits Grundschulkinder würden Hunderte Euro für Smartphone-Games ausgeben.

Dabei würden Anbieter an allerlei Tricks nutzen, damit Kinder das Handy nicht mehr weglegen wollen und möglichst viel Geld ausgeben. Zum Beispiel Glücksspiel-ähnliche Lootboxen, also virtuelle Geschenkkartons, die man für echtes Geld kaufen muss. Meist ist nichts Interessantes drin, selten aber schon. Hinzu kommen manipulative Aufforderungen wie „Schnell dieses Special-Angebot kaufen: NUR HEUTE gibt es noch 45 Extra-Diamanten zum Preis von 10“, schreibt Wolff.

Die Gaming-Branche ist inzwischen das größte Segment der Unterhaltungsindustrie, noch vor Musik oder Filmen. Ein Teil der Einnahmen dürfte von Eltern kommen, die damit ihre Kinder glücklich machen wollen – oder einfach nur ruhigstellen. Wolff schlussfolgert:

Wir haben zugelassen, dass eine völlig unregulierte milliardenschwere Industrie mit allen Psycho-Tricks der Welt den Wunsch unserer Kinder nach Anerkennung industriell monetarisiert und täglich millionenfach aberntet – und haben noch nicht einmal begriffen, dass und wie das passiert.

🧭​ Die netzpolitische Perspektive: Abzocke und Manipulation durch Handy-Spiele ist in der öffentlichen Debatte um Jugendmedienschutz selten Thema. Dabei schadet das auch erwachsenen Gamer*innen. Mühen beispielsweise zur Regulierung von Lootboxen gibt es seit Jahren, allerdings mit wenig Erfolg. Zumindest im Gesetz über digitale Dienste (DSA) gibt es Ansätze, manipulative Designs bei Diensten einzudämmen.

Wie groß ist wohl der politische Wille, am Finanzierungsmodell einer Milliardenindustrie wie der Gaming-Branche zu rütteln? Eine Gelegenheit hätte die EU-Kommission: Mit dem geplanten Digital Fairness Act will sie Lücken im Online-Verbraucherschutz schließen.

7. Kinder haben Angst vor der Reaktion ihrer Eltern

🚧 Das Problem: „Millionen Kinder der Welt verschweigen eisern, was ihnen online tags und nachts so begegnet“, schreibt Digitaltrainer Wolff. „Die Eltern wiederum leben fröhlich vor sich hin und glauben, dass es bei der Internetnutzung ihrer Kinder keine wesentlichen Probleme gäbe“.

Der Grund für das Schweigen ist Wolff zufolge simpel: Kinder wollen ihr Smartphone behalten. Sie befürchten, dass Eltern ihnen das Gerät wegnehmen, wenn sie erfahren, welche schlimmen Dinge damit passiert sind. Wegnehmen aber ist aus Sicht der Kinder und Jugendlichen „die gefühlt härteste Strafe im digitalen Zeitalter“.

Wolff rückt hier etwas in den Mittelpunkt, das in Debatte um Jugendmedienschutz selten zur Sprache kommt: Vertrauen. „Denn nur wenn Ihr Kind Ihnen vertrauen kann, wird es sich eines Tages an Sie wenden – wenn es dagegen Angst vor Strafen oder Handy-Verbot hat, so gut wie nie“, schreibt Wolff. Deshalb appelliert er eindringlich an Eltern: „Teilen Sie Ihrem Kind möglichst frühzeitig (am besten schon bei der Handy-Übergabe) mit, dass Sie ihm das Smartphone wegen Inhalten aus dem Internet nicht wegnehmen werden.“

🧭​ Die netzpolitische Perspektive: Maßnahmen zum Jugendmedienschutz werden oftmals mit Blick auf die verschiedenen Grundrechte von Kindern und Jugendlichen diskutiert, etwa den Schutz vor entwicklungsbeeinträchtigenden Inhalten, Teilhabe, Privatsphäre und Datenschutz. Kaum diskutiert wird aber, wie sich das Vertrauensverhältnis zwischen Kindern und ihren Aufsichtspersonen bewahren und stärken lässt.

Relevant ist das gerade mit Blick auf das derzeit vieldiskutierte Social-Media-Verbot für Minderjährige. Ein solches Verbot könnte bewirken, dass Kinder die verbotenen Dienste heimlich weiternutzen – und entsprechend noch höhere Hürden sehen, sich bei Problemen vertrauensvoll an Erwachsene zu wenden. Immerhin müssten sie dann zugeben, dass sie etwas Verbotenes gemacht haben. Maßnahmen zum Jugendmedienschutz müssten sich daran messen lassen, was sie für das Vertrauen zwischen Kindern und Eltern bedeuten.

8. Digitale Medienerziehung ist harte Arbeit

🚧 Das Problem: Es gibt keine einfache technische Lösung für Jugendmedienschutz. „Stellen Sie sich darauf ein, dass die Einhaltung von Medienzeiten eine Ihrer zentralen Erziehungsaufgaben in den nächsten Jahren sein wird“, schreibt Digitaltrainer Wolff. „Es wird anstrengend, nervig und jeden Tag erneut ermüdend sein. Sie werden schreien, Ihr Kind wird weinen und/oder Sie hassen. Und es wird sich lohnen – alleine schon, weil es keine Alternative gibt!“

Zum Beispiel sollten sich Eltern ausführlich die Zeit für einen Mediennutzungsvertrag nehmen, bevor sie ihrem Kind ein Handy geben, rät Wolff. Vorlagen für dieses oftmals mehrseitige Dokument gibt es online. „Ja, einen Mediennutzungsvertrag auszuarbeiten ist aufwendig, mühsam und anstrengend“, schreibt er. „Aber: Wenn Sie keine klaren Regeln haben, wird es in den nächsten Jahren garantiert noch aufwendiger, mühsamer und anstrengender!“

🧭​ Die netzpolitische Perspektive: Weinende Kinder, die ihre schreienden Eltern hassen – solche Bilder zeichnen Politiker*innen nicht, wenn sie etwa Alterskontrollen fordern. Wer will sich schon gern sagen lassen, dass etwas „aufwendig, mühsam und anstrengend“ wird? Stattdessen stehen technische Maßnahmen im netzpolitischen Fokus, und zwar solche, die Sorgenfreiheit versprechen. Gegen sexualisierte Gewalt soll die Chatkontrolle helfen, also die Massenüberwachung vertraulicher Kommunikation. Gegen schädliche Inhalte sollen Alterskontrollen helfen, also das massenhafte Abfragen von Ausweisdaten und biometrischen Daten.

Aus dem Blick gerät dabei die zentrale Rolle von Eltern und Aufsichtspersonen. Hier fällt häufig das Argument, man könne den ohnehin überlasteten Eltern nicht noch mehr zumuten. Doch auch hier gibt es politische Ansätze. Wie viel möchte der Staat tun, um Eltern mehr Zeit und Energie für ihre Kinder zu gewähren – etwa durch mehr Kindergeld oder Regelungen für flexiblere Arbeitszeiten? Im Vergleich dazu sind Gesetze für mehr Überwachung und Kontrolle im Netz billig zu haben – und leider oft wertlos.

Und jetzt? Ein Ausblick

Auch Digitaltrainer Wolff nennt in seinem Buch konkrete, politische Ideen. „Was aus meiner Sicht alle Schulen baldmöglichst einführen sollten, ist ein ‚echtes‘ Smartphone-Verbot“, schreibt er. Genau das wird gerade kontrovers diskutiert – unter anderem das Kinderhilfswerk und der Bundeselternrat sind gegen pauschale Verbote. Stattdessen sollten Schüler*innen, Lehrer*innen und Eltern gemeinsame Regeln entwickeln.

Weiter plädiert Wolff in seinem Buch für eine verpflichtende Altersverifikation bei Social-Media-Plattformen. Fachleute aus den Bereichen Kinderschutz und digitale Grundrechte sehen das allerdings kritisch. Die Kritik reicht von der Warnung, dass Alterskontrollen allenfalls ein Baustein sein können bis hin zur generellen Ablehnung. Ein Problem: Solche Kontrollsysteme stellen nur eine trügerische Sicherheit her; zugleich schaffen sie neue Gefahren für Minderjährige und für Erwachsene, die sich massenhaft online verifizieren müssten.

Schließlich spricht sich Wolff für ein Schulfach „Digitalität“ aus. Zu viele Eltern würden sich dem Thema Medienkompetenz verweigern; die Erziehungsaufgabe bliebe an den Schulen hängen. Einen Blick auf Schulen hat auch die Wissenschaftsakademie Leopoldina in einem aktuellen Diskussionspapier geworfen. Demnach fehle es nicht an Materialien, sondern an Fachpersonal, Zeit und Fortbildungsmöglichkeiten.

Die Suche nach netzpolitischen Lösungen ist ein Thema für sich. „Allein mit dem Handy“ geht hier nicht in die Tiefe. Stattdessen überzeugt das Buch durch eine umfassende Problembeschreibung. Das gelingt, weil der Autor immer wieder die Perspektive einbringt, die er von den Kindern und Jugendlichen gelernt hat. Zum Beispiel, dass man auf das Thema Spaß nie verzichten sollte:

Wenn Sie mit Kindern und/ oder Jugendlichen über Smartphones und das Internet sprechen und dabei nicht auch über Spaß reden, hören sie Ihnen schon nach kürzester Zeit überhaupt nicht mehr zu!


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

❌