🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Ältere BeiträgeHaupt-Feeds

AI Act: Wie die Ausnahmen in der KI-Verordnung landeten

Anfang Februar 2025 gelten die ersten Regel aus dem AI Act. Das Gesetz soll die Gefahren sogenannter Künstlicher Intelligenz eindämmen. Tatsächlich enthält es zahlreiche Ausnahmen. Vor allem Frankreich verhandelte Schlupflöcher mit potenziell weitreichenden Folgen für Europas Grundrechte.

Fotomontage, u.a. mit Emmanuel Macron, einer Überwachungskamera und einer EU-Flagge
Frankreich spielte bei den Ausnahmen im AI Act eine zentrale Rolle. – Alle Rechte vorbehalten Spoovio/Georgina Choleva für Investigate Europe

Dieser Artikel wurde von dem Journalistenteam Investigate Europe recherchiert, das aus Reporterinnen und Reportern aus elf europäischen Staaten besteht. Die Recherche wird gemeinsam mit Medienpartnern wie Disclose (Frankreich), EU Observer (Belgien), Il Fatto Quotidiano (Italien), InfoLibre (Spanien), Publico (Portugal) und Efsyn (Griechenland) veröffentlicht.

Ab dem 2. Februar 2025 sind KI-Systeme, die ein unannehmbares Risiko darstellen, in der EU verboten. Das ist im AI Act, der europäischen KI-Verordnung, geregelt. Die ersten dieser Regeln werden bald gültig, bei anderen dauert es noch etwas. Aber der AI Act enthält Ausnahmen und Schlupflöcher. Deshalb dürfen etwa Strafverfolgungsbehörden weiter Gesichtserkennung auf Videoüberwachungsbilder anwenden und an der Grenze dürfen automatisiert die mutmaßlichen Emotionen von Geflüchteten ermittelt werden. Das sind nur einige der Punkte, die die EU-Staaten in den europäischen AI Act hineinverhandelt haben. Dabei sollte das Gesetz eigentlich die zahlreichen Grundrechtsbedenken beim Einsatz von KI-Systemen ausräumen.

Grund für die Ausnahmen ist unter anderem die geheime Lobbyarbeit Frankreichs und anderer EU-Staaten. Das zeigen interne Dokumente aus den Verhandlungen, die Investigate Europe vorliegen. Sie zeichnen ein Bild von Gesprächen, in denen es den Mitgliedstaaten gelang, den Gesetzestext zu verwässern und damit Polizei und Grenzschützern die Möglichkeit zu geben, Bürgerinnen und Bürger heimlich zu überwachen.

Ausnahmen für die „nationale Sicherheit“

„Eine Reihe von bürokratischen Schlupflöchern führt dazu, dass der AI Act nicht das Gesetz zum Schutz der Menschenrechte ist, auf das viele gehofft hatten“, sagt die Direktorin der Brüsseler Nichtregierungsorganisation Equinox, Sarah Chander, die sich gegen rassistische Diskriminierung einsetzt. „In Wirklichkeit ist der AI Act ein industriefreundliches Instrument, das den europäischen KI-Markt schnell voranbringen und den öffentlichen Dienst digitalisieren soll.“

Für die Recherche konnte Investigate Europe mehr als 100 Dokumente aus den Sitzungen des COREPER-Ausschusses sichten, in dem sich die ständigen Vertreter:innen der 27 Mitgliedstaaten treffen. Sie bereiten die Sitzungen des Rats der EU vor. Die Journalistinnen und Journalisten konnten auch mit mehreren Personen sprechen, die an den Verhandlungen beteiligt waren. Sie zeigen, wie Frankreich strategische Änderungen im Gesetzestext durchsetzen konnte.

Das KI-Gesetz verbietet den Einsatz von Gesichtserkennungssystemen im öffentlichen Raum. Ausnahmen, die von der Regierung Macron und ihren Unterstützern in das Gesetz hineinverhandelt wurden, ermöglichen es jedoch, dass Strafverfolgungsbehörden und Grenzschutzbeamte sich nicht immer an dieses Verbot halten müssen. Dies könnte beispielsweise dazu führen, dass Klimademonstrationen oder politische Proteste mit Hilfe von KI überwacht werden, wenn die Behörden eine Gefährdung der „nationalen Sicherheit“ befürchten.

Harter Kampf um Gesichtserkennung

In einer COREPER-Sitzung im November 2022 brachte der französische Verhandlungsführer die Wünsche seiner Regierung unmissverständlich zum Ausdruck. Er habe gefordert, dass „die Ausnahme von Sicherheit und Verteidigung vom Anwendungsbereich unbedingt beibehalten werden muss“, heißt es in einem Protokoll der Sitzung. Damit bezog er sich auf eine Passage im damaligen Gesetzentwurf, laut der nur das Militär Echtzeit-Gesichtserkennung im öffentlichen Raum einsetzen dürfen sollte. In einer späteren Sitzung unterstützten mehrere Staaten die französische Forderung, darunter Italien, Schweden, Finnland, Tschechien, Litauen, Rumänien, Ungarn und Bulgarien.

„Das war einer der härtesten Kämpfe, den wir am Ende verloren haben“, erinnert sich einer der Verhandlungsführer im Gespräch mit Investigate Europe, der seinen Namen nicht in diesem Bericht lesen möchte. Die endgültige Fassung des Gesetzes erlaubt es Staaten, Überwachungstechnologien einzusetzen, wenn es um die nationalen Sicherheit geht.

In der Praxis könnten sich dank dieser Regelung auch private Unternehmen sowie Drittstaaten an der Überwachung von EU-Bürgern beteiligen, wenn sie den Sicherheitsbehörden des Landes KI-Technologie zur Verfügung stellen. Das Gesetz sieht vor, dass die Überwachung zulässig ist – „unabhängig von der Art der Einrichtung, die diese Tätigkeiten ausübt“.

Schlupfloch für private Unternehmen

„Dieser Artikel verstößt gegen jede Verfassung, gegen die Grundrechte und gegen europäisches Recht“, sagt ein Jurist der konservativen EVP-Fraktion im Europäischen Parlament im Gespräch mit Investigate Europe. „Frankreich könnte zum Beispiel die chinesische Regierung bitten, mit ihren Satelliten Fotos zu machen und diese an die französische Regierung zu verkaufen.“

Die Ausnahme widerspreche auch Urteilen des Europäischen Gerichtshofs, sagt die Rechtswissenschaftlerin Plixavra Vogiatzoglou von der Universität Amsterdam. In den Jahren 2020 und 2022 hatten die Luxemburger Richter geurteilt, dass französische Telekommunikationskonzerne gegen EU-Recht verstoßen hätten, weil sie Daten aus Gründen der nationalen Sicherheit gespeichert hätten. Vogiatzoglou: „Der EU-Gerichtshof hat gesagt, dass private Unternehmen nicht vom EU-Recht ausgenommen sind, auch wenn sie in Fragen der nationalen Sicherheit involviert sind.“

Auch außerhalb der Ratsverhandlungen hat Frankreich in den vergangenen Jahren auf den Einsatz von Überwachungstechnologien gedrängt. So genehmigte das Verfassungsgericht des Landes im Mai 2023 den Einsatz von KI-Systemen zur Videoüberwachung während der Olympischen Spiele in Paris. Diese Maßnahme wurde von Amnesty International als „ernsthafte Bedrohung für bürgerliche Freiheiten und demokratische Prinzipien“ kritisiert. In Zukunft könnte diese Ausnahme zur Regel werden.

Emotionserkennung an der Grenze erlaubt

Ab dem 2. Februar außerdem verboten sind KI-Systeme zur Emotionserkennung am Arbeitsplatz, in Schulen und Universitäten. Außerdem dürfen Unternehmen die Technologie nicht nutzen, um das Verhalten potenzieller Kunden in ihren Geschäften zu analysieren. Auch Arbeitgeber dürfen sie nicht einsetzen, um festzustellen, ob ihre Mitarbeiter zufrieden oder traurig sind. Dank des Einsatzes Frankreichs und anderer EU-Länder dürfen Sicherheitsbehörden und Grenzschützer die Systeme künftig jedoch nutzen.

Bei einer Verhandlungssitzung von COREPER am 29. November 2023 betonte der dänische Vertreter, dass ein Verbot „verhältnismäßig sein muss und nur dann gelten darf, wenn die Gefahr einer Diskriminierung besteht“. Die Niederlande, Portugal und die Slowakei vertraten bei dem Treffen eine ähnliche Position und äußerten sich kritisch zu einer Ausweitung des Verbots auf die Strafverfolgung.

Eine weitere umstrittene Anwendung von KI sind biometrische Kategorisierungssysteme. Deren Betreiber versprechen, damit die ethnische Zugehörigkeit oder sogar die sexuelle Orientierung einer Person bestimmen zu können. Das neue EU-Gesetz verbietet zwar ihren Einsatz, aber hier gibt es ebenfalls eine Ausnahme für Strafverfolgungsbehörden: „Dieses Verbot erstreckt sich nicht auf die Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze … auf der Grundlage biometrischer Daten oder auf die Kategorisierung biometrischer Daten“.

Auch hier war es Frankreich, das die Beschränkungen des AI Act aufweichte. In einem schriftlichen Kommentar zum Gesetzentwurf schrieben die französischen Verhandlungsführer am 24. November 2023, es sei „sehr wichtig, die Suche nach einer Person zu ermöglichen, … die ihre religiösen oder politischen Ansichten zum Ausdruck bringt und beispielsweise ein Abzeichen trägt, wenn diese Person in gewalttätigen Extremismus verwickelt ist oder ein terroristisches Risiko darstellt“.

Gesichtserkennungssoftware kann in Echtzeit eingesetzt werden, wenn dies für die Strafverfolgungsbehörden „unbedingt erforderlich“ ist. Die Polizei kann die Technologie bei Ermittlungen zu 16 bestimmten Straftaten einsetzen, darunter „Umweltkriminalität“. Mehrere Staaten drängten darauf, die Liste um Dutzende von Straftaten zu erweitern. Aus dem Protokoll einer COREPER-Sitzung vom November 2023 geht hervor, dass Frankreich auf eine Ausweitung des Anwendungsbereichs drängte. Unterstützt wurde es dabei von den Vertreter:innen aus Italien, Zypern, Estland, Lettland, Bulgarien und Ungarn.

In derselben Verhandlungssitzung forderte der griechische Vertreter, dass Gefängnisse und Grenzgebiete ausdrücklich von jeglichem Verbot ausgenommen werden sollten. Vielmehr sollten die Behörden die Möglichkeit haben, Bürger und Geflüchtete mit Echtzeit-Überwachungstechnologie zu überwachen.

„Ende der Anonymität“

Mit biometrischen Systemen könnten Millionen von Gesichtern überwacht und mit nationalen Datenbanken abgeglichen werden, um Personen zu identifizieren. Der Einsatz dieser Technologie im öffentlichen Raum würde „das Ende der Anonymität an diesen Orten“ bedeuten, warnte bereits 2020 European Digital Rights. Zivilgesellschaftliche Organisationen warnen seit langem davor, dass der AI Act die Grundrechte in Europa massiv einschränken könnte.

„Wir leben in einem Klima, in dem unsere Regierungen auf immer mehr Ressourcen, Gesetze und Technologien drängen, um Menschen in ihrem Alltag leichter zu überwachen, zu kontrollieren und zu bestrafen“, sagt die Gründerin der Brüsseler Anti-Rassismus-Organisation Equinox, Sarah Chander. „Wir entfernen uns immer weiter von einer Zukunft, in der die wir unsere Ressourcen für soziale Vorsorge und Schutz ausgeben statt für Überwachungstechnologie.“

Als am 6. Dezember 2023 die letzte Verhandlungsrunde zwischen Rat, Parlament und Kommission über die endgültige Fassung des AI Act begann, drängte die spanische Ratspräsidentschaft darauf, den Gesetzestext noch vor den Europawahlen im Juni 2024 zu verabschieden. Offenbar fürchteten die spanischen Diplomaten das Erstarken rechtsradikaler Parteien. Ein Beamter, der an den Gesprächen teilnahm und um Anonymität bat, berichtete Investigate Europe, dass die Unterhändler eineinhalb Tage lang verhandelten. „Wir waren erschöpft, und erst nach einer durchverhandelten Nacht begannen wir um 6 Uhr morgens, über Verbote zu sprechen“, erinnert er sich heute. „Am Ende haben wir erreicht, dass jedes Produkt von einer unabhängigen nationalen Behörde zugelassen werden muss.“

Selbstzertifizierung möglich

Der Einsatz sogenannter Hochrisikotechnologien wie Echtzeitüberwachung ist an bestimmte Bedingungen geknüpft, darunter ein Gerichtsbeschluss, die Registrierung in einer europäischen Datenbank und eine Folgenabschätzung zur Wahrung der Grundrechte. Doch auch hier wurden die strengen Regeln in den Verhandlungen teilweise aufgeweicht. So fügten die Verhandlungsführer dem Gesetz einen Artikel hinzu, der es Unternehmen erlaubt, eine Selbstzertifizierung auszufüllen und damit zu entscheiden, ob es sich bei ihrem Produkt um eine Hochrisikotechnologie handelt oder nicht.

Investigate Europe liegt ein internes Arbeitspapier des juristischen Dienstes des Europäischen Parlaments vor, das diese Lösung in Frage stellt. „Den Unternehmen wird ein hohes Maß an Subjektivität überlassen, was im Widerspruch zum Ziel des AI Act steht, das Risiko von Hochrisiko-KI-Systemen zu regulieren.“

Tatsächlich dürften die Verhandlungspartner auch von dem Interesse getrieben gewesen sein, ihre eigenen Wirtschaftsunternehmen zu schützen. Die Regierung Macron warnte in einer Verhandlungsrunde am 15. November 2023, dass ohne einen breiten Einsatz von KI-Technologien „die Gefahr besteht, dass Unternehmen ihre Aktivitäten in Regionen verlagern, in denen Grundrechte keine Rolle spielen“.

Konkrete Auswirkungen noch nicht absehbar

Es bleibt abzuwarten, inwieweit die Mitgliedstaaten die Ausnahmen nutzen werden. Der niederländische Anwalt für digitale Rechte, Anton Ekker, glaubt, dass die Ausnahmen in der Praxis kaum Auswirkungen haben werden. „Ich bin sehr kritisch, wenn ein Staat Algorithmen einsetzt. Aber zu sagen, dass alles erlaubt ist, weil es Ausnahmen gibt, ist nicht richtig“, sagte er in einem Interview mit Investigate Europe. „Es gibt viele nationale Verfassungen, die Grundrechte schützen.“

Professorin Rosamunde van Brakel forscht an der Vrije Universiteit Brüssel zu ethischen Fragen rund um den Einsatz von KI. Sie befürchtet, dass das Gesetz Betroffenen kaum helfen wird. „In den meisten Fällen greifen Regulierung und Aufsicht erst, nachdem es zu einem Verstoß gekommen ist. Vorher schützen sie uns nicht“, sagt sie. „Außerdem betreffen KI-Anwendungen im öffentlichen Sektor oft schutzbedürftige Bevölkerungsgruppen, die nicht in der Lage sind, eine Beschwerde einzureichen oder darauf zu vertrauen, dass eine Beschwerde ernst genommen wird.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

EDMO: Plattformbeobachter mit großer Plattformnähe

01. Februar 2022 um 08:58
Illustration: Hand hält ein großes Teleskop
Wer beobachtet wen für wen? – Alle Rechte vorbehalten IMAGO / Ikon Images

Eine Stelle, die im Auftrag der EU das Vorgehen von Facebook und Google gegen Desinformationen beobachten soll, hat zahlreiche Verbindungen zu den Technologiekonzernen. Das ist das Ergebnis einer Recherche von Investigate Europe und netzpolitik.org. Die EU-Kommission initiierte im Juni 2020 die Europäische Beobachtungsstelle für digitale Medien (EDMO). An dieser sind laut der Recherche ein ehemaliger Facebook-Manager beteiligt sowie mehrere Organisationen, die von Google finanziert werden. Nun warnen Kritiker, dass die Nähe zu den Plattformen die Arbeit der Beobachtungsstelle beeinflussen könnte. EDMO soll im Auftrag der EU unter anderem beobachten, wie die Plattformen den EU-Verhaltenskodex für Desinformation umsetzen.

Von den 25 Personen im Vorstand sowie im Aufsichtsrat haben elf direkte Verbindungen zu großen Techfirmen. Darunter sind Akademikerinnen und Journalisten, deren Arbeitgeber von Plattformen wie Google oder Facebook finanziell unterstützt werden. In den Gremien arbeiten mehrere Hochschulprofessorinnen, die von den Konzernen Zuschüsse für ihre Lehrstühle und Forschungsprojekte erhalten. Zwei Personen in der EDMO-Führung haben in den vergangenen Jahren sogar unmittelbar für die Tech-Konzerne gewirkt – als Lobbyisten.

Bevor er Mitglied des EDMO-Vorstands wurde, reiste Richard Allan von 2009 bis 2019 als Facebooks Cheflobbyist durch Europa. Bereits 2019 konnte Investigate Europe dokumentieren, dass Allan Druck auf EU-Experten ausgeübt haben soll, die sich für einen strikteren Umgang mit den Plattformen einsetzten. Heute kümmert sich der Brite Nick Clegg um die Interessen Facebooks in Europa als „Vizepräsident für Globale Angelegenheiten. Clegg und der heutige EDMO-Vorstand Allan sind politische Verbündete.

Neben ihrer Tätigkeit als Vorsitzende des EDMO-Aufsichtsrats arbeitet Madeleine de Cock Buning als „Vizepräsidentin Public Policy“ für Netflix. Desinformationen haben für Netflix bisher nur eine nebensächliche Rolle gespielt. Den Verhaltenskodex der EU hat Netflix bisher nicht unterzeichnet.

Drehtüren und befürchtete Interessenskonflikte

Es verstoße gegen die Regeln der guten Organisationsführungen, dass Allan und de Cocking Buning trotz ihrer Nähe zu den Plattformen in der EDMO-Führung arbeiten, kritisieren mehrere Experten im Gespräch mit Investigate Europe und Netzpolitik.org.

„Eine Beobachtungsstelle darf nicht von Personen betrieben werben, die eng mit jenen verbunden sind, die sie beobachten sollen“, sagt die Leiterin des europäischen Verbraucherschutzverbandes BEUC, Monique Goyens. Richard Allans Wechsel von Facebook zur Beobachtsstelle verlief „nahtlos“. Das sei „ein klassisches Beispiel für den Drehtür-Effekt“.

„Personen, die so eng mit der Wirtschaft verbandelt sind, können nicht als unabhängig gelten“, sagt die Lobbyexpertin der Brüsseler Transparenzorganisation Corporate Europe Observatory, Vicky Chase. „Wer für die Technologiekonzerne arbeitet oder von ihnen finanzielle Mittel erhält, sollte nicht Teil einer Organisation wie EDMO sein.“ Laut Chase liegen „eindeutige Interessenskonflikte“ vor.

Neben EDMO hat die EU-Kommission auch den Verband nationaler Regulierungsbehörden (ERGA) damit beauftragt zu prüfen, ob die Technologiekonzerne den Verhaltenskodex einhalten. Anders als bei EDMO können sich bei ERGA nur Organisationen beteiligen, die ausschließlich mit öffentlichen Mitteln finanziert werden.

ERGA und EDMO

Der Leiter der Desinformationsabteilung bei ERGA, Lubos Kuklis, fordert Transparenz von der Beobachtungsstelle. „Es muss offengelegt werden, wer wieviel Geld von den Plattformen erhält“, sagt Kuklis. Ihm sei bisher kein Fall bekannt, den er als „unzulässige Einmischung der Plattformen“ werten würde. Falls es aber dazu komme, werde er es „nicht einfach hinnehmen“, sagt Kuklis.

Andere sehen die Nähe zwischen EDMO-Führung und den Plattformen weniger problematisch. Wie Netflix-Lobbyistin Madeleine de Cock Buning ist auch Sally Reynolds Teil des Aufsichtsrats der Beobachtungsstelle. Dass Personen in der EDMO-Führung Lebensläufen wie die von Allan oder de Cock Buning haben, sei für sie verständlich. „Sie wollen doch nicht, dass Leute über Desinformation sprechen, die nur Ahnung von der Fischerei haben“, sagt Reynolds im Gespräch mit Investigate Europe. Allan und de Cock Buning hätten eine „Meinung“. Reynolds sagt: „Das wird von ihnen erwartet“.

In einer Stellungnahme teilt EDMO mit, dass die Führung der Beobachtungsstelle alle Interessensgruppen repräsentieren solle. Der frühere Facebook-Lobbyist Richard Allan sei Teil des Vorstandes, weil er Erfahrung darin habe, mit der EU zu arbeiten. Die EDMO-Satzung enthalte zudem Vorkehrungen, um potenzielle Interessenskonflikte zu verhindern. Investigate Europe kontaktierte auch Allan und de Cock Buning. Beide verzichteten auf eine Stellungnahme.

Ein Netzwerk aus Plattform-Profiteuren

Auf dem Papier wird EDMO ausschließlich von der EU finanziert. Die Beobachtungsstelle selbst erhält 2,5 Millionen Euro Fördergelder. Weitere elf Millionen Euro erhalten acht regionale Zentren. Viele der Mitglieder von EDMO verfügen jedoch über eigene finanzielle Mittel. Die Beobachtungsstelle ist ein Netzwerk, geflochten aus Partnerschaften zwischen Hochschulen und Faktenprüfern, die nur zu einem kleinen Teil aus den EDMO-Mitteln finanziert werden.

Im Zentrum des EDMO-Netzwerks befindet sich ein Konsortium aus vier Organisationen, die im Jahr 2020 die Beobachtungsstelle gegründet haben: das Europäische Hochschulinstitut (EUI), das Athens Technology Center, die Universtät Aarhus sowie die italienischen Faktenprüfer Pagella Politica. Drei dieser vier Institute werden teilweise von Google finanziert. So erhielt das Athens Technology Center in den Jahren 2016 und 2019 Google-Stipendien. An der Universität von Aarhus finden neun Projekte statt, die von Google und Facebook finanziert werden. Pagella Politica nennt Facebook einen Hauptkunden.

Geld der Plattformen fließt auch an weitere Organisationen, die Teil des EDMO-Netzwerks sind. So kooperieren die Beobachtungsstelle und ihre Regionalzentren mit mindestens acht Hochschulen, die sich von jenen Konzernen mitfinanzieren lassen, die sie im Rahmen von EDMO beobachten sollen. Zudem sind 18 Medienorganisationen Teil des EDMO-Netzwerks, die Geld von den Plattformen erhalten haben, vor allem im Rahmen der Google Digital News Initiative.

Dabei handelt es sich um etablierte Medienorganisationen. Google will mit der Initiative laut eigenen Mitteilungen „Qualitätsjournalismus“ stärken. Doch eine Studie der Otto-Brenner-Stiftung und des Deutschen Gewerkschaftsbundes kommt zu einem anderen Schluss. Darin wird die Initiative als „Werkzeug für Lobbyismus“ beschrieben.

EDMO und die Google-Fördergelder

Die Nähe von EDMO und den Plattformen wird auch bei dem sogenannten Europäischen Medien- und Informationsfonds (EMIF) sichtbar. Der umfasst 25 Millionen Euro und richtet sich laut Website an „Forscher, Faktenprüfer, gemeinnützige Organisationen und andere im öffentlichen Interesse tätige Organisationen, die sich mit Desinformationsforschung und der Stärkung von Medienkompetenz“ befassen. Die finanziellen Mittel des Fonds stammen lediglich von einem Gönner: Google. Wenn künftig entschieden wird, welche Prioritäten mit dem Google-Geld aus dem EMIF unterstützt werden, sitzen auch EDMO-Vertreter mit am Tisch.

Ein Teil des Fonds ist bereits reserviert. Davon soll künftig das Europäische Hochschulinstitut (EUI) bezahlt werden, das Teil des EDMO-Konsortiums ist. Auf Nachfrage teilte das Institut mit, dass es mehr als 260.000 Euro für „Aktivitäten im Zusammenhang mit dem Fonds“ erhalten habe.

Die europäische Verbraucherschützerin Monique Goyens warnt davor, dass der Fonds zu Abhängigkeiten führen könnte. „Die Begünstigten werden wahrscheinlich nicht die Kritischsten gegenüber den Plattformen sein“, sagt Goyens. „Es wird immer schwieriger, Akademiker zu finden, die kein Geld von den Plattformen erhalten.“

Das sieht man bei Google anders. Auf Nachfrage teilte der Konzern zu dem Fonds mit: „Die Stärkung der Medienkompetenz, die Bekämpfung von Desinformation und die Unterstützung von Faktenprüfung sind ein integraler Bestandteil unserer Mission.“

Die EU-Kommission wirbt unterdessen für öffentliche-private Partnerschaften bei der Desinformationsbekämpfung. Auf Nachfrage teilte sie mit: „Der Kampf gegen Desinformation findet nicht im luftleeren Raum statt. Er erfordert die Anstrengung aller Beteiligten.“ Deshalb würden Plattformen mit Faktenprüfern und Forschern kooperieren und deren Arbeit „unterstützen“.

EU-Verhaltenskodex soll strenger werden

Der EU-Verhaltenskodex sieht zwar vor, dass die Plattformen verschiedene Projekte fördern sollen. Doch das Regelwerk selbst steht massiv in der Kritik. Denn geschrieben wurde es teilweise von den Technologiekonzernen selbst. Anschließend erklärten sie sich freiwillig bereit, das Papier zu unterzeichnen. Doch bei Verstößen müssen die Konzerne keine Strafen fürchten. Denn Sanktionen sieht der Kodex nicht vor.

Deshalb fordern einige nun einen strengeren Kodex. Dazu gehört auch der SPD-Europaabgeordnete Tiemo Wölken. „Es ist nicht überraschend, aber enttäuschend zu hören, dass das Gremium, das die Einhaltung des Verhaltenskodex überwachen soll, auch Verbindungen zu Plattformen haben soll“, sagt er. Wie auch der ERGA-Desinformationsexperte Lubos Kuklis fordert Wölken, dass der Verhaltenskodex nachgebessert werden müsse. Unabhängige Stellen müssten dann prüfen, dass die Plattformen die Regeln einhalten und bei Verstößen Sanktionen erlassen können.

Momentan prüft die EU-Kommission eine Änderung des Verhaltenskodex. Eine Neufassung des Textes könnte möglicherweise bereits im März verabschiedet werden. Doch das ist keinesfalls das Ende der Beobachtungsstelle und ihres Netzwerks. Die Pläne der Kommission würden die Rolle von EDMO sogar stärken.

Die Beobachtungsstelle würde dann als Teil einer Taskforce die EU-Kommission künftig dabei unterstützen , die Einhaltung des überarbeiteten Regelwerks zu prüfen. Zudem könnte EDMO weitere Gelder der Plattform in einem EU-Fonds verwalten und entscheiden, wer diese erhalten soll. Sanktionen sieht der Kodex auch in seiner neuen Fassung nicht vor.

„Investigate Europe“ ist ein europäisches Journalistenteam, das europaweit recherchiert und veröffentlicht. IE wird von Leserinnen und Lesern unterstützt sowie von folgenden Stiftungen: Logan Foundation, Rudolf-Augstein-Stiftung, Kennedy-Hübner, Fritt Ord, Adessium und Cariplo Foundation. Mehr zum Projekt und zum kostenlosen Newsletter. Diese Recherche ist ebenfalls auf Englisch erschienen..

Maxence Peigne ist ein französischer Journalist, der in London lebt. Er hat als Reiseschriftsteller, Fernseh- und Radioproduzent und als Großbritannien-Korrespondent gearbeitet. Er hat 11 Reiseführer über die Britischen Inseln und den Südpazifik veröffentlicht und war für Sender wie France Télévision, Radio France und den BBC World Service tätig.

Nico Schmidt studierte Kulturwissenschaft in Hildesheim und Berlin. Er lernte das journalistische Handwerk an der Hamburger Henri-Nannen-Schule. Als freier Journalist erschienen seine Artikel unter anderem im Spiegel, in der Zeit und bei Vice.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

  • Es gibt keine weiteren Artikel
❌