🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Ältere BeiträgeHaupt-Feeds

Online-Investmentplattformen: Die Spur eines Millionenbetrugs

30. September 2025 um 12:24

Sie versprechen ihren Opfern das große Geld, doch dann ist alles weg: Vermeintliche Online-Investmentplattformen betrügen Menschen um Millionen. Den Drahtziehern auf die Schliche zu kommen, ist schwierig. Eine Recherche hat neue Informationen zu einem Betrugsnetzwerk aufgedeckt.

Collage, zu sehen sind Trading-Kurse, Krypto-Coins und Menschen.
Schnell reich mit Online-Investmentplattformen? – Alle Rechte vorbehalten Spoovio für Investigate Europe

Im Sommer 2020 klickte Anna Leitner auf eine Online-Anzeige. Die erweckte den Anschein, als würde Red-Bull-Gründer Dietrich Mateschitz ein bislang kaum bekanntes, aber garantiert sicheres Investment-Geheimnis verraten. Die Sekretärin einer Grazer Hochschule folgte dem Link, registrierte sich auf einer Plattform namens PrimeOT und bekam wenige Tage später eine Mail von ihrem vermeintlichen persönlichen Finanzberater.

Schnell wurde der Kontakt vertraulich. Der Mann habe von seinen Wochenenden mit Frau und Kindern erzählt, erinnert sich Leitner heute. Bereits Anfang September 2020, kurz nach dem ersten Telefonat, forderte er sie zur ersten Überweisung auf: 10.000 Euro.

In den Monaten darauf gab der Berater vor, für Leitner das Geld in Kryptowährungen zu investieren. Zunächst wuchsen die Gewinne und mit ihnen die Einsätze. „Es ging schnell darum, ob ich nicht noch mehr Geld auftreiben könnte“, sagt Leitner. In den wenigen Monaten bis zum Jahreswechsel 2021 hatte sie fast 30.000 Euro überwiesen.

Was Leitner damals nicht wusste: Dietrich Mateschitz warb nicht wirklich für das Investment, und ihr angeblicher Finanzberater war keiner. Er arbeitete nicht für eine seriöse Plattform, sondern mutmaßlich für ein Callcenter auf dem Balkan und war so Teil einer millionenschweren Betrugsmasche. Und sie war längst nicht das einzige Opfer.

„Ich besorge dir drei Häuser in Spanien“

Ob PrimeOT oder anders, die Namen der einzelnen Portale wechseln, auch wenn einige von ihnen aus dem gleichen Netzwerk stammen. Gemeinsam ist ihnen die Masche, mit der sie Menschen hereinlegen: Zunächst ködern die Betrüger neue Opfer mit Google- oder Meta-Anzeigen. Nach der Registrierung beginnt sofort der Druck.

Ende 2017 klickte Malcolm, ein teilpensionierter Manager aus der Ölindustrie im Nordosten Englands, auf eine Google-Anzeige von Greenfields Capital. Nach einer ersten Investition von 500 Pfund rief ihn am nächsten Tag ein Broker an, und drängte ihn, 34.000 Pfund einzuzahlen.

„Er versprach mir, das Geld innerhalb einer Woche zu verdoppeln und die Gewinne direkt in mein Bankkonto zu zahlen“, erinnert sich Malcolm. „Natürlich kam nichts zurück.“ Alarmiert durch seinen plötzlichen Verlust, schaute sich Malcolm die Firma genauer an. Bald erkannte er, dass die Londoner Adresse auf der Website gefälscht war.

John, ein 64-jähriger Bauunternehmer aus Schottland, stieß 2018 auf eine Anzeige für FX Trade Market. Die Website prahlte mit angeblicher Unterstützung der britischen Version der Fernsehshow Höhle der Löwen, Dragon’s Den.

Der Broker, der ihn anrief, war charmant und glaubwürdig, erinnert sich John. Von dem Geld wollte er eigentlich ein Haus in Spanien kaufen. Heute erzählt John: „Er sagte mir: Ich besorge dir drei Häuser in Spanien.“ Zwischen 2018 und 2019 überwies er 25.000 Pfund und überzeugte sogar seine Tochter zu investieren. Online wuchs sein Portfolio scheinbar auf 130.000 Pfund. Doch eines Tages war alles verschwunden. „Als ich niemanden mehr erreichen konnte, hat mich das Jahre meines Lebens gekostet.“

Razzia im Callcenter

In Belgrad, keine 500 Kilometer von Graz entfernt, wirkte das Callcenter Olympus Prime eher wie ein florierendes Tech-Start-up. Untergebracht in einem modernen Gebäude in einem aufstrebenden Geschäftsviertel von Belgrad, teilte sich die Firma die Adresse mit einem chinesischen Kulturzentrum und einem gehobenen Hotel. Doch als die serbische Polizei an einem regnerischen Morgen im Januar 2023 die Räume des Callcenters betrat, stieß sie auf die Schaltzentrale eines internationalen Betrugsnetzwerks.

„Die Büros sahen vollkommen normal aus, wie in jedem gewöhnlichen Unternehmen, viele Schreibtische, Stühle und Computer“, sagt der Leiter der Abteilung High-Tech-Kriminalität der serbischen Staatsanwaltschaft, Boris Majlat. Ihn überraschte auch, dass sich die rund 50 Mitarbeiter nicht rührten, obwohl bewaffnete Beamten die Räume durchsuchten. Tatsächlich waren sie auf solche Situationen vorbereitet worden: In einem bei der Razzia beschlagnahmten Trainingsvideo erklärten Manager ihren Angestellten, wie sie sich bei einer Polizeikontrolle verhalten sollten. „Sagen Sie, sie bieten nur Schulungsmaterial an“, hieß es, „nicht mehr.“

Die Razzia war Teil eines sogenannten Aktionstages von Europol. Unter Leitung der Staatsanwaltschaft Stuttgart und des Landeskriminalamts Baden-Württemberg durchsuchten Beamte mehr als 20 Standorte in Serbien, Bulgarien und Zypern. Neben Olympus Prime stürmten Ermittler allein in Belgrad drei weitere Callcenter. Von dort aus kontaktierten Callcenter-Agenten ihre Opfer mutmaßlich überall in Europa. Mit falschen Namen, Identitäten und einstudierten Verkaufsargumenten soll sich die Mitarbeiter als Broker ausgegeben haben, um Vertrauen aufzubauen und den Opfern ihr Geld abzunehmen. Fast 300 Personen wurden festgenommen.

Investment-Betrüger bringen Jahr für Jahr alleine in Deutschland Opfer um mehr als eine Milliarde Euro, schätzt ein führender Ermittler im Gespräch mit Investigate Europe. In Österreich ist die Masche mit den vermeintlichen Online-Investmentplattformen inzwischen das größte Betrugsphänomen. Jedes Jahr verlieren Österreicherinnen und Österreicher wie Anna Leitner so einen hohen Millionenbetrag.

Alleine das Netzwerk, in deren Callcenter die Beamten Anfang 2023 stürmten, soll laut dem LKA Baden-Württemberg weltweit über 70.000 Menschen getäuscht haben, darunter 2.000 Menschen in Deutschland. Die Täter sollen dabei schätzungsweise 250 Millionen Euro mit Anlagebetrug wie dem vermeintlichen Krypto-Handel eingestrichen haben, fast 50 Millionen davon in Europa.

In Belgrad hat die Staatsanwaltschaft nun 21 Personen angeklagt für ihre Beteiligung an dem Betrugsnetzwerk. Das Gericht muss die Anklage noch annehmen. Die mutmaßlichen Drahtzieher blieben für die Behörden bislang im Dunkeln.

Diese Recherche von Investigate Europe und des Balkan Investigative Reporting Network (BIRN), die auch bei netzpolitik.org erscheint, zeigt, wie der Geschäftsmann Eliran Oved und seine Frau Liat Kourtz Oved aus Tel Aviv über ein Geflecht von Briefkastenfirmen und Strohmännern mutmaßlich im Zentrum des Netzwerks stehen.

Die Spur der Oveds

Auf Social Media wirken die Oveds wie eine erfolgreiche Familie: Sie posten Fotos von exotischen Urlauben und Kostümpartys. Eliran Oved besitzt zugleich den israelischen Fußballverein Bnei Yehuda. Kürzlich zeichnete der israelische Präsident Oved sogar aus für das soziale Engagement seines Klubs.

Doch hinter dieser Fassade läuft offenbar ein lukratives Geschäft jenseits der Stadien und Preisverleihungen. Oved ist wegen Geldwäsche vorbestraft und betrieb eine illegale Glücksspiel-Website. Dafür saß er ein Jahr im Gefängnis. Diese Recherche zeigt, wie er und seine Frau mit den mutmaßlichen Scam-Callcentern verbunden sind. Über sechs Monate wertete das Recherche-Team Dutzende Handelsregister-Dokumente aus und legte die geschäftlichen Verbindungen der Oveds zum mutmaßlichen Millionenbetrug offen. Eliran Oved und Liat Kourtz Oved selbst ließen eine umfangreiche Anfrage zu den Vorwürfen unbeantwortet.

Das im Januar 2023 gestürmte Callcenter, Olympus Prime, gehört einem engen Vertrauten der Oveds. Auch die drei weiteren durchsuchten Callcenter lassen sich mit dem Paar in Verbindung bringen. Von den Büros aus sollen die Callcenter-Agenten Produkte von Marken angeboten haben, deren Spur zu den Oveds und ihren Geschäftspartnern führt.

Zu diesen Trading-Plattform-Marken gehören FXVC, Greenfields Capital und PrimeOT, jene Plattform, auf der die Grazer Sekretärin Anna Leitner knapp 30.000 Euro investierte. Inzwischen sind alle Webseiten offline.

Aus den Callcentern, die in Verbindung zum Oved-Netzwerk stehen, sollen Mitarbeiter Menschen in Deutschland, der Schweiz, Großbritannien und Irland betreut haben, aber auch Menschen in Kanada und Australien. Investigate Europe und BIRN liegt eine Opferliste vor, die bei der Durchsuchung bei Olympus Prime sichergestellt worden ist. Darauf sind Verluste einzelner mutmaßlicher Opfer vermerkt, von wenigen hundert bis hin zu mehr als einer Million Euro.

Leeds United, Strohmänner und Sponsorenverträge

Einer der bekanntesten Betrugsmarken, FXVC, wurde 2020 sogar offizieller Partner des britischen Fußballklubs Leeds United. Dokumente, die Investigate Europe und BIRN vorliegen, legen nahe, dass FXVC aus den Räumen von Olympus Prime betrieben wurde. Der Premier-League-Deal verschaffte riesige Sichtbarkeit im britischen Markt: Das Logo prangte im Stadion, Millionen Zuschauer sahen es wöchentlich. Im April 2021 entzog die britische Finanzaufsicht FCA FXVC schließlich die Lizenz wegen „irreführender Finanzwerbung“.

Auf dem Papier gehörte FXVC einer zypriotischen Holding, die vorgeblich von Strohmännern geleitet wurde. Tatsächlich findet sich in den Bilanzen ein anderer Name als ultimativ wirtschaftlich Berechtigte: Kourtz Oved. Dieses Muster zeigte sich immer wieder. Offiziell gehören diverse Unternehmen Geschäftspartnern der Oveds. Doch gesteuert wurden diese offenbar von dem Paar.

Zu den wichtigsten Strohmännern gehörten der zypriotische Ex-Fußballer Nikos A., die bulgarische Anwältin Vera A. und Miloš R., ein Serbe mit bulgarischem Pass. Keine dieser Personen antwortete auf Anfragen zu den Vorwürfen. R. ist derzeit in Serbien wegen des Verdachts auf Geldwäsche angeklagt. Zusammen führten die drei als Direktoren fünf Oved-Firmen und hielten Anteile an 14 weiteren Unternehmen des Netzwerks.

Belgrader Vertriebsbüros

Im Gegensatz zu ihren Opfern sollen die Callcenter-Broker in Belgrad satt verdient haben. Verglichen mit dem serbischen Durchschnittsgehalt von rund 900 Euro im Monat gehörten die Mitarbeiter mit ihren Grundgehältern und Boni zu den Topverdienern des Landes. Manche kassierten monatliche Provisionen von 60.000 bis 80.000 Euro.

Im Olympus-Prime-Callcenter sollen fünf Teams rund um die Uhr gearbeitet haben, aufgeteilt nach Sprache und Region. Das deutschsprachige Team „Panzer“ soll sich um Opfer in Deutschland, Österreich und der Schweiz gekümmert haben, andere Teams kümmerten sich um Skandinavien und den englischsprachigen Raum. Interne Chats, die die Polizei sicherstellte, zeigen die Verachtung gegenüber den Kunden: „Idioten“, hieß es in einem Chat. Als ein Opfer 40.000 Euro investieren wollte, schrieb ein Kollege: „Super, schnapp’s dir!“

Die Mitarbeiter sollen länderspezifische Decknamen wie „Jack Weiss“ oder „James Eastwood“ genutzt haben. Ihre Kunden lockten sie offenbar zunächst mit kleinen, scheinbar realen Gewinnen, dann drängte sie diese zu immer höheren Einzahlungen.

Die serbische Staatsanwaltschaft beschreibt Olympus Prime als ein hierarchisches Unternehmen. An der Spitze sollen israelische Manager gestanden haben, das Tagesgeschäft leiteten serbische Führungskräfte, am Telefon arbeiteten lokale Agenten. Offizieller Eigentümer: Nikos A., der Ex-Fußballer und Strohmann der Oveds.

„Wir haben es nicht mit Amateuren zu tun. Das ist organisierte Kriminalität. Wenn wir nicht reagieren, verlagern sie den Standort einfach und machen weiter“, warnt der serbische Staatsanwalt Boris Majlat, der in dem Fall ermittelt.

„Wenn wir nichts tun, ziehen sie einfach weiter“

Trotz der Festnahmen Anfang 2023 sind viele Schlüsselfiguren noch immer auf freiem Fuß. Majlat sagt: „Wir haben es mit transnationalem, krypto-basiertem Betrug zu tun, aber die Gerichte behandeln es wie einen normalen Fall.“ Er fordert spezialisierte Einheiten. „Ohne diese können wir nicht gewinnen.“

Seit 2019 leitet der Bamberger Staatsanwalt Nino Goldbeck eine Ermittlungsstelle für den Investment-Betrug. Über die Arbeit sagt er, „Wenn wir ein Callcenter mit 200 Beschäftigten durchsuchen, landet davon nur ein Bruchteil in Haft“. Gründe dafür seien Ressourcenknappheit, Priorisierungsfragen sowie unterschiedliche Rechtsrahmen. Die Bamberger Ermittler ließen seit 2019 europaweit 15 Durchsuchungen durchführen. Bisher wurden ungefähr 80 Personen abschließend rechtskräftig verurteilt.

In Serbien laufen die Ermittlungen weiter. Mit führenden Verdächtigen im Ausland und vielen Jurisdiktionen sei es aber extrem schwer, Recht durchzusetzen. Zu den Oveds selbst wollte die Staatsanwaltschaft „keinen Kommentar“ abgeben.

In Deutschland hat inzwischen die Generalstaatsanwaltschaft in Karlsruhe das Verfahren an sich gezogen. Fünf Jahre nach den mutmaßlichen Taten und mehr als zwei Jahre nach den Durchsuchungen in Serbien, Bulgarien und Zypern hat diese noch immer keine Anklage erhoben. Die zuständigen Staatsanwälte äußern sich zu dem laufenden Verfahren nicht.

Gegen die Oveds und deren mutmaßliche Strohmänner wurde bisher keine Anklage erhoben wegen Straftaten im Zusammenhang mit dem serbischen Callcenter-Betrug, der in diesem Artikel geschildert wird.

Viele Opfer kämpfen noch immer mit den Folgen. Manche wollten gar nicht reden, aus Angst, erneut ins Visier zu geraten. Andere sagten, die Erinnerungen seien zu schmerzhaft. Auch Anna Leitner fällt es nicht leicht, darüber zu sprechen, wie sie ihr Erspartes über die vermeintliche Investment-Plattform PrimeOT verlor.

„Die haben mich rausgeschmissen“

Binnen vier Monaten hatte Leitner fast 30.000 Euro investiert. Im Januar 2021 erkannte sie, dass sie in eine Betrugsmasche geraten war. Da war es zu spät. „Ich wollte mein Geld ausgezahlt bekommen“, erinnert sich Leitner heute. Doch ihr vermeintlicher Finanzberater habe nur Ausreden präsentiert. In einer E-Mail bat sie ihn um ein Gespräch. Doch der Mann, der bis dahin auch mal von seiner Familie geplaudert hatte, meldete sich nicht mehr. Kurz darauf konnte Leitner sich nicht mehr auf der Investment-Webseite einloggen. Heute sagt sie: „Die haben mich rausgeschmissen.“

„Dann wurde mir klar, dass ich Scheiße gebaut habe“, sagt Leitner. Mit einer Berliner Anwaltskanzlei versuchte sie im März 2021, ihr Geld zurückzuholen. Doch alle Bemühungen liefen ins Leere. Im Herbst 2023 schrieb ihr Anwalt, dass „trotz unserer Bemühungen, Beschwerde und Übersendung weiterer Ermittlungsansätze“ die Staatsanwaltschaft Graz „die Ermittlungen gegen die PrimeOT eingestellt hat“. Auf Nachfrage bestätigt die Staatsanwaltschaft Graz die Einstellung des Verfahrens.

Trotz allem expandieren die Oveds unterdessen weiter. Unlängst brachten sie über eine Offshore-Gesellschaft neue Marken auf den Markt: Klips.com und 50K.trade.

Dieser Artikel ist der erste Teil der Recherche „Scam Europe“, die vom Balkan Investigative Network (BIRN) geleitet wurde sowie von Investigate Europe, einem Journalistenteam, das länderübergreifend arbeitet. Die Recherche wird gemeinsam mit Medienpartnern in acht Ländern veröffentlicht, darunter auch Altreconomia, Balkan Insight, EU Observer, The Irish Times, La Libre, Público sowie Der Standard. Dieses Projekt wurde unterstützt von IJ4EU (Investigative Journalism for Europe).


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

AI Act: Wie die Ausnahmen in der KI-Verordnung landeten

Anfang Februar 2025 gelten die ersten Regel aus dem AI Act. Das Gesetz soll die Gefahren sogenannter Künstlicher Intelligenz eindämmen. Tatsächlich enthält es zahlreiche Ausnahmen. Vor allem Frankreich verhandelte Schlupflöcher mit potenziell weitreichenden Folgen für Europas Grundrechte.

Fotomontage, u.a. mit Emmanuel Macron, einer Überwachungskamera und einer EU-Flagge
Frankreich spielte bei den Ausnahmen im AI Act eine zentrale Rolle. – Alle Rechte vorbehalten Spoovio/Georgina Choleva für Investigate Europe

Dieser Artikel wurde von dem Journalistenteam Investigate Europe recherchiert, das aus Reporterinnen und Reportern aus elf europäischen Staaten besteht. Die Recherche wird gemeinsam mit Medienpartnern wie Disclose (Frankreich), EU Observer (Belgien), Il Fatto Quotidiano (Italien), InfoLibre (Spanien), Publico (Portugal) und Efsyn (Griechenland) veröffentlicht.

Ab dem 2. Februar 2025 sind KI-Systeme, die ein unannehmbares Risiko darstellen, in der EU verboten. Das ist im AI Act, der europäischen KI-Verordnung, geregelt. Die ersten dieser Regeln werden bald gültig, bei anderen dauert es noch etwas. Aber der AI Act enthält Ausnahmen und Schlupflöcher. Deshalb dürfen etwa Strafverfolgungsbehörden weiter Gesichtserkennung auf Videoüberwachungsbilder anwenden und an der Grenze dürfen automatisiert die mutmaßlichen Emotionen von Geflüchteten ermittelt werden. Das sind nur einige der Punkte, die die EU-Staaten in den europäischen AI Act hineinverhandelt haben. Dabei sollte das Gesetz eigentlich die zahlreichen Grundrechtsbedenken beim Einsatz von KI-Systemen ausräumen.

Grund für die Ausnahmen ist unter anderem die geheime Lobbyarbeit Frankreichs und anderer EU-Staaten. Das zeigen interne Dokumente aus den Verhandlungen, die Investigate Europe vorliegen. Sie zeichnen ein Bild von Gesprächen, in denen es den Mitgliedstaaten gelang, den Gesetzestext zu verwässern und damit Polizei und Grenzschützern die Möglichkeit zu geben, Bürgerinnen und Bürger heimlich zu überwachen.

Ausnahmen für die „nationale Sicherheit“

„Eine Reihe von bürokratischen Schlupflöchern führt dazu, dass der AI Act nicht das Gesetz zum Schutz der Menschenrechte ist, auf das viele gehofft hatten“, sagt die Direktorin der Brüsseler Nichtregierungsorganisation Equinox, Sarah Chander, die sich gegen rassistische Diskriminierung einsetzt. „In Wirklichkeit ist der AI Act ein industriefreundliches Instrument, das den europäischen KI-Markt schnell voranbringen und den öffentlichen Dienst digitalisieren soll.“

Für die Recherche konnte Investigate Europe mehr als 100 Dokumente aus den Sitzungen des COREPER-Ausschusses sichten, in dem sich die ständigen Vertreter:innen der 27 Mitgliedstaaten treffen. Sie bereiten die Sitzungen des Rats der EU vor. Die Journalistinnen und Journalisten konnten auch mit mehreren Personen sprechen, die an den Verhandlungen beteiligt waren. Sie zeigen, wie Frankreich strategische Änderungen im Gesetzestext durchsetzen konnte.

Das KI-Gesetz verbietet den Einsatz von Gesichtserkennungssystemen im öffentlichen Raum. Ausnahmen, die von der Regierung Macron und ihren Unterstützern in das Gesetz hineinverhandelt wurden, ermöglichen es jedoch, dass Strafverfolgungsbehörden und Grenzschutzbeamte sich nicht immer an dieses Verbot halten müssen. Dies könnte beispielsweise dazu führen, dass Klimademonstrationen oder politische Proteste mit Hilfe von KI überwacht werden, wenn die Behörden eine Gefährdung der „nationalen Sicherheit“ befürchten.

Harter Kampf um Gesichtserkennung

In einer COREPER-Sitzung im November 2022 brachte der französische Verhandlungsführer die Wünsche seiner Regierung unmissverständlich zum Ausdruck. Er habe gefordert, dass „die Ausnahme von Sicherheit und Verteidigung vom Anwendungsbereich unbedingt beibehalten werden muss“, heißt es in einem Protokoll der Sitzung. Damit bezog er sich auf eine Passage im damaligen Gesetzentwurf, laut der nur das Militär Echtzeit-Gesichtserkennung im öffentlichen Raum einsetzen dürfen sollte. In einer späteren Sitzung unterstützten mehrere Staaten die französische Forderung, darunter Italien, Schweden, Finnland, Tschechien, Litauen, Rumänien, Ungarn und Bulgarien.

„Das war einer der härtesten Kämpfe, den wir am Ende verloren haben“, erinnert sich einer der Verhandlungsführer im Gespräch mit Investigate Europe, der seinen Namen nicht in diesem Bericht lesen möchte. Die endgültige Fassung des Gesetzes erlaubt es Staaten, Überwachungstechnologien einzusetzen, wenn es um die nationalen Sicherheit geht.

In der Praxis könnten sich dank dieser Regelung auch private Unternehmen sowie Drittstaaten an der Überwachung von EU-Bürgern beteiligen, wenn sie den Sicherheitsbehörden des Landes KI-Technologie zur Verfügung stellen. Das Gesetz sieht vor, dass die Überwachung zulässig ist – „unabhängig von der Art der Einrichtung, die diese Tätigkeiten ausübt“.

Schlupfloch für private Unternehmen

„Dieser Artikel verstößt gegen jede Verfassung, gegen die Grundrechte und gegen europäisches Recht“, sagt ein Jurist der konservativen EVP-Fraktion im Europäischen Parlament im Gespräch mit Investigate Europe. „Frankreich könnte zum Beispiel die chinesische Regierung bitten, mit ihren Satelliten Fotos zu machen und diese an die französische Regierung zu verkaufen.“

Die Ausnahme widerspreche auch Urteilen des Europäischen Gerichtshofs, sagt die Rechtswissenschaftlerin Plixavra Vogiatzoglou von der Universität Amsterdam. In den Jahren 2020 und 2022 hatten die Luxemburger Richter geurteilt, dass französische Telekommunikationskonzerne gegen EU-Recht verstoßen hätten, weil sie Daten aus Gründen der nationalen Sicherheit gespeichert hätten. Vogiatzoglou: „Der EU-Gerichtshof hat gesagt, dass private Unternehmen nicht vom EU-Recht ausgenommen sind, auch wenn sie in Fragen der nationalen Sicherheit involviert sind.“

Auch außerhalb der Ratsverhandlungen hat Frankreich in den vergangenen Jahren auf den Einsatz von Überwachungstechnologien gedrängt. So genehmigte das Verfassungsgericht des Landes im Mai 2023 den Einsatz von KI-Systemen zur Videoüberwachung während der Olympischen Spiele in Paris. Diese Maßnahme wurde von Amnesty International als „ernsthafte Bedrohung für bürgerliche Freiheiten und demokratische Prinzipien“ kritisiert. In Zukunft könnte diese Ausnahme zur Regel werden.

Emotionserkennung an der Grenze erlaubt

Ab dem 2. Februar außerdem verboten sind KI-Systeme zur Emotionserkennung am Arbeitsplatz, in Schulen und Universitäten. Außerdem dürfen Unternehmen die Technologie nicht nutzen, um das Verhalten potenzieller Kunden in ihren Geschäften zu analysieren. Auch Arbeitgeber dürfen sie nicht einsetzen, um festzustellen, ob ihre Mitarbeiter zufrieden oder traurig sind. Dank des Einsatzes Frankreichs und anderer EU-Länder dürfen Sicherheitsbehörden und Grenzschützer die Systeme künftig jedoch nutzen.

Bei einer Verhandlungssitzung von COREPER am 29. November 2023 betonte der dänische Vertreter, dass ein Verbot „verhältnismäßig sein muss und nur dann gelten darf, wenn die Gefahr einer Diskriminierung besteht“. Die Niederlande, Portugal und die Slowakei vertraten bei dem Treffen eine ähnliche Position und äußerten sich kritisch zu einer Ausweitung des Verbots auf die Strafverfolgung.

Eine weitere umstrittene Anwendung von KI sind biometrische Kategorisierungssysteme. Deren Betreiber versprechen, damit die ethnische Zugehörigkeit oder sogar die sexuelle Orientierung einer Person bestimmen zu können. Das neue EU-Gesetz verbietet zwar ihren Einsatz, aber hier gibt es ebenfalls eine Ausnahme für Strafverfolgungsbehörden: „Dieses Verbot erstreckt sich nicht auf die Kennzeichnung oder Filterung rechtmäßig erworbener biometrischer Datensätze … auf der Grundlage biometrischer Daten oder auf die Kategorisierung biometrischer Daten“.

Auch hier war es Frankreich, das die Beschränkungen des AI Act aufweichte. In einem schriftlichen Kommentar zum Gesetzentwurf schrieben die französischen Verhandlungsführer am 24. November 2023, es sei „sehr wichtig, die Suche nach einer Person zu ermöglichen, … die ihre religiösen oder politischen Ansichten zum Ausdruck bringt und beispielsweise ein Abzeichen trägt, wenn diese Person in gewalttätigen Extremismus verwickelt ist oder ein terroristisches Risiko darstellt“.

Gesichtserkennungssoftware kann in Echtzeit eingesetzt werden, wenn dies für die Strafverfolgungsbehörden „unbedingt erforderlich“ ist. Die Polizei kann die Technologie bei Ermittlungen zu 16 bestimmten Straftaten einsetzen, darunter „Umweltkriminalität“. Mehrere Staaten drängten darauf, die Liste um Dutzende von Straftaten zu erweitern. Aus dem Protokoll einer COREPER-Sitzung vom November 2023 geht hervor, dass Frankreich auf eine Ausweitung des Anwendungsbereichs drängte. Unterstützt wurde es dabei von den Vertreter:innen aus Italien, Zypern, Estland, Lettland, Bulgarien und Ungarn.

In derselben Verhandlungssitzung forderte der griechische Vertreter, dass Gefängnisse und Grenzgebiete ausdrücklich von jeglichem Verbot ausgenommen werden sollten. Vielmehr sollten die Behörden die Möglichkeit haben, Bürger und Geflüchtete mit Echtzeit-Überwachungstechnologie zu überwachen.

„Ende der Anonymität“

Mit biometrischen Systemen könnten Millionen von Gesichtern überwacht und mit nationalen Datenbanken abgeglichen werden, um Personen zu identifizieren. Der Einsatz dieser Technologie im öffentlichen Raum würde „das Ende der Anonymität an diesen Orten“ bedeuten, warnte bereits 2020 European Digital Rights. Zivilgesellschaftliche Organisationen warnen seit langem davor, dass der AI Act die Grundrechte in Europa massiv einschränken könnte.

„Wir leben in einem Klima, in dem unsere Regierungen auf immer mehr Ressourcen, Gesetze und Technologien drängen, um Menschen in ihrem Alltag leichter zu überwachen, zu kontrollieren und zu bestrafen“, sagt die Gründerin der Brüsseler Anti-Rassismus-Organisation Equinox, Sarah Chander. „Wir entfernen uns immer weiter von einer Zukunft, in der die wir unsere Ressourcen für soziale Vorsorge und Schutz ausgeben statt für Überwachungstechnologie.“

Als am 6. Dezember 2023 die letzte Verhandlungsrunde zwischen Rat, Parlament und Kommission über die endgültige Fassung des AI Act begann, drängte die spanische Ratspräsidentschaft darauf, den Gesetzestext noch vor den Europawahlen im Juni 2024 zu verabschieden. Offenbar fürchteten die spanischen Diplomaten das Erstarken rechtsradikaler Parteien. Ein Beamter, der an den Gesprächen teilnahm und um Anonymität bat, berichtete Investigate Europe, dass die Unterhändler eineinhalb Tage lang verhandelten. „Wir waren erschöpft, und erst nach einer durchverhandelten Nacht begannen wir um 6 Uhr morgens, über Verbote zu sprechen“, erinnert er sich heute. „Am Ende haben wir erreicht, dass jedes Produkt von einer unabhängigen nationalen Behörde zugelassen werden muss.“

Selbstzertifizierung möglich

Der Einsatz sogenannter Hochrisikotechnologien wie Echtzeitüberwachung ist an bestimmte Bedingungen geknüpft, darunter ein Gerichtsbeschluss, die Registrierung in einer europäischen Datenbank und eine Folgenabschätzung zur Wahrung der Grundrechte. Doch auch hier wurden die strengen Regeln in den Verhandlungen teilweise aufgeweicht. So fügten die Verhandlungsführer dem Gesetz einen Artikel hinzu, der es Unternehmen erlaubt, eine Selbstzertifizierung auszufüllen und damit zu entscheiden, ob es sich bei ihrem Produkt um eine Hochrisikotechnologie handelt oder nicht.

Investigate Europe liegt ein internes Arbeitspapier des juristischen Dienstes des Europäischen Parlaments vor, das diese Lösung in Frage stellt. „Den Unternehmen wird ein hohes Maß an Subjektivität überlassen, was im Widerspruch zum Ziel des AI Act steht, das Risiko von Hochrisiko-KI-Systemen zu regulieren.“

Tatsächlich dürften die Verhandlungspartner auch von dem Interesse getrieben gewesen sein, ihre eigenen Wirtschaftsunternehmen zu schützen. Die Regierung Macron warnte in einer Verhandlungsrunde am 15. November 2023, dass ohne einen breiten Einsatz von KI-Technologien „die Gefahr besteht, dass Unternehmen ihre Aktivitäten in Regionen verlagern, in denen Grundrechte keine Rolle spielen“.

Konkrete Auswirkungen noch nicht absehbar

Es bleibt abzuwarten, inwieweit die Mitgliedstaaten die Ausnahmen nutzen werden. Der niederländische Anwalt für digitale Rechte, Anton Ekker, glaubt, dass die Ausnahmen in der Praxis kaum Auswirkungen haben werden. „Ich bin sehr kritisch, wenn ein Staat Algorithmen einsetzt. Aber zu sagen, dass alles erlaubt ist, weil es Ausnahmen gibt, ist nicht richtig“, sagte er in einem Interview mit Investigate Europe. „Es gibt viele nationale Verfassungen, die Grundrechte schützen.“

Professorin Rosamunde van Brakel forscht an der Vrije Universiteit Brüssel zu ethischen Fragen rund um den Einsatz von KI. Sie befürchtet, dass das Gesetz Betroffenen kaum helfen wird. „In den meisten Fällen greifen Regulierung und Aufsicht erst, nachdem es zu einem Verstoß gekommen ist. Vorher schützen sie uns nicht“, sagt sie. „Außerdem betreffen KI-Anwendungen im öffentlichen Sektor oft schutzbedürftige Bevölkerungsgruppen, die nicht in der Lage sind, eine Beschwerde einzureichen oder darauf zu vertrauen, dass eine Beschwerde ernst genommen wird.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

  • Es gibt keine weiteren Artikel
❌