🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
✇netzpolitik.org

Datenpanne bei Schöffenwahl in Berlin: Exponiert im Ehrenamt

Von: Anna Biselli

Daten zu mehr als 700 Personen standen im Netz, weil das Bezirksamt Berlin-Mitte aus Versehen die Vorschlagslisten für die Schöff:innen-Wahl 2024 veröffentlichte. Schöff:innen wurden in der Vergangenheit schon wegen ihres Amts bedroht, sie müssen sich auf den Schutz ihrer Informationen verlassen können.

Verschwommenes Foto von zwei Schöff:innen und einem Richter, im Vordergrund ein Strafgesetzbuch
Schöff:innen sind ehrenamtliche Richter:innen in Strafprozessen, hier in Bochum. – Alle Rechte vorbehalten IMAGO / Funke Foto Services

Im Jahr 2023 bewirbt sich Marie als Schöffin in Berlin. „Ich wollte aktiv Verantwortung in der Gesellschaft übernehmen und an diesem demokratischen Prozess mitwirken“, sagt sie, die in Wirklichkeit anders heißt. Eine juristische Vorbildung hat sie nicht. Doch die ist auch gar nicht notwendig, um ehrenamtliche Richterin zu werden.

Mehr als 60.000 Menschen in Deutschland sind Schöff:innen. Die ehrenamtlichen Richter:innen begleiten Strafverfahren an Amts- und Landgerichten und sind formal den Berufsrichter:innen gleichgestellt, gewählt werden sie für eine Dauer von 5 Jahren. Wer als Schöff:in bestimmt wird, kann das nur mit einer besonderen Begründung ablehnen. Die aktuelle Amtszeit geht bundesweit von 2024 bis 2028.

Wie andernorts in Deutschland bereiten sich auch die Berliner Bezirke im Jahr 2023 auf die Wahl der neuen Schöff:innen an Strafgerichten und zusätzlich der ehrenamtlichen Richter:innen an Verwaltungsgerichten vor. Viele Menschen bewerben sich wie Marie freiwillig auf das Schöff:innen-Amt. Da, wo in der Bundeshauptstadt nicht genügend freiwillige Bewerber:innen zusammenkommen, unter anderem in Berlin-Mitte, werden zusätzlich zufällig ausgewählte Personen auf eine Vorschlagsliste aufgenommen.

Bei einer Sitzung im Frühjahr 2023 beschließt das Bezirksamt Mitte dann seine finale Vorschlagsliste, über die später die Bezirksverordnetenversammlung abstimmen wird. Der Vorgang wird, wie andere Beschlüsse, auf der Website des Bezirksamts veröffentlicht. Doch aus Versehen geraten auch die kompletten Vorschlagslisten ins Netz, auf ihnen eine Menge personenbezogene Daten: „Schöffenvorschlagsliste 2023 männlich freiwillig“ oder „Ehrenamt Richterin“ heißen diese. Gemeinsam enthalten sie mehr als 700 Namen mit Postleitzahl des Wohnorts, Geburtsjahr, teils erlerntem und ausgeübtem Beruf sowie bei einer der Listen sogar die genaue Anschrift und das exakte Geburtsdatum von 16 Personen. Eine Datenpanne.

Aus Versehen „Ja“ eingetragen

Im Gerichtsverfassungsgesetz ist zwar festgelegt, dass die Vorschlagslisten für neue Schöff:innen eine Woche lang zur Einsicht in der Gemeinde ausgelegt werden. In dem Formular für die Berliner Kandidat:innen heißt es jedoch extra, diese Listen würden „nur in gedruckter Form“ zur Einsicht bereitgestellt. Auch die Wochenfrist der Auslage überschreitet die Veröffentlichung des Bezirksamts deutlich.

Doch wie konnte es zu der Veröffentlichung kommen? Auf Anfrage von netzpolitik.org antwortet das Bezirksamt Mitte: „Im Protokoll der entsprechenden Bezirksamtssitzung war unter der Rubrik ‚Veröffentlichung‘ versehentlich ‚Ja‘ eingetragen worden.“ Dieser Fehler sei nicht aufgefallen, „weder dem Bezirksamts-Gremium bei der finalen Freigabe des Protokolls  noch später im Geschäftsbereich, aus dem die Bezirksamts-Vorlage kam, noch im Büro der Bezirksbürgermeisterin, das die Bezirksamts-Vorlage ins Netz geladen hat“.

So stehen die Listen im Jahr 2023 mehrere Wochen online, bis jemand einen Hinweis gibt. „Eine betroffene Person wandte sich seinerzeit an das Wahlamt“, schreibt das Bezirksamt Mitte. Man nimmt daraufhin die Listen aus dem Netz. Wann genau das geschah, kann das Bezirksamt nicht mehr sagen, „jedenfalls zeitnah nach Veröffentlichung“, heißt es auf Anfrage. Eine Meldung an die Berliner Datenschutzbehörde erfolgt damals nicht, auch die Betroffenen bekommen keine Benachrichtigung.

Ein Sprecher der Berliner Datenschutzbehörde bestätigt auf Nachfrage von netzpolitik.org, dass ein Vorfall standardmäßig „binnen 72 Stunden nach Bekanntwerden zu melden“ ist. Warum das damals nicht geschah, lässt sich heute nicht mehr nachvollziehen. Doch das Bezirksamt versäumt noch etwas anderes und denkt nicht daran, dass die Listen auch noch andernorts zu finden sein könnten, etwa im Internet Archive. Das Projekt hat sich der Langzeitarchivierung digitaler Daten verschrieben und bietet unter anderem Einblicke in historische Versionen von Websites. Und so bleiben auch die Vorschlagslisten für Schöff:innen weitere Jahre im Netz. Bis zu einem weiteren Hinweis aus unserer Redaktion Anfang Januar 2026.

Betroffene fühlen sich verunsichert und verwundbar

Diesmal reagiert das Bezirksamt umfangreich und informiert seine interne Datenschutzbeauftragte. Die meldet den Sachverhalt an die Berliner Datenschutzbehörde. Auch an das Internet Archive habe man sich direkt gewandt, heißt es gegenüber netzpolitik.org, und eine „unverzügliche Löschung beantragt“. Betroffene seien ebenfalls per Brief informiert worden. Nach unseren Informationen ist dies mittlerweile auch bei einigen der Menschen auf der Liste passiert, wie stichprobenartige Nachfragen ergeben haben.

Marie, die sich 2023 für das Schöff:innen-Amt beworben hatte, war „fassungslos“, als sie erfuhr, dass ihre persönlichen Daten im Netz veröffentlicht waren. „Ich war davon ausgegangen, dass sensible Informationen verantwortungsvoll geschützt werden“, sagt sie im Gespräch. Dass das bei der Vorschlagsliste offenbar nicht geklappt hat, habe in ihr Verunsicherung und ein Gefühl von Hilflosigkeit sowie Verwundbarkeit ausgelöst. Denn im Gegensatz zur zeitlich begrenzten öffentlichen Auslage in der Gemeinde gebe es bei der Veröffentlichung im Netz ein viel größeres Publikum – „eines, das man damit nie erreichen wollte“.

Die Tragweite des Vorfalls ist auch dem Bezirksamt offenbar bewusst. „Aus datenschutzrechtlicher Sicht handelt es sich um eine unbeabsichtigte Offenlegung personenbezogener Daten“, schreibt das Bezirksamt gegenüber netzpolitik.org. In der zugehörigen Meldung an die Berliner Datenschutzbehörde gibt das Amt unter der Frage „Welche Folgen für die Betroffenen halten Sie für wahrscheinlich?“ folgende Punkte an: „Gesellschaftliche Nachteile, Identitätsdiebstahl oder -betrug, Bedrohung, Erpressung im Kontext der Tätigkeit als Schöff:innen/Richter:innen“.

Schöff:innen verdienen besonderen Schutz

Potenzielle Schöff:innen sind in Strafverfahren besonders exponiert. Das zeigt etwa ein beinahe historischer Fall aus dem Jahr 1995. Mehrere ehrenamtliche Richter:innen verweigerten damals die Zusammenarbeit mit einem Mannheimer Richter, der in einer Urteilsbegründung den damaligen NPD-Chef und Holocaustleugner Günter Deckert „Charakterstärke, tadellose Eigenschaften und einen vorzüglichen persönlichen Eindruck“ attestiert hatte. Einige der verweigernden Schöff:innen bekamen daraufhin Drohungen.

Und erst im vergangenen Jahr zeigte ein weiterer Fall in Berlin, wie sehr Schöff:innen ins Visier geraten können. Damals verfolgte ein Angeklagter aus der sogenannten Querdenker-Szene einen Schöffen im Anschluss an seine Verhandlung. Er bedrängte den Ehrenamtsrichter vor dem Gerichtsgebäude und wollte ihn festhalten. Dem Schöffen gelang es aber, sich in Sicherheit zu bringen.

Ein Sprecher der Berliner Datenschutzbeauftragten schreibt: „Angemessene Datenschutzvorkehrungen sind bei ehrenamtlichem Engagement in öffentlich exponierten Ämtern wie dem Schöffenamt essenziell, insbesondere um die betroffenen Personen vor Belästigung, Bedrohung oder unzulässiger Einflussnahme zu schützen. Gerade Ehrenamtliche, die sich ohne gesonderte Vergütung oder neben ihrem Hauptberuf für das Gemeinwohl einsetzen, verdienen besonderen Schutz ihrer Privatsphäre, damit ihr Engagement nicht zu persönlichen Nachteilen oder Gefährdungen führt.“ Der Sprecher betont weiter, dass es sich beim Schöff:innen-Amt um eine „Bürgerpflicht“ handele. Die Vorgeschlagenen müssten sich auf eine rechtskonforme Datenverarbeitung verlassen können, „unabhängig davon, ob sie sich freiwillig gemeldet haben oder ausgelost wurden“.

Für die Zukunft müsse es „geeignete organisatorische Maßnahmen“ geben, um derartige Vorfälle zu verhindern, so das Bezirksamt. Es will nun nachbessern. Als Beispiele nennt es „die Erarbeitung von Regeln und Prüfschritten für Veröffentlichungsprozesse und verstärkte Sensibilisierung der Beschäftigten für datenschutzrechtliche Anforderungen bei Anlagen mit personenbezogenen Daten“.

Dass das Bezirksamt seine Prozesse überarbeitet, wünscht sich auch Marie. „Da muss eine Aufarbeitung stattfinden, damit sensible Daten bestmöglich geschützt werden.“ Auch eine Entschuldigung und eine Erklärung, wie das passieren konnte, würde sie sich wünschen. Ob sie sich nach dem Datenschutzvorfall noch einmal auf das Schöff:innen-Amt bewerben würde? Nein, sagt Marie. An dieser Entscheidung hat auch der Datenschutz-Vorfall einen großen Anteil. Und sie fürchtet, dass solche Vorkommnisse auch andere abhalten könnten, sich freiwillig zu melden.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Berlin: Undurchsichtige Gesundheitsdatenbank-Pläne nach Brandbrief vorerst gestoppt

Von: Laura Jaruszewski

CDU und SPD wollen in Berlin eine zentrale Gesundheitsdatenbank an der Charité aufbauen. Doch die Berliner Datenschutzbeauftragte kritisierte das Vorhaben der Koalition scharf und fordert Nachbesserungen. Wir veröffentlichen ihren Brandbrief.

Die Berliner Datenschutzbeauftragte Meike Kamp steht vor einer Säule an der Spree in Berlin.
Die Berliner Datenschutzbeauftragte Meike Kamp übt Kritik an der geplanten Gesundheitsdatenbank. – Alle Rechte vorbehalten IMAGO / Funke Foto Services; Bearbeitung: netzpolitik.org

Die rot-schwarze Koalition in Berlin wollte die Charité dazu befähigen, auf Basis eines reformierten Universitätsmedizingesetzes eine neue Gesundheitsdatenbank aufzubauen. Ziel ist es, den Standort Berlin als Zentrum für Wissenschaft, Forschung, Lehre und Innovation zwischen Hochschulen und Instituten zu fördern. Wie sensible personenbezogene Daten geschützt werden, bleibt in dem Vorhaben jedoch unklar, kritisiert die Berliner Datenschutzbeauftragte Meike Kamp.

Als dringliche Beschlussempfehlung hatten CDU und SPD am 15. Januar eine Änderungsvorlage ins Abgeordnetenhaus eingebracht, bevor sich Kamp am 20. Januar einschaltete. Nach scharfer Kritik in einem Brandbrief, den wir veröffentlichen, teilte der Sprecher für Inneres der SPD-Fraktion, Martin Matz, nun die vorläufige Verfahrenseinstellung mit.

Matz zeigte sich Kamps Kritik gegenüber offen. Die Datenbank-Pläne erachte er aber weiterhin als wichtig und will das Vorhaben bis 2029 verwirklichen. Wie es mit dem Vorhaben weitergeht, ist derzeit allerdings offen: In der heutigen Plenarsitzung stand das Thema auf der Tagesordnung, wurde dann aber kurzfristig vertagt.

Senat verstößt gegen Berliner Datenschutzgesetz

Betreffen neue Gesetzesvorhaben den sensiblen Bereich der personenbezogenen Datenverarbeitung – wie in diesem Fall von Gesundheitsdaten – schreibt das Berliner Datenschutzgesetz vor, die Datenschutzbeauftragte verpflichtend zu konsultieren.

Den Kontakt hatten in diesem Fall aber weder Senat noch Abgeordnetenhaus gesucht. Laut des Brandbriefs hatte die Koalition das vor dem parlamentarischen Beschluss auch nicht mehr vor. Schließlich hatten offenbar Teile der Opposition die Datenschutzbehörde auf den Änderungsentwurf hingewiesen.

Unklar ist bisher auch, warum die Charité als weitere betroffene Partei nicht in das Vorhaben einbezogen wurde. Schließlich wäre sie das ausführende Organ gewesen. Nach Angaben eines Sprechers der Charité war sie weder Initiator noch auf andere Weise in die Formulierung des Änderungsentwurfs eingebunden.

Zweck der Datenbank nicht ersichtlich

Kritisch beurteilte Kamp den Änderungsentwurf außerdem hinsichtlich unklarer und unverständlicher Inhalte. Die Datenbank soll mit nicht personenbezogenen Daten gefüttert werden, heißt es im ersten Absatz des neuen Paragraphen. Jedoch würden die folgenden Absätze dann nur Regelungen für den Umgang mit personenbezogenen Daten behandeln.

Es sei daher anzunehmen, dass an der Charité erhobene personenbezogene Daten in nicht personenbezogene Daten umgewandelt werden. Dafür wären dann Vorgaben für Anonymisierungsverfahren notwendig. Angaben, um welche Daten es konkret gehe, wer sie erheben soll und wie sie anonymisiert und in die Datenbank eingespeist werden sollen, fehlen jedoch.

Die jetzige Fassung sehe außerdem eine „staatenübergreifende Nutzung“ vor. Daten könnten somit auch an Dritte außerhalb der EU übermittelt werden. Handele es sich dann doch um personenbezogene Daten, greifen für diesen Fall bestehende Regelungen, unter anderem die Datenschutzgrundverordnung.

Die Notwendigkeit einer neuen Vorschrift bleibt unklar, urteilt Kamp. Erst einmal müsse der Zweck einer neuen Gesundheitsdatenbank verdeutlicht werden. Dann könne geprüft werden, ob dafür eine Erweiterung der bestehenden Gesetzeslage nötig wäre.

Datenschutz zuerst

Tobias Schulze, Fraktionsvorsitzender für die Linke im Berliner Abgeordnetenhaus, schließt sich der geäußerten Kritik an: „Solche Nachlässigkeiten können wir uns besonders in dem sensiblen Bereich von Gesundheitsdaten nicht leisten. Forschung mit Gesundheitsdaten kann sinnvolle Dienste leisten. Gerade damit dieser Mehrwert nicht delegitimiert wird, ist wirkungsvoller Datenschutz besonders wichtig.“

Anonymisierung und Pseudonymisierung sind entscheidende Schritte auf dem Weg dahin, da sie „wichtige Maßnahmen für eine datenschutzkonforme und datensparsame Datenverarbeitung“ darstellen, betont Simon Rebiger, Pressesprecher der Berliner Datenschutzbeauftragten gegenüber netzpolitik.org.

Alles netzpolitisch Relevante

Drei Mal pro Woche als Newsletter in deiner Inbox.

Jetzt abonnieren

Anonymisierte Daten dürfen nicht mit verfügbaren Zusatzinformationen auf eine betroffene Person zurückzuführen sein, betont Rebiger. Bei vielen Methoden verbleiben jedoch Restrisiken. Schätzen Verantwortliche diese nach allgemeinem Ermessen als unbeachtlich ein, gelten Daten als anonym und unterliegen nicht mehr dem Datenschutzrecht.

Im Unterschied dazu müsse bei der Pseudonymisierung nur sichergestellt sein, dass eine bestimmte Personengruppe, der die Daten zugänglich gemacht wird, Betroffene in keinem Fall identifizieren kann, so Rebiger. In solchen Fällen können pseudonymisierte Daten unter bestimmten Umständen als anonym gelten. Ansonsten bleiben die Daten personenbezogen und sind datenschutzrechtlich beschränkt.

Derzeit erarbeitet die Datenschutzkonferenz praktische Hilfestellungen für auf Einzelfälle zugeschnittene Verfahren. Sensible Gesundheitsdaten werden zum Beispiel bei der Übermittlung von Daten aus dem Krebsregister erfasst oder wenn KI-Modelle mit radiometrischen Aufnahmen trainiert werden.


Hier das Dokument in Volltext:


Viertes Gesetz zur Änderung des Berliner Universitätsmedizingesetzes (Drucksache 19/2763)

Änderungsantrag der Fraktion der CDU und der Fraktion der SPD
Dringliche Beschlussempfehlung des Ausschusses für Wissenschaft und Forschung vom 12. Januar 2026
Hier: § 38 Zentrale Gesundheitsdatenbank

Sehr geehrte Frau Präsidentin,
sehr geehrte Vorsitzende der Ausschüsse des Abgeordnetenhauses von Berlin,

ich nehme Bezug auf einen Änderungsantrag zum Vierten Gesetz zur Änderung des Berliner Universitätsmedizingesetzes der Fraktion der CDU und der Fraktion der SPD, der im Ausschuss für Wissenschaft und Forschung am 12. Januar 2026 angenommen und zur dringlichen Beschlussfassung in die 78. Plenarsitzung am 15. Januar 2026 eingebracht wurde.

Die dringliche Beschlussempfehlung sieht durch Einfügung eines neuen § 38 in das Berliner Universitätsmedizingesetz die Errichtung einer zentralen Gesundheitsdatenbank durch die Charité vor, die entsprechend mit Verarbeitungen von Gesundheitsdaten einhergeht. Ich bin entgegen der Vorgaben aus § 11 Abs. 2 Satz 2 Berliner Datenschutzgesetz bisher nicht zu diesem Gesetzesentwurf beteiligt bzw. angehört worden, obwohl die mit der Vorschrift vorgesehenen Errichtung einer zentralen Gesundheitsdatenbank auch die Verarbeitung von personenbezogenen Gesundheitsdaten und damit besonders sensible Bereiche der personenbezogenen Datenverarbeitung betrifft. Irritierend ist insbesondere, dass – wie die Erörterung in der Sitzung des Ausschusses für Wissenschaft und Forschung zeigte – die Beteiligung meiner Behörde auch vor Beschlussfassung im Parlament bewusst nicht mehr vorgesehen ist.

Auch inhaltlich ist die vorgeschlagene Regelung zu kritisieren: Abgesehen davon, dass die Beschlussempfehlung und der Änderungsantrag keine Begründung enthalten, aus welchen Grün- den aus Sicht des Gesetzgebers die Errichtung einer Gesundheitsdatenbank notwendig erscheint, ist der Gesetzesentwurf in seiner derzeitigen Form unklar und unverständlich. Meinen für den Bereich Wissenschaft und Forschung zuständigen Mitarbeiter:innen, die eine besondere Expertise in Bezug auf die Voraussetzungen für die Zulässigkeit der Verarbeitung personenbezogener Gesundheitsdaten haben, erschließt sich der konkrete Regelungsgehalt des § 38 des Entwurfs nicht. Ich habe daher erhebliche Zweifel, ob den Rechtsanwender:innen, insbesondere in der Charité und unter den Forschenden, die Voraussetzungen der Norm in der derzeitigen Fassung verständlich werden wird.

Dies möchte ich im Einzelnen erläutern:

  • Nach Abs. 1 soll eine zentrale Datenbank mit „nicht personenbezogenen Gesundheitsdaten“ errichtet werden. Aus der Vorschrift wird nicht klar, was hierunter zu verstehen ist und woher diese Daten stammen. Es ist davon auszugehen, dass es sich um die Gesundheitsdaten handelt, die die Charité im Rahmen der Behandlung und Versorgung ihrer Patient:innen erhoben hat. Damit diese personenbezogenen Daten nicht mehr personenbezogen sind, muss zunächst eine Anonymisierung durch die Charité erfolgen. Dies setzt eine Regelung voraus, die die Verarbeitung der Daten zum Zweck der Anonymisierung zum Gegenstand hat. Eine solche enthält die Vorschrift jedoch nicht.
  • Abs. 3 legt fest, dass eine „staatenübergreifende Nutzung“ der Datenbank zulässig sein soll, sofern die „Vorgaben des Datenschutzes“ eingehalten werden. Fragen wirft an dieser Stelle bereits auf, dass in Absatz 1 der Vorschrift von einer Datenbank mit nicht personenbezogenen Daten die Rede ist, hier jedoch auf die Vor- gaben des Datenschutzes hingewiesen wird. Zudem ist die Vorschrift unbestimmt und zeigt keinen klaren Regelungsinhalt auf. Eine „staatenübergreifende Nutzung“ ist nichts anderes als eine Übermittlung oder eine Offenlegung der entsprechenden Daten an Dritte außerhalb Deutschlands oder der EU. Entsprechende Regelungen finden sich bereits in § 25 LKG bzw. in § 6 Abs. 3 GDNG sowie bei möglicher Drittstaatenübermittlung in Kapitel V der DSGVO.
  • Abs. 4 S. 1 regelt sodann, dass auch personenbezogene Daten „im Rahmen einer Nutzungsvereinbarung“ zu erheben sind. Gänzlich unklar bleibt, was unter einer solchen Nutzungsvereinbarung verstanden und zwischen wem eine solche Nutzungsvereinbarung geschlossen werden soll. Ferner bleibt unklar, durch wen hier- bei welche Stellen personenbezogenen Daten erhoben werden sollen, und ob und inwieweit diese in die Gesundheitsdatenbank aufzunehmen sind
  • Ferner sind nach Abs. 4 S. 2 „anderweitig erhobene und für Forschung und Lehre relevante Daten unter den Voraussetzungen des § 17 BlnDSG […] in die Gesundheitsdatenbank aufzunehmen“. Diese Vorschrift ist ebenfalls unbestimmt und erfüllt den verfassungsgemäßen Grundsatz der Bestimmtheit des Gesetzes nicht. Zunächst ist unklar, welche Daten in die Gesundheitsdatenbank aufgenommen werden sollen. Aus der Formulierung „anderweitig erhoben“ wird nicht deutlich, wer diese Daten erhoben haben soll (ggf. die Charité). Ferner ist unklar, in welchen Kontexten die Daten erhoben worden sein sollen. Darüber hinaus ist nicht klar, ob es sich um Gesundheitsdaten handeln soll, was ausdrücklich im Gesetzestext zu benennen wäre. Um dem verfassungsrechtlichen Bestimmtheitsgebot gerecht zu werden, müsste explizit beschrieben werden, in welchem Zusammenhang von wem welche personenbezogenen Daten erhoben worden sind.
  • Die Formulierung, dass „für Forschung Lehre relevante Daten“ aufzunehmen sind, ist ebenfalls zu unbestimmt. Unklar bleibt, was unter „Relevanz“ zu verstehen ist und wer über diese Relevanz entscheidet.
  • Auch der Verweis auf § 17 BlnDSG ist nicht verständlich. Zunächst ist anzumerken, dass das BlnDSG nach § 2 Abs. 1 BlnDSG für die Verarbeitung personenbezogener Daten durch Behörden und sonstige öffentliche Stellen des Landes Berlin gilt. Sollte hiermit die Charité angesprochen werden, ist § 25 LKG eine speziellere Norm, die vorrangig anzuwenden wäre. Für Forschende, Studierende oder sonstige Nutzende kann § 17 BlnDSG keine Anwendung finden, weil es sich bei diesem Personenkreis um keine öffentlichen Stellen des Landes Berlin handelt, für die das BlnDSG ausschließlich Anwendung findet (§ 2 Abs. 1 BlnDSG).
  • Ferner enthält Abs. 4 S. 2 eigene Voraussetzungen, die vor Aufnahme der Daten in die Gesundheitsdatenbank zu beachten sind. Gänzlich unklar bleibt das Verhältnis dieser Voraussetzungen zu den in § 17 BlnDSG und § 25 LKG formulierten Voraussetzungen, die die Verarbeitung von (Gesundheits-)Daten zu wissenschaftlichen Forschungszwecken zum Gegenstand haben. Es wird nicht deutlich, welche Regelungen des § 17 BlnDSG und § 25 LKG entsprechend gelten sollen und in welchem Verhältnis diese Rechtsgrundlagen zur Verarbeitung der Daten in der Gesundheitsdatenbank stehen. Hierbei ist ebenfalls nicht nachvollziehbar, wie diese Voraussetzungen erfüllt werden können oder welche Voraussetzungen konkret zu erfüllen sind.
  • Abs. 4 S. 2 regelt ausdrücklich die Aufnahme der Daten in die Gesundheitsdatenbank, nicht die erst nachgelagerte Nutzung durch Forschende oder Studierende. Abs. 4 S. 2 Nr. 2 regelt jedoch beispielsweise als Voraussetzung, dass „der Forschungszweck die Möglichkeit der Zuordnung erfordert, die betroffene Person zu diesem Zweck eingewilligt hat“. Diese Voraussetzung kann jedoch erst dann geprüft werden und erfüllt sein, wenn eine Nutzung der Datenbank für ein Forschungsvorhaben erfolgen soll. Der Forschungszweck ergibt sich nämlich erst aus einem konkreten Forschungsvorhaben, für das eine Nutzung der in der Gesundheitsdatenbank aufgenommenen Daten beantragt wird. Für die vorgelagerte und hier ausschließlich geregelte Aufnahme der Daten in die Gesundheitsdatenbank kann die Voraussetzung des Nr. 2 daher nicht geprüft werden. Dasselbe gilt für die Voraussetzung Nr. 3, nach der das öffentliche Interesse an der Durchführung eines konkreten Forschungsvorhabens überwiegen muss und der konkrete Forschungszweck nicht auf andere Weise zu erreichen ist.
  • Gänzlich unbeachtet bleibt bei Abs. 4 S. 2 auch, dass die Datenbank nach Abs. 2 nicht nur zu wissenschaftlichen und forschungsbezogenen, sondern auch zu lehrbezogenen und innovationsorientierten Zwecken genutzt werden soll, über die Nutzung zu (wissenschaftlichen) Forschungszwecken also hinausgeht.
  • Ferner enthält Abs. 4 S. 3 die Regelung, dass personenbezogene Daten, soweit dies nach dem Forschungszweck erforderlich ist, zu anonymisieren sind. Auch hier stellt sich das Problem, dass auf einen konkreten Forschungszweck abgestellt wird, und nicht auf die grundsätzliche Aufnahme / Verarbeitung der personenbezogenen Daten in der Datenbank.
  • Schließlich sei insgesamt anzumerken, dass zwar Abs. 1 ausdrücklich regelt, dass eine zentrale Datenbank mit nicht personenbezogenen Daten errichtet werden soll, die weiteren Absätze jedoch nur Regelungen zu personenbezogenen Daten enthalten. Ich empfehle daher dringend, die Vorschrift erheblich zu überarbeiten. Dabei wäre es zunächst erforderlich, die mit der Errichtung der Gesundheitsdatenbank verfolgten Zwecke klarzustellen, und dabei auch zu überprüfen, ob die Vorschrift vor dem Hintergrund bereits bestehender gesetzlicher Regelungen überhaupt notwendig ist.

Ich empfehle daher dringend, die Vorschrift erheblich zu überarbeiten. Dabei wäre es zunächst erforderlich, die mit der Errichtung der Gesundheitsdatenbank verfolgten Zwecke klarzustellen, und dabei auch zu überprüfen, ob die Vorschrift vor dem Hintergrund bereits bestehender gesetzlicher Regelungen überhaupt notwendig ist.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Utiq: Tracking jetzt auch am Internetanschluss zu Hause

Von: Christoph Bock

Aus vielen Tracking-Firmen sticht eine heraus: Utiq. Das Unternehmen arbeitet mit Internetzugangsanbietern zusammen. Damit kann Utiq Internetanschlüsse auf eine besondere Art verfolgen. Anfangs war die Technologie auf Mobilfunk beschränkt, doch mittlerweile trackt Utiq auch Festnetzanschlüsse.

3D-Konzeptillustration des Online-Tracking.
Werbetracker nehmen Dein Surfverhalten genau unter die Lupe – und Dein Internetanbieter hilft dabei? (Symbolbild) – Alle Rechte vorbehalten IMAGO / Zoonar

Gegenüber Internetnutzern spricht Utiq von seiner „sozialen Verantwortung, die Daten der Menschen zu schützen und ihre Privatsphäre zu erhalten“. An mögliche Kunden gerichtet wirbt die Tracking-Firma dagegen damit, auch „Zielgruppen in schwer zu trackenden Umgebungen zu erreichen, ohne auf 3rd-Party-Cookies zu setzen“. Immer mehr Internetnutzer blockieren die kleinen Dateien zum Tracking von Drittanbietern, die Anbieterfirma von Utiq positioniert sich als Alternative.

Das Unternehmen Utiq gibt es seit etwa zwei Jahren – ursprünglich war die Trackingtechnologie für Mobilfunkanschlüsse vorgesehen. Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) sieht das Verfahren „zwiespältig“. Den Internetanbietern – ohne deren Zusammenarbeit Utiq nicht funktionieren würde – komme ein besondere Vertrauensstellung zu. Dies sei mit dem Utiq-Tracking nur schwer vereinbar. Doch neben Mobilfunkanschlüssen trackt Utiq mittlerweile auch Breitband-Festnetzanschlüsse der Deutschen Telekom. Das zeigt eine Liste von teilnehmenden Telekommunikationsanbietern, die Utiq im Netz veröffentlicht.

Der digitalpolitische Verein D64 veröffentlichte letztes Jahr eine Recherche zu der Trackingtechnologie, die der Verein mit „Big Brother made in Germany“ betitelt hat. Gegenüber netzpolitik.org erneuert D64 diese Kritik: „Ausleitung von Informationen der Telekommunikationsunternehmen zu Werbezwecken sehen wir nach wie vor kritisch.“ Grundsätzlich lehne D64 jegliches Tracking zu Werbezwecken ab.

Was ist an Utiq besonders?

Utiq arbeitet mit Internetanbietern zusammen. Deshalb kann das Unternehmen Surfverhalten über den Internetanschluss wiedererkennen, selbst nachdem Nutzer Cookies gelöscht, den Browser gewechselt oder gar ein neues Gerät genutzt haben. Mehrere Geräte in einem WLAN kann Utiq jedoch nicht auseinanderhalten.

Für die Nachverfolgung erhält die Firma von den teilnehmenden Anbietern keine persönlichen Daten wie die Mobilfunknummer oder Vertragsnummer, sondern eine einzigartige, pseudonyme Kennung. Utiq selbst erstellt kein Nutzerprofil, gibt an seine Kunden wie zum Beispiel bild.de oder die Hamburger Morgenpost Tracking-Cookies weiter, den Utiq dann mit dem Pseudonym verknüpfen kann. Die Utiq-Tracking-Cookies sind auf jeder Website unterschiedlich und bis zu 90 Tage lang gültig. In der kurzen Gültigkeit sieht Utiq einen besonderen Schutz der Websitenbesucher.

D64 meint hingegen, dass Utiq eine Ergänzung zu herkömmlichen Tracking-Mechanismen mit längeren Laufzeiten sei – und keine Alternative. Das Utiq-Pseudonym ließe sich potenziell mit Informationen aus anderen Trackern kombinieren, meint D64 auf Anfrage von netzpolitik.org. Unseren Recherchen nach arbeitet beispielsweise bild.de aktuell neben Utiq mit 271 anderen Drittanbietern zusammen und der Cookie-Banner der Hamburger Morgenpost listet derzeit 275 weitere Partner auf.

Ausführlichere und technische Erklärungen bieten die Deutsche Telekom und Utiq selbst (en).

Betrifft mich das?

Damit das Tracking aktiviert wird, muss zunächst dein Telekommunikationsanbieter mit Utiq zusammenarbeiten. Zweitens sollte sich Utiq erst dann aktivieren, wenn du dem Tracking zustimmst. Dafür sollten Website-Betreiber deine Einwilligung registrieren – meist passiert das mit einem Cookie-Banner und einem Utiq-Pop-Up. Auf dem Cookie-Banner kannst du aus der Liste von oft hunderten Trackern und Cookies explizit dem Utiq-Verfahren oder direkt allen Trackern widersprechen. Solltest du hingegen einwilligen, öffnet sich ein weiteres Utiq-Pop-Up. Hier kannst du erneut explizit dem Utiq-Verfahren widersprechen.

Die „Allen Trackern widersprechen“- oder „Alles ablehnen“-Knöpfe verstecken Website-Anbieter gerne mit sogenannten manipulativen Designs, die dich vom Widerspruch abbringen sollen. Zudem gibt es Pay-or-Okay-Modelle, bei denen Tracking nur gegen Bezahlung deaktiviert wird.

Wie kann ich widersprechen?

Ein permanentes Opt-Out bei deinem Internetanbieter sei nicht vorgesehen und notwendig, erklärt die Deutsche Telekom auf Anfrage von netzpolitik.org. Nach Ansicht des Unternehmens willigen Kunden der Datenübertragung auf denjenigen Webseiten ein, auf denen Utiq verwendet wird. Also kannst du dem Tracking erstmal nur auf dem Cookie-Banner und dem Utiq-Pop-Up jeder entsprechenden Website widersprechen.

Du willst lieber, dass Utiq niemanden über deinen Internetanschluss trackt, selbst wenn dem jemand zustimmt? Dazu bietet Utiq ein „globales Opt-Out“ in seinem „consenthub“ an. Das lässt sich über den entsprechenden Internetanschluss besuchen. Der Widerspruch dort gilt ein Jahr lang, was D64 als „willkürlich“ bezeichnet. Selbst ein aktiver „globaler Opt-Out“ erfordert zur Verifikation einen gewissen Datenaustausch zwischen Utiq und dem Internetanbieter. Damit Utiq und dein Internetanbieter gar nicht miteinander reden, müssten alle Nutzenden also auf jeder Website dem Tracking widersprechen.

Zudem helfen beispielsweise das im Brave-Browser integrierte „Shield“ und die „strenge“ Variante der Aktivitätenverfolgung im Firefox-Browser. Wenn diese Funktionen aktiviert sind, kann Utiq die notwendigen Skripte nicht mehr einbetten. Für technisch Versierte verschaffen Browser-Erweiterungen wie beispielsweise uBlock Origin Abhilfe. Auch ein Netzwerk-weiter Ad-Blocker wie etwa Pi-hole sollte Utiq unterbinden. Diese Werkzeuge blockieren übrigens neben Utiq auch viele weitere Tracker.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Datenschutzbehörde greift ein: DeepSeek fliegt aus den App Stores

Von: Chris Köver

Der chinesische KI-Chatbot DeepSeek übermittelt Nutzer*innendaten nach China. Die Berliner Datenschutzbehörde geht jetzt gegen den Anbieter vor. Apple und Google sollen DeepSeek aus ihren Stores entfernen.

Smartphone mit geöffnetem Apple-App-Store auf dem Screen
Raus aus den App-Stores, aber weiter verfügbar: KI-Chatbot DeepSeek – Alle Rechte vorbehalten IMAGO / Rüdiger Wölk

Der KI-Chatbot DeepSeek wird in Deutschland verboten. Die Berliner Datenschutzaufsicht hat die chinesische App als rechtswidrig bewertet, weil sie Daten ihrer Nutzer*innen nach China übermittelt. Damit verstößt sie gegen die Datenschutzregeln der EU (DSGVO). Apple und Google sollen die Anwendung nun aus ihren App-Marktplätzen entfernen. Auf anderen Wegen, etwa über den Browser oder heruntergeladen über die Seite des Unternehmens, ließe sich der Chatbot allerdings weiterhin nutzen.

DeepSeek habe gegenüber ihrer Behörde nicht überzeugend nachweisen können, dass Daten deutscher Nutzer*innen in China auf einem der EU gleichwertigen Niveau geschützt sind, sagt die Berliner Datenschutzbeauftragte Meike Kamp.

In China haben Behörden weitreichende Zugriffsrechte auf personenbezogene Daten, die auf den Servern chinesischer Unternehmen lagern.

Ehemals Chartspitze, jetzt auf Verbotsliste

DeepSeek hatte nach der Vorstellung Anfang des Jahres für Furore gesorgt, weil die Leistungen des Modells hinter dem Chatbot an die von Marktführern wie ChatGPT von OpenAI heranreichten – für viele Beobachter*innen kam das überraschend. Zugleich soll das Training des Modells vergleichsweise günstig und mit weniger Rechenleistung stattgefunden haben, berichtete etwa die New York Times. Das brachte die Börsen durcheinander.

Die App gehört zu den beliebtesten KI-Anwendungen weltweit. Auch in Deutschland trendete sie zwischenzeitlich weit oben in den Download-Charts von Apple und Google. Nutzer*innen können mit der kostenlosen App chatten, Bilder hochladen oder sie für die Suche im Netz einsetzen.

Behörden warnten vor der App

Bedenken zum Umgang mit Nutzer*innendaten gab es von Anfang an. Denn alle gesammelten Daten – von Texteingaben und hochgeladenen Dateien bis zu den Informationen zum Standort und dem benutzten Gerät – übermittelt das Unternehmen nach China.

„Auch Tastatureingaben innerhalb der App können womöglich mitgelesen werden, bevor sie abgeschickt werden“, warnte das Bundesamt für Sicherheit in der Informationstechnik (BSI). Außerdem werde die Art der Tastatureingaben gespeichert, heißt es. Anhand der Art, wie Menschen tippen, lassen sich Nutzer*innen wiedererkennen.

Auch die Aufsichtsbehörden für Datenschutz hatten DeepSeek im Blick. Mehrere Landesbehörden gingen parallel gegen das Unternehmen vor. Die Gründe: Weitergabe der Daten und andere mutmaßliche Verstöße gegen die DSGVO. Das Unternehmen hatte etwa keinen gesetzlichen Vertreter in der EU benannt. In Abstimmung mit anderen Aufsichtsbehörden ist es jetzt die Behörde aus Berlin, die Maßnahmen ergreift.

Erst Aufforderung, dann Verbot

Die Behörde hatte nach eigenen Angaben DeepSeek Anfang Mai zunächst aufgefordert, die Übermittlung der Daten nach China einzustellen – oder die App eigenständig aus den Stores zu entfernen. Nachdem das Unternehmen nicht reagierte, folgte demnach heute die Meldung an Apple und Google. Dabei machte die Behörde von einer Regelung im Gesetz über digitale Dienste (Digital Services Act, DSA) Gebrauch, die Betreiber*innen von Plattformen dazu verpflichtet, Meldewege für illegale Inhalte zur Verfügung zu stellen.

Apple und Google müssen die Meldung laut DSA nun prüfen und über die Umsetzung entscheiden. Sie gelten in der EU als „sehr große Online-Plattformen“ und unterliegen damit besonders strikten Auflagen. So müssen sie ihnen gemeldete rechtswidrige Inhalte zügig entfernen, sonst drohen ihnen selbst Strafen in der EU.

Die Behörde hätte gegen DeepSeek auch ein Bußgeld verhängen können. Das lasse sich gegen Unternehmen aus Drittstaaten allerdings nicht vollstrecken, sagt Datenschutzbeauftragte Meike Kamp. Auch gegen die Webseite des Unternehmens könne die Behörde nicht vorgehen, weil der Host-Anbieter nicht bekannt sei.

In Italien ist DeepSeek bereits aus den App Stores verschwunden, nachdem die italienische Datenschutzaufsicht GPDP die App ins Visier genommen hatte. Australien hat die Nutzung der App auf Geräten der Regierung untersagt. In Südkorea wiederum ist die App nach einer zeitweisen Sperre wieder verfügbar, nachdem die Betreiber nachgebessert hatten.

Auch andere chinesische Apps haben Nutzer*innendaten an Server in China übermittelt, darunter die erfolgreichste: TikTok. Das Unternehmen hat jedoch im Gegensatz zu DeepSeek einen Sitz in der EU und fällt in die Zuständigkeit der irischen Datenschutzaufsicht, die jüngst gegen TikTok eine Millionenstrafe veranlasst hat.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Nach netzpolitik.org-Beschwerde: Ombudsfrau wirft EU-Kommission Fehlverhalten vor

Von: Alexander Fanta
Von der Leyen
Kommissionschefin Von der Leyen: Große Deals am kleinen Bildschirm (Symbolbild) – Alle Rechte vorbehalten IMAGO / photothek, Bearbeitung: netzpolitik.org

Es geht um einen Deal in Milliardenhöhe, der das Ende der Pandemie beschleunigen sollte: Im Frühjahr vereinbarte die EU-Kommission den Kauf von 1,8 Milliarden Corona-Impfstoffdosen mit Pfizer. Sie macht den Pharmariesen damit zum Hauptlieferanten der Kommission. Den Durchbruch in den Verhandlungen brachte angeblich der direkte Draht zwischen Kommissionschefin Ursula von der Leyen und Pfizer-Chef Albert Bourla. Die beiden hätten in Anrufen und Nachrichten den Ankauf detailliert besprochen, berichtete damals die New York Times.

Doch bis heute weiß die Öffentlichkeit wenig über das Geschäft, dass heute in ganz Europa Booster-Impfungen ermöglicht. Die Kommission legte zwar – wie bei Verträgen mit anderen Herstellern – eine Vorvereinbarung und einen Kaufvertrag mit Pfizer offen, schwärzte darin aber Lieferpreis und Haftungsklauseln. Intransparent agiert die EU-Behörde auch beim Zustandekommen des Deals. Sie verweigert den öffentlichen Einblick in die Nachrichten zwischen Von der Leyen und Bourla.

Eine Anfrage von netzpolitik.org nach dem Informationsfreiheitsgesetz der EU schmetterte die Kommission im Sommer ab. Sie will nicht einmal verraten, ob die Nachrichten überhaupt noch existieren oder ob sie in der Zwischenzeit schon gelöscht sind. Über diese Intransparenz beschwerten wir uns bei der EU-Ombudsfrau Emily O’Reilly. Ihre Behörde kann solche Beschwerden prüfen und öffentlich Missstände in der EU-Verwaltung anprangern. Rechtlich bindende Entscheidungen trifft sie nicht.

Ombudsfrau sieht „Fehlverhalten“ der EU-Kommission

Heute hat Ombudsfrau O’Reilly ihre Empfehlungen an die Kommission veröffentlicht: Darin sieht sie „maladministration“, ein Fehlverhalten der Kommission. Der Behauptung der Kommission, dass Nachrichten über SMS und Messengerdienste wie WhatsApp generell keine Dokumente seien und daher nicht von der Informationsfreiheit erfasst werden, kann die Ombudsfrau nichts abgewinnen. Egal über welchen Kanal eine Nachricht übermittelt werde – wenn der Inhalt die Arbeit der Kommission betreffe, dann müsse der Öffentlichkeit Zugang gewährt werden.

Die Ombudsfrau legt der Kommission nahe, die Anfrage von netzpolitik.org nochmal zu prüfen. „Wenn es die in Berichten erwähnten Textnachrichten gibt und sie gefunden werden, dann sollte die Kommission prüfen, ob ein öffentlicher Zugang im Sinne von Verordnung 1049/2001 gewährt werden kann.“ Die Kommission hat nun bis 26. April 2022 Zeit, detailliert Stellung zunehmen. Vorerst möchte sie nicht darauf reagieren, wie ein Sprecher auf Anfrage betonte.

Die Vizechefin der EU-Kommission, Věra Jourová, hatte zuletzt neue Leitlinien der Kommission für Informationsfreiheitsanfragen in Aussicht gestellt. Dabei soll auch der Umgang mit Nachrichten über SMS und Messenger neu geregelt werden. Ombudsfrau O’Reilly ruft die Kommission auf, künftig alle Nachrichten unabhängig von ihrer Form auf ihre Relevanz zu prüfen. „Die EU-Verwaltung muss ihre Praxis der Aufzeichnung von Dokumenten an die Realität anpassen“, so O’Reilly.

Einen zeitgemäßen Umgang mit Nachrichten über Messenger fordert auch der grüne EU-Abgeordnete Daniel Freund. „Es ist heute so, dass per Signal, WhatsApp und Slack regiert wird.“ Dementsprechend müssten diese Nachrichten unter die Informationsfreiheit fallen – oder die Verwendung von SMS und Messengern für die offizielle Kommunikation verboten werden, sagt der Abgeordnete und frühere Transparency-International-Experte.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

✇netzpolitik.org

Datensammelwut: 14-Millionen-Bußgeld gegen Deutsche Wohnen landet vor EU-Gericht

Von: Alexander Fanta
Demo für Deutsche Wohnen und Co enteignen
Der Ruf nach einer Enteignung von Deutsche Wohnen brachte im Sommer zahlreiche Demonstrant*innen auf die Straße. – Alle Rechte vorbehalten IMAGO / IPON

Die unrechtmäßige Speicherung von sensiblen Daten von Mieter*innen durch den Immobilienkonzern Deutsche Wohnen landet vor dem Europäischen Gerichtshof. Das Kammergericht Berlin legte dem EuGH kurz vor Weihnachten zwei Fragen zu dem Fall vor, wie ein Sprecher des EU-Gerichts auf Anfrage von netzpolitik.org bestätigte.

Hohe Mieten und fehlende Reparaturen in den rund 160.000 Wohnungen von Deutsche Wohnen in Berlin lieferten den Anlass für den Volksentscheid „Deutsche Wohnen und Co. enteignen“, dem im September 2021 eine Mehrheit der Wahlbevölkerung Berlins zustimmte. Ärger gibt es für den Konzern aber auch mit dem Datenschutz. Denn Deutsche Wohnen speichert massenhaft Daten wie etwa Kopien von Personalausweisen, Kontoauszüge, Gehaltsbescheinigungen und Krankenversicherungsdaten. Das ist zumindest bei Ausweisen nicht rechtens – Vermieter*innen dürften bei Mietinteressent*innen diese zwar überprüfen, die Anfertigung einer Ausweiskopie sei aber „nicht erforderlich und damit unzulässig“, heißt es von der Datenschutzkonferenz.

Auch müsste der Konzern eigentlich nicht mehr erforderliche Daten löschen, doch das tat er nach Angaben der Berliner Datenschutzbehörde jahrelang und trotz mehrfacher Aufforderungen nicht.

Rechtswiderspruch rüttelt an Konzernstrafen

Ein 14,5-Millionen-Euro-Bußgeld der Behörde hob das Landgericht Berlin wegen eines bizarren rechtlichen Widerspruchs wieder auf. Die Datenschutzgrundverordnung der EU sieht bei Fehlverhalten von Unternehmen Bußgelder von bis zu vier Prozent ihres Jahresumsatzes vor. Doch das Landgericht Berlin urteilte, dass juristische Personen wie Deutsche Wohnen nur dann bestraft werden können, wenn einem konkreten Verantwortlichen bei der Firma Fehlverhalten nachgewiesen werden kann. Dies sei im deutschen Recht so angelegt.

Doch dies widerspreche geltendem EU-Recht, argumentiert die Berliner Datenschutzbehörde. „Im Ergebnis würde es dazu führen, dass in Deutschland – im Gegensatz zu vielen anderen Mitgliedstaaten – ein Bußgeld gegen große Unternehmen aufgrund der komplexen Unternehmensstruktur häufig nicht nachweisbar wäre.“

Das Kammergericht Berlin lässt die Sache nun vom Europäischen Gerichtshof in Luxemburg prüfen. Es müsse geklärt werden, ob nur das Fehlverhalten einzelner Verantwortlicher zu Bußgeldern führen könne. Auch will das Berliner Gericht wissen, wie handfest Verstöße sein müssten, um für Bußgelder zu sorgen. Die Berliner Datenschutzbehörde teilte auf unsere Anfrage mit, sie begrüße die Einschaltung des EuGH und hoffe, dass eine höchstgerichtliche Klärung „zu einer einheitliche Anwendung der DSGVO in allen Mitgliedstaaten und damit zur erforderlichen Rechtssicherheit führt – nicht nur für die Aufsichtsbehörden, sondern auch für die datenverarbeitenden Unternehmen.“

Ob Deutsche Wohnen inzwischen der Aufforderung der Datenschutzbehörde zur Löschung unnötiger Daten nachgekommen ist und sein Datenmanagement verbessert hat, ist unklar. Der Konzern antwortete auf eine Presseanfrage von netzpolitik.org, er wolle das Thema aufgrund des noch laufenden Verfahrens nicht kommentieren.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

  • Es gibt keine weiteren Artikel
❌