🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
✇netzpolitik.org

Kafka und Künstliche Intelligenz: Die Sehnsucht nach totaler Souveränität

Von: Gastbeitrag · Anselm Küsters

Mit Hilfe von KI-Agenten sollen Einzelpersonen schon bald Unternehmen mit Milliardenbewertung aufbauen. Das klingt verführerisch, weil es einer prometheischen Sehnsucht nach totaler Souveränität schmeichelt. Allerdings wusste schon Franz Kafka, dass Ein-Personen-Unicorns mythische Wesen sind.

Ein Gemälde, das einen Mann mit Bart zeigt, der eine Fackel hoch hält.
Prometheus gab den Menschen die Kontrolle übers Feuer und büßte dafür. – Gemeinfrei Heinrich Füger, Prometheus bringt den Menschen das Feuer (1817)

Am 18. Februar 1922 notierte Franz Kafka in sein Tagebuch eine Miniatur, die wie so vieles aus seiner Feder auf den ersten Blick komisch wirkt und auf den zweiten unheimlich. Ein Theaterdirektor, der alles von Grund auf selbst schaffen muss – sogar die Schauspieler muss er erst zeugen. Ein Besucher wird nicht vorgelassen, der Direktor sei mit wichtigen Theaterarbeiten beschäftigt. Und was tut er? Er wechselt die Windeln eines künftigen Schauspielers.

Man lacht kurz. Dann hört man auf.

Die totale Kontrolle über den Produktionsprozess kehrt sich in die Selbstauflösung des Produzenten um. Wer alles selbst erschaffen will – Stück, Bühne, Ensemble –, landet zwangsläufig bei der Windel. Wie man aus der wunderbaren Kafka-Biographie von Reiner Stach lernen kann: Ambition und Absurdität sind bei Kafka keine Gegensätze.

Als Schriftsteller war Kafka jemand, der Nacht für Nacht sein ganzes Ensemble allein erschaffen musste, neben dem Bürojob in der Arbeiter-Unfall-Versicherungsanstalt. Er wusste, dass der kreative Absolutismus seinen Preis hat: Man ist bis zum Umfallen beschäftigt. Mit dem, was gerade nötig ist, damit die Sache irgendwann und irgendwie weitergeht. Und dann fällt einem das nächste Problem auf.

Der Gründer als vollständiges Ensemble

Ich kenne diesen Tagebucheintrag aus Nicolas Mahlers Band „Kafka für Boshaft“. Seit Monaten lese ich ihn immer wieder. Konkret: Seit Sam Altman und andere Vordenker der Branche die Prophezeiung ausgaben, dass Einzelpersonen mit Hilfe von KI-Agenten bald Unternehmen mit Milliardenbewertung aufbauen würden. Das Stichwort lautet Ein-Personen-Unicorns. Übersetzt: Der Gründer als vollständiges Ensemble, als Entwickler, Designer, Vertriebler, Buchhalter und Marketingstratege zugleich, verstärkt durch eine Armee von Sprachmodellen, die gehorsam Code generieren und Kunden kontaktieren.

Diese Prophezeiung ist verführerisch, weil sie einer uralten, prometheischen Sehnsucht nach totaler Souveränität und Kontrolle schmeichelt. Kein Team, das koordiniert werden will. Keine menschlichen Eigenheiten, die berücksichtigt werden müssen. Keine lästigen Kollegen, die anderer Meinung sind. Nur man selbst, die Bühne und die Modelle. Das klingt nach Befreiung. Es riecht nach Windel. Kafka, so ist mir beim Lesen aufgefallen, hat sein Stück hundert Jahre zu früh aufgeschrieben.

Denn Kafkas Direktor ist ja nicht deshalb lächerlich, weil sein Vorhaben scheitert – er scheitert im Tagebucheintrag ja gar nicht. Er ist lächerlich, weil die innere Logik seines Ehrgeizes ihn unausweichlich dorthin geführt hat: zur Windel. Wer lückenlose Kontrolle anstrebt, muss die Schauspieler selbst zeugen; wer sie selbst zeugt, muss auch für sie sorgen. Die Allmacht endet im Pflegeheim der eigenen Schöpfung.

Was der Mensch (ver)lernt

Das weist auf einen blinden Fleck hin, der in der aktuellen Euphorie um Solo-Coder und ihre KI-Agenten in den sozialen Medien oft übersehen wird. Nicht die Frage, ob diese Werkzeuge produktiv sind – das sind sie, oft beeindruckend –, sondern die Frage, was der Mensch dahinter dabei lernt oder verlernt. Sprachmodelle produzieren auf Zuruf: Code, Marktanalyse, Pitch-Deck. Aber sie wissen im strengen Sinne gar nichts. Der Direktor hat ein glänzendes Ensemble gezeugt; ob es spielen kann, erfährt er erst, wenn der Vorhang aufgeht.

Nehmen wir den KI-Bühnenbildner: Er kann Ihnen den Unterschied zwischen Preußischblau und Kobalt in drei Absätzen erklären. Aber er scheitert daran, ein Objekt auf der Bühne zu lokalisieren, das nicht dort ist, wo er es erwartet. Die jüngste Forschung zu multimodalen Sprachmodellen zeigt genau das: Selbst die leistungsfähigsten Systeme erzielen beim visuellen Grounding – dem schlichten Auffinden eines Gegenstandes im Bild – erschreckend niedrige Trefferquoten; bei Aufgaben, die das Erkennen von Abwesenheit erfordern, versagen die meisten vollständig. Was Kognitionswissenschaftler das Binding-Problem nennen, ist in der Praxis vernichtend: Das Modell beschreibt, was es zu sehen erwartet. Es sieht nicht. In anderen Worten: Der KI-Bühnenbildner malt aus dem Gedächtnis, nicht aus der wirklichen Anschauung.

Und der Hauptdarsteller? Er kommt manchmal, wenn man ihm richtig zuflüstert („promptet“), auf die richtige Zeile – aber über Wege, die er sich nicht merken kann, weil er sie nicht gegangen ist. Apples Forschungsteam hat das in einer wichtigen Studie nüchtern „The Illusion of Thinking“ genannt: Sogenannte Reasoning-Modelle, die durch verlängerte Denkprozesse besonders zuverlässig wirken sollen, erleiden ab einem bestimmten Komplexitätsniveau einen Genauigkeitskollaps. Bei einfachen Aufgaben übertreffen sie die älteren Modelle nicht einmal. Was bleibt, ist ein Ensemble, das gelegentlich brillant klingt, aber strukturell unzuverlässig ist. Kein Probengedächtnis, keine Replizierbarkeit. Das Paradox setzt sich beim Publikum fort: Studierende, die regelmäßig KI-Assistenten zum Schreiben und Denken nutzen, zeigen messbar schwächere Gedächtnisleistung, geringere kognitive Eigenständigkeit und – besonders ernüchternd – auch dann noch schlechtere Ergebnisse, wenn sie wieder ohne KI arbeiten. MIT-Forscher sprechen von „kognitiver Verschuldung“.

Die Windeln stapeln sich im Fundus.

Wohin eine solche Aufführung führt? Das sieht man am Bild des Hobby-Coders, der zwar engagiert mit Claude Code spielt, sich aber nie die Prinzipien von sauberem Code angeeignet hat. Zweihundert Zeilen, die funktionieren – bis sie es nicht mehr tun. Dann beginnt das Debugging: ein Durchsuchen von generiertem Code, den der Autor nicht mehr versteht, und zunehmend auch nicht das Modell, das beim nächsten Prompt munter darüber hinweg generiert. Laut einer Analyse von 211 Millionen Codezeilen durch GitClear hat sich der sogenannte Code-Churn im KI-Zeitalter verdoppelt, während 45 Prozent des KI-generierten Codes Sicherheitslücken enthält. Dies wird zunehmend von Hackern ausgenutzt. Der Begriff „Vibe Coding“ ist keine zwei Jahre alt und hat bereits eine eigene technische Schuldenkrise produziert, die erst langsam sichtbar wird. Das Theater steht. Die Windeln stapeln sich im Fundus.

Diese Kritik bedeutet nicht, dass die Werkzeuge wertlos wären. Ich selber nutze lokale KI-Modelle gerne und viel, gerade für mühsame Programmieraufgaben. Für technisch versierte Gründer sind KI-Agenten ein Hebel, den frühere Generationen nicht kannten. Manche Windeln nimmt einem das Modell tatsächlich ab. Doch Unicorns heißen nicht umsonst so: mythische Wesen, selten und wunderlich. Ein-Personen-Unicorns wären mythische Wesen zweiter Ordnung. Was manche Influencer in den sozialen Medien als wundersame Programmierprojekte präsentieren, die angeblich an einem Wochenende entstanden sind, sind Ausnahmen aus einer frühen Phase. Alle anderen debuggen noch.

Der Unterschied zwischen Vision und Theater auf dem höchsten Niveau liegt in der Arbeit dazwischen. Nicht in der glamourösen, nicht in der sichtbaren, sondern in der stillen, zeitaufwändigen, ein wenig demütigenden Arbeit, die das Geschehen auf der Bühne am Laufen hält. Ökonomen, die Transformationstechnologien von der Dampfmaschine bis zur Elektrifizierung analysiert haben, nennen das die Komplementaritätsbedingung. Eine Basistechnologie entfaltet ihren Nutzen nicht durch bloße Verfügbarkeit, sondern durch die jahrelange, unsichtbare Reorganisation von Prozessen, Kompetenzen und Institutionen.

Daron Acemoglu hat das für die generative KI konkret beziffert: Selbst unter optimistischen Annahmen dürfte die Technologie das BIP über zehn Jahre um weniger als ein Prozent heben – weil die komplementäre Arbeit, die sie erst produktiv macht, Zeit braucht und konstante Validierung verlangt.

Man wird nicht vorgelassen. Der Direktor ist beschäftigt.

Was er tut? Er wechselt Windeln.

Die KI nimmt einem ein paar davon ab. Vielleicht sogar viele. Aber das Theater baut sie einem nicht.

Anselm Küsters ist Fachbereichsleiter Digitalisierung und Neue Technologien am Centrum für Europäische Politik (cep) in Berlin. Im Sommersemester 2025 und Wintersemester 2025/26 war er zudem Vertretungsprofessor für Digital Humanities an der Universität Stuttgart. Er ist Autor des Buches „Small is beautiful 2.0: Mit digitaler Dezentralisierung zu einer menschlicheren Wirtschaft“, das jüngst im Herder Verlag erschienen ist.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

✇netzpolitik.org

Degitalisierung: Entfremdung

Von: Bianca Kastl

Zwischen dem aktuellen KI-Hype und der ersten Industrialisierung gibt es Parallelen, das zeigt sich besonders in der drohenden Entfremdung, analysiert unsere Kolumnistin. Aber es gibt Wege, die gleichen Fehler nicht nochmals zu machen.

Ein Schatten einer Person, die auf einer Treppe geht.
Müssen wir uns erst jahrelang entfremden? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Elijah Sargent

Unsere Erfindungen sind meistens niedliche Spielsachen, die unsere Aufmerksamkeit von ernsten Dingen ablenken. Sie sind nur verbesserte Mittel zu einem unverbesserten Zweck – zu einem Zweck, der auf die einfachste Weise von vornherein hätte erreicht werden können.

Sparsamkeit, Walden oder Leben in den Wäldern, Henry D. Thoreau

Die heutige Degitalisierung wird sich in dieser Zeit mit dem tieferen Sinn hinter allerlei Digitalisierungsbemühungen, im Speziellen sogenannter Künstlicher Intelligenz, beschäftigen müssen. Dass KI jetzt wieder Thema sein muss, ist auch mir inzwischen selbst nervig, aber genau diese permanente Durchsetzung in jeglichen Bereichen des Arbeits- und inzwischen auch Privatlebens braucht leider immer eine klare Thematisierung. Im Wesentlichen soll es aber auch um die Entfremdung gehen, die wir gerade durchleben.

Den Ton für diese Kolumne setzt dazu ein gewisser Henry Thoreau, der in Walden die einleitenden Worte in einer Blockhütte ab 1845 im Wald ersann. Quasi als eine Art Aussteiger oder Einsiedler, der sich schon im 19. Jahrhundert vom Fortschritt der Industrialisierung eine Auszeit nahm und im Wald über die Welt nachdachte.

Im 19. Jahrhundert befand sich Thoreau inmitten des ersten Maschinenzeitalters und brauchte eine Pause im Wald. Ein emotionales Bedürfnis, das allzu viele im Bereich der Informationstechnologie in den letzten Jahren immer wieder selbst verspürt haben dürften. Denn heute befinden wir uns quasi im zweiten Maschinenzeitalter, dem der Künstlichen Intelligenz, das auch kognitive Arbeitskontexte erfassen wird.

Üblicherweise sind solche Momente in der Geschichte aber auch weitere Gelegenheiten zur Entfremdung. Zur Entfremdung von sinnvollen Zwecken, für die all diese neue Technik genutzt werden könnte. Zur Entfremdung vor allem für „einfache“ Arbeitende. Nicht zum ersten Mal.

Marx und Manchesterkapitalismus

Entfremdung bzw. entfremdete Arbeit ist ein zentrales Konzept im Werk von Karl Marx. In der Zeit der ersten Industrialisierung hat Marx eine vierfache Entfremdung des arbeitenden Individuums in Bezug auf seine Arbeit attestiert. Nach Marx geschieht diese Entfremdung zwischen dem arbeitenden Individuum und dem Kapitalisten zum einen auf Ebene des Produkts der eigenen Arbeit, weil das Produkt der Arbeit ja gar nicht mehr dem Individuum selbst gehört, sondern anderen. Die Entfremdung geschieht auch auf der Ebene der Tätigkeit, die keine eigenen Bedürfnisse mehr befriedigt und auch keine freie und bewusste Tätigkeit mit der Umwelt oder Gesellschaft ermöglicht. Letztlich entfremdet sich der Mensch vom Menschen selbst.

In die Zeit der Industrialisierung und von Marx fällt auch eine Phase des besonders auf die Interessen von Unternehmen ausgerichteten Kapitalismus, des sogenannten Manchesterkapitalismus. Eine Zeit, in der vor allem in Großbritannien, aber nicht nur dort, Kinderarbeit, lange Arbeitszeiten von bis zu 14 Stunden, Hungerlöhne, Armut und das Fehlen jeglicher sozialer und gesundheitlicher Schutzmaßnahmen etwa bei Arbeitsunfällen vollkommen normal waren. Gewerkschaften oder politische Interessenvertretungen wurden lange Zeit unterdrückt. Die Lage trotz all des vermeintlichen technischen Fortschritts für einen Großteil der Bevölkerung elend.

Gebessert hat sich die Lage ein wenig erst durch Gesetze zum Arbeitsschutz, etwa durch das Festlegen von maximalen Arbeitszeiten und durch das schrittweise Verbot von Kinderarbeit, zumindest für Kinder unter 12.

Nur scheint sich im zweiten Maschinenzeitalter vieles, was wir eigentlich aus der Geschichte gelernt haben sollten, wiederholen zu müssen. Denn im modernen Techkapitalismus droht sich sowohl die Entfremdung als auch das Elend auf die gleiche, wenn auch an diese Zeit angepasste, Art und Weise zu wiederholen. In beiden Industrialisierungen geht es auch immer um Maschinen, in der Industrialisierung etwa um Dampfmaschinen und Webstühle, in der KI-Industrialisierung um massive Rechenzentren.

Musk und Techkapitalismus

Eines der ersten wirklich riesigen, auf KI spezialisierten Rechenzentren, ist Colossus von xAI, einem Unternehmen, das von Elon Musk gegründet wurde. Colossus war zu seiner Eröffnung Mitte 2024 der damals wohl schnellste Supercomputer der Welt.

Im Hype um KI wird immer wieder von den weltverändernden Möglichkeiten von Künstlicher Intelligenz gesprochen. Medikamente können schneller entwickelt werden, indem Proteine besser modelliert werden können. Wetter kann besser vorhergesagt werden. Das wäre vielleicht sogar ein sinnhafter Einsatz von KI. Nur forciert Musk den „vermeintlich freien“ Einsatz von KI für ganz andere Zwecke und damit auch von Supercomputern wie Colossus.

Grok, der Chatbot von xAI, flutet seit einiger Zeit den ehemals relevanten Kurznachrichtendienst Twitter, jetzt unter Musks Eigentümerschaft X genannt, mit massenhaft sexualisierten Deepfakes. Die Diskussion nahm in den letzten Tagen zu. Der selbst nicht ganz widerspruchsarme Kulturstaatsminister Wolfram Weimer bezeichnete das als eine „Industrialisierung der sexuellen Belästigung“. Die ansonsten eher seriös aufbereitete Financial Times illustrierte die Plattform X wegen der Ereignisse als eine Deepfake-Pornoseite, deren Mitarbeitende dort als eine Ansammlung von Clowns in einem Zirkuszelt dargestellt wurden.

Der typische techkapitalistische Einsatz dieser Tage führt also ebenfalls zu einer mehrfachen Entfremdung. Menschen oder Künstler*innen, die ihrer Werke und möglichen Einnahmen daraus beraubt werden, sei es bei Texten, Bildern, Illustrationen, Musik oder Filmen. Menschen, die im Sinne von digitalem Kolonialismus für KI-Modelle abartigen Content labeln und sortieren müssen. Menschen, die sich bei dieser Tätigkeit fühlen, als würde ihr Leben enden. Gigantomanische Rechenzentren, die in den nächsten Jahren Musks Colossus locker um das fast Zehnfache übertreffen werden und sich dabei in keinster Weise um die Auswirkungen auf Umwelt und Gesellschaft scheren. Energiebedarfe, die bis in den Gigawattbereich reichen, was dem Energiebedarf US-amerikanischer Großstädte wie Los Angeles entspricht. Ein Energiehunger, der mit zusätzlichen fossilen Energiequellen oder Atomreaktoren gestillt werden muss – bei denen aber die Entsorgung des Atommülls vollkommen unklar sind.

Dazu entfremdet sich auch noch das Finanzsystem immer weiter von der Realität überhaupt noch tragbarer Geschäftsmodelle. Moral ist dabei sowieso egal: Musks xAI sammelt weiter fleißig Geld ein und verbrennt es gleich wieder. Zuletzt fremdeln Anbieter von KI-Lösungen mit dem Konzept von Verantwortung für ihr eigenes Handeln. Hersteller von Chatbots zahlen lieber stillschweigend bei Gerichtsverfahren im Hintergrund Vergleiche, um nicht öffentlich in der Verantwortung für die Konsequenzen ihrer Produkte haften zu müssen.

Auf der anderen Seite starten Akteure wie OpenAI aber KI-Assistenten für die eigene Gesundheit – natürlich auf eigene Gefahr der Nutzenden.

Währenddessen wachsen die Rechenaufwände und die dafür notwendigen Rechenzentren in ihren Anforderungen immer weiter. Anwendungsfälle, die für die Menschheit von irgendeinem nachhaltigen Nutzen wären, werden aber damit kaum umgesetzt. Der Großteil der Rechenleistung wandert in Sprachmodelle, Videogeneratoren und Vision-Modelle. Eingesetzt als eher niedliche Spielsachen, ohne sich aber um ernste Dinge wie den Klimawandel oder die gesellschaftliche Ungleichheit zu scheren.

Grenzen und Wachstum

In manchen Momenten muss die fortschreitende KI-Industrialisierung aber immer wieder mit erstrebenswerten Zukunftsvisionen dargestellt werden, um sie weiter am Leben zu halten, teils geradezu mit marxistisch anmutenden Elementen.

Sam Altman, CEO von OpenAI, versprach etwa 2024 ein Grundeinkommen für alle – wenn denn bald GPT-7 superintelligent sein solle. 2024 veröffentlichte OpenResearch eine von Altman mitfinanzierte Studie zur Wirkung eines bedingungslosen Grundeinkommens, deren Erkenntnisse durchaus unterschiedlich interpretiert wurden.

Altmans Einsatz für ein Grundeinkommen sollte aber nicht ohne seine eigenen Hintergedanken interpretiert werden. Aufgrund des geradezu kannibalistischen Verbrauchs von Ressourcen, die Systeme wie die von OpenAI aufweisen, muss Altman zumindest irgendeine Vision anbieten, die seine Maschinerie am Leben halten kann. Aber Altman ist ein Betrüger, immer wieder.

Das Wachstum der KI-Branche wird aktuell gerade etwas gebremst durch das Erreichen des Limits von produzierbaren Rechenressourcen wie Arbeitsspeicher oder aus dem Internet aufgesaugten Inhalten. LLMs auf der anderen Seite zerstören gerade aktiv ihre eigenen aufgesogenen Inhalte, wie etwa im aktuellen Beispiel des Open Source CSS-Frameworks Tailwind, das in dieser Woche massive Entlassungen wegen KI offenlegte.

In der finanziellen Realität ist aber auch der KI-Primus OpenAI bei seinem Geschäftsmodell schon längst bei Überlegungen zu Erotikinhalten und Werbung angekommen. Dabei sind in die KI-Branche bereits bis 2024 Investitionen gesteckt worden, von denen mehrere Mondprogramme und Manhattan-Projekte finanziert hätten werden könnten.

Bei all diesen Anlässen für Entfremdung ist aber die Frage: Was sind die Alternativen? KI als Teil des Rentensystems? Das ist bei techkapitalistischen Unternehmen, die von der EU geradezu mit Samthandschuhen angefasst werden, schwerlich vorstellbar.

Entfremdung und Rebellion

Ein möglicher Weg aus dieser Entfremdung ist in Thoreaus Worten vom Anfang zu finden. KI in der heutigen Form sind oftmals nur verschlimmbesserte Mittel zu einem kapitalistischen Zweck mit all den schlimmen negativen Konsequenzen.

Politisch wird jetzt vielleicht gefordert, dass es „europäische KI“ brauche mit „europäischen Werten“. Im Wesen von aktuellen KI-Systemen sind aber, ganz gleich welcher Herkunft diese sind, Elemente angelegt, die sich nicht von dieser Technologie trennen lassen. KI ist eine konservative Technologie, sie begünstigt wenige Kapitalisten oder Faschisten immens, bringt einer Mehrheit nur wenige Vorteile und diskriminiert Minderheiten, sei es durch Bias oder schweren Zugang zu aktueller digitaler Technik. Darüber hinaus bleibt die erratische Art des Handelns ein Wesensbestandteil dieser Systeme.

Der Weg aus der Entfremdung ist zuallererst die Erkenntnis, dass KI und die Versprechungen, die sie bringen soll, oftmals aus einer überaus beschränkten Sichtweise kommen. Häufig findet das mittlere oder obere Management in den niedlichen KI-Spielzeugen die vermeintliche Lösung für viele Probleme.

Zu wenig Pflegepersonal im Krankenhaus? Lässt sich bestimmt mit KI-unterstützten Apps für Schichtplanung und Gig Economy „lösen“. Macht die Situation aber nur schlimmer. Zu wenig Geld im Gesundheitssystem? Muss nur mit digitalen Tools besser geleitet werden, am liebsten noch mit Kontaktgebühren. Am besten wäre es doch, gleich die Krankenkassen mit KI tagesaktuell auf Behandlungsdaten agieren zu lassen.

All diese durch KI unterstützten Lösungsvorschläge sind oftmals nur elitäre Projektionen. Lösungen, die nur für einen Teil von Problemen eines Themenbereichs funktionieren und aus Sicht des Managements damit die Lösung für alle Probleme sein müssten, es aber nicht sind.

Die technologische Entfremdung entsteht nicht durch diejenigen, die unrealistische Versprechungen mittels KI machen und verkaufen wollen. Versprechungen wie die einer Superintelligenz, die jetzt 2026 nur noch ein Problem entfernt sei, was eigentlich 2024 schon hätte kommen sollen.

Die technologische Entfremdung des digitalen Maschinenzeitalters entsteht durch zu viele Käufer*innen im Management von Unternehmen, im Gesundheitswesen oder in Verwaltungen [€], die diesen Versprechungen trotz ihrer überzogenen Vorhersagen und trotz ihrer negativen Konsequenzen weiter hinterherlaufen.

Die Frage ist nicht, ob KI in aktueller Form sinnvolle Anwendungen hat. Die Frage ist, ob wir uns als Gesellschaft erst noch einmal jahrelang entfremden müssen, um dann zu erkennen, dass wir vieles aus den Verheißungen von Digitalisierung und KI auch auf einfache oder andere Weise hätten erreichen können – ganz ohne die destruktiven Einflüsse des aktuellen Techkapitalismus.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

  • Es gibt keine weiteren Artikel
❌