🔒
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Heute — 16. April 2026Haupt-Feeds

Outsourcing und Ausbeutung: „Es gibt keine KI ohne Datenarbeit“

15. April 2026 um 18:07

Hinter dem Erfolg von Künstlicher Intelligenz und Sozialen Medien stecken ausgebeutete Arbeiter:innen. Bei einem Fachgespräch im Deutschen Bundestag wurde heute diskutiert, wie ihre Lage verbessert werden kann. Die Botschaft der Sachverständigen war klar: Deutschland muss mehr Verantwortung übernehmen.

Verschwommene Landschaftsszene in Abendsonne, einige Objekte sind gelb umrandet und nicht verschwommen: Ein Wasserturm, ein Funkmast, etwas unerkennbares. Daneben in kleiner Schrift passende Labels zu den Objekten mit einer in Prozent angegeben Genauigkeitswahrscheinlichkeit
Die Welt durch die Brille der Daten-Annotation CC-BY 4.0 Elise Racine / betterimagesofai.org

Im Bundestag wurde heute erstmals über die Arbeitsbedingungen von Datenarbeiter:innen hinter Künstlicher Intelligenz und Sozialen Medien diskutiert. Die Ausschüsse für Digitales und Arbeit hatten zu einem Fachgespräch zum Thema Data Labeling geladen. Die klare Botschaft der drei Sachverständigen: Wenn Deutschland auf KI setzt, dann muss es mehr Verantwortung für die Menschen im Maschinenraum der Technologie übernehmen.

Als Data Labeling oder auch Daten-Annotation bezeichnet man eine Tätigkeit, bei der Menschen zum Beispiel Bildmaterial mit Metadaten versehen, also mit Labels, die den Inhalt beschreiben. Das ist unter anderem für Machine-Learning-Systeme erforderlich, die hinter fast allem stehen, auf dem heute das Label „KI“ klebt. Die Arbeiter:innen sind selten bei den Tech-Konzernen selbst beschäftigt, sondern werden häufig unter ausbeuterischen Bedingungen bei Outsourcing-Firmen oder -Plattformen angestellt.

Seit Jahren bringen Whistleblower:innen, Aktivist:inen, Forscher:innen und Journalist:innen die unsichtbar gemachten Arbeitskräfte in die Öffentlichkeit. Auch wir auf netzpolitik.org berichten kontinuierlich darüber. Die Arbeitsbedingungen in der Branche haben sich aber kaum verbessert, weshalb Erwartungen an die Politik groß sind. Das heutige Fachgespräch, an dem sich Abgeordnete von Union, SPD, Grünen und Linkspartei beteiligten, könnte ein Anfang sein. An konkreten Ideen, wie sich die Lage der Arbeiter:innen verbessern lässt, mangelt es jedenfalls nicht.

„Sie sehen die KI, aber uns sehen Sie nicht“

Die ehemalige Datenarbeiterin Joan Kinyua war virtuell aus der kenianischen Hauptstadt Nairobi zugeschaltet. Sie habe mehr als acht Jahre in der Branche gearbeitet hat, die „Künstlicher Intelligenz dabei hilft, die Welt zu verstehen“. Für unterschiedliche Anbieter habe sie unter anderem Bilder von Straßen mit Metadaten versehen, damit selbstfahrende Autos keine Unfälle bauen. Auch mit Straßenszenen aus Berlin habe sie arbeiten müssen (lest dazu mehr in unserem kürzlich veröffentlichten Interview mit Joan).

Später habe sie auch Bilder mit Gewaltdarstellungen klassifizieren müssen, sogar solche, die Gewalt an Kindern zeigten. Gleichzeitig habe sie selbst Daten für das KI-Training erzeugen sollen, indem sie Bilder ihrer Tochter zur Verfügung stellt.

Ausgeübt habe sie die Tätigkeit meist vom eigenen Computer zuhause, über sogenannte Microwork-Plattformen – „ohne Arbeitsvertrag, Sozialversicherung oder Gesundheitsversorgung“. Oft habe sie stundenlang auf neue Aufträge warten müssen, teilweise bis zu 20 Stunden am Tag auf Stand-By. Immer wieder hätten Auftraggeber:innen ihre Ergebnisse abgelehnt. Den Input hätten sie trotzdem behalten, sie selbst sei leer ausgegangen. So habe es Tage gegeben, an denen sie in fünf Stunden nur zwei Cent verdient habe. Im Schnitt würden Datenarbeiter:innen in Kenia 250 US-Dollar im Monat verdienen, was kaum zum Überleben reiche.

Von ihrer Arbeit habe sie außerdem Panik-Attacken und Angstzustände erhalten. Wie ihr gehe es vielen in der Branche, schildert Kinyua. Als Präsidentin der kenianischen Data Labelers Association vertrete sie inzwischen die Interessen von mehr als tausend Datenarbeiter:innen. Viele von ihnen litten unter posttraumatischen Belastungsstörungen.

„Sie sehen die KI, aber uns sehen Sie nicht“, so beschrieb Joan Kinyua den Abgeordneten ihre Lage. Es sei auch in der Verantwortung des Deutschen Bundestages, das zu ändern und für bessere Bedingungen zu sorgen. Unter anderem schlug die Kenianerin Mindeststandards für Datenarbeiter:innen in Deutschland und weltweit vor. Dazu zählt auch eine Obergrenze für die Arbeit an belastenden Inhalten. Zudem brauche es unabhängige Audits der Anbieter, sowie Register für KI-Arbeiter:innen und ganz grundsätzlich mehr Transparenz über Outsourcing und Lieferketten von Tech-Konzernen.

Milliarden-Profite dank Prekarisierung

Dr. Milagros Miceli von der TU Berlin berichtete von ihren Erkenntnissen aus fast einem Jahrzehnt Forschung zu Datenarbeit. Die von Joan Kinyua geschilderten Arbeitsbedingungen seien „kein Einzelfall, sondern ein konstantes Muster“. Oder genauer gesagt: das Geschäftsmodell einer milliardenschweren Branche.

Der von ihr geprägte Begriff der Datenarbeit umfasse mehr als das Labeling von Daten im engeren Sinne: Auch das Generieren und Sammeln von Daten zähle dazu, in zunehmendem Maße außerdem die Validierung des algorithmischen Outputs und das Korrigieren von Fehlern. Zudem müssten Arbeiter:innen immer wieder so tun, als seien sie eine KI.

Miceli ist eine der Initiator:innen des „Data Workers Inquiry“, in dem Datenarbeiter:innen von ihrer Wirklichkeit berichten. Kürzlich hat das Projekt die Geschichte einer Person veröffentlicht, die sich als AI Girlfriend ausgeben musste, also als Chatbot, der eine Liebesbeziehung mit seinen Nutzer:innen simuliert.

Die unterschiedlichen Formen der Datenarbeit seien essenzieller Bestandteil von KI-Produkten, einer Studie zufolge würde sie 80 Prozent der Entwicklungsarbeit von Künstlicher Intelligenz ausmachen. Miceli ist in ihrer Botschaft deshalb klar: „Ohne Datenarbeit und ohne Menschen wie Joan Kinyua gibt es keine KI“. Tech-Konzerne würden Milliarden damit verdienen „dass sie Arbeiter:innen durch Outsourcing und Plattformisierung prekarisieren und austauschbar machen“. Wenn Deutschland KI fördern wolle, müsse deshalb unbedingt für bessere Arbeitsbedingungen sorgen.

Viele der Arbeiter:inen seien hochqualifiziert, hätten Bachelor-Abschlüsse oder sogar promoviert, berichtet die Forscherin. Dabei sei wichtig, dass die Tätigkeit nicht auf Länder wie Kenia beschränkt ist, sondern auch in Deutschland und Europa viele Menschen in der Branche tätig seien. Wie viele genau, das könne man aufgrund der Intransparenz der Unternehmen nicht sagen.

Probleme bei Gesundheits- und Datenschutz

Bekannt ist, dass mehrere Tech-Konzerne und Outsourcing-Unternehmen in Deutschland große Zentren für die Moderation von Inhalten auf Social-Media-Plattformen unterhalten. Eine Tätigkeit, die die Sachverständigen ebenfalls zum Feld der Datenarbeit zählt und die bereits vor drei Jahren bei einem Fachgespräch im Bundestag Thema war. Julia Kloiber vom Superrr Lab war damals bereits dabei und wies heute erneut darauf hin, dass dabei oft Menschen in vulnerablen Lebenssituationen ausgenutzt würden.

Kloiber empfahl unter anderem besseren Schutz für Menschen, die mit schädlichen Inhalten arbeiten müssen. Bei der Polizei etwa, wo ebenfalls Menschen mit Darstellungen von Kindesmissbrauch arbeiten müssten, gebe es klare Expositionsbegrenzungen. Auch für Datenarbeiter:innen brauche es eine Obergrenze, die die Arbeit mit belastendem Material festlegt. Außerdem brauche es Trauma-Prävention und Zugang zu professioneller psychologischer Unterstützung.

Der fehlende Schutz habe nicht nur schwerwiegende Folgen für die Betroffenen, sondern auch für das Gesundheitssystem, schließlich könnten Menschen ein ganz Leben lang unter posttraumatischen Belastungsstörungen leiden. Manchmal könnten sie deshalb nicht mehr arbeiten. Die dadurch entstehenden Kosten würden von den Tech-Konzernen externalisiert und von der Allgemeinheit aufgefangen.

Kloiber wies zudem auf Datenschutzprobleme beim Outsourcing hin: Nicht nur würden die Datenarbeiter:innen selbst stark überwacht, bei ihnen landeten auch große Mengen personenbezogener Daten und sensibler Inhalte. Erst kürzlich hatten Datenarbeiter:innen als Whistleblower:innen darüber berichtet, dass sie Aufnahmen aus Meta-Brillen bearbeiten müssten und dabei auch Nacktaufnahmen und andere intime Szenen von Nutzer:innen zu Gesicht bekämen.

„Unsere digitale Zukunft darf nicht auf Ausbeutung fußen“

Deutlich wurde bei dem Fachgespräch, dass auch deutsche Firmen davon profitieren, dass sie prekäre Arbeit an Menschen wie Joan Kinyua auslagern. Auch die Auto-Industrie, die Pharma-Branche oder Tech-Unternehmen wie Siemens gehörten zu den Kunden von Outsourcing-Unternehmen im Datenbereich, berichtete etwa Milagros Miceli.

Für Julia Kloiber ist klar, dass Deutschland deshalb auch Verantwortung übernehmen müsse. Eine Untersuchung des Fairwork-Projekt der Universität Oxford und Wissenschaftszentrums Berlin habe die Löhne von vier Outsourcing-Unternehmen untersucht. Nur zwei von ihnen hätten Mindestlohn gezahlt, keines den sogenannten Existenzlohn („Living Wage“), der nicht nur das bloße physische Überleben, sondern auch soziale und kulturelle Teilhabe ermöglicht.

Einen wichtigen Ansatzpunkt sieht die Geschäftsführerin des Superrr Lab deshalb in der Regulierung von Lieferketten. Hier drohe der hohe Standard des erst kürzlich eingeführten und dann schon wieder halb gecancelten deutschen Lieferkettengesetzes abgesenkt zu werden. Die Schwarz-Rote Koalition hatte sich darauf geeinigt, nicht über die – ebenfalls gerade ausgehöhlte – EU-Lieferkettenrichtlinie hinauszugehen.

Bei der Umsetzung der Richtlinie müsse Deutschland sicherzustellen, dass der Geltungsbereich nicht eingeschränkt werde. Die EU-Regeln sollen nur Unternehmen ab 5000 Beschäftigten und einem Umsatz von 1,5 Milliarden Euro gelten. In Deutschland würden dann 95 Prozent der Unternehmen von den Sorgfaltspflichten für ihre Lieferketten entbunden, so Kloiber.

Die Expertin brachte zudem ein Direktanstellungsgebot ins Spiel, wie es erst kürzlich gefeuerte und streikende TikTok-Angestellte in Deutschland gefordert hatten. Ganz grundsätzlich fordert Kloiber eine realistischere Kosten-Nutzen-Rechnung, wenn in Deutschland KI ausgebaut und etwa in der Verwaltung eingesetzt wird. Soziale und auch ökologische Kosten dürften nicht länger ausgeblendet werden: „Unsere digitale Zukunft darf nicht auf Ausbeutung fußen.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Ältere BeiträgeHaupt-Feeds

Digital Networks Act: Kleine Anbieter, große Sorgen

24. September 2025 um 15:54

Mit dem geplanten Digital Networks Act könnte sich der europäische Telekommarkt verändern – und die Wahlfreiheit für Verbraucher:innen stark schrumpfen. Vor allem kleine Netzbetreiber fürchten, dass manche in den Raum gestellte Regeln die Monopole stärken könnten.

Ein Bündel von Netzwerkkabeln
Wo und zu welchen Bedingungen kommt das Internet her? Diese Frage will der DNA beantworten. – Alle Rechte vorbehalten IMAGO / Zoonar

Für kleinere Netzbetreiber in der EU und ihre Kund:innen steht diesen Herbst viel auf dem Spiel. Wer derzeit einen Internetanschluss braucht, kann in der Regel zwischen mehreren Anbietern auswählen. Umgekehrt müssen Netzbetreiber nicht zwangsläufig eigene Infrastruktur besitzen, um Kund:innen mit konkurrenzfähigen Angeboten zu locken. Dieses Gefüge könnte mit dem geplanten Digital Networks Act (DNA) ins Wanken geraten, dessen Entwurf die EU-Kommission in den kommenden Monaten vorstellen will.

Der Dienstleister Transatel bringt die Sorgen weiter Teile der Branche auf den Punkt. In einer Stellungnahme an die EU-Kommission mahnt der zum japanischen Telekom-Riesen NTT Group gehörende Anbieter: „Ohne Auflagen für Anbieter mit signifikanter Marktmacht könnten marktbeherrschende Festnetz- und Mobilfunkbetreiber den Zugang zu ihren Netzen einschränken und kleinere sowie virtuelle Anbieter aus dem Markt drängen. Dies würde die Monopolverhältnisse wiederherstellen, die die Liberalisierung eigentlich beseitigen sollte, und den Wettbewerb, die Innovation und die Wahlfreiheit der Verbraucher:innen einschränken.“

Historisch gewachsener Regulierungsrahmen

Seit der Abschaffung der staatlichen Monopole in den 1990er-Jahren ist die europäische Regulierung von Telekommunikation auf Wettbewerb und damit zu weiten Teilen auf die Bedürfnisse kleinerer oder zumindest nicht marktdominanter Anbieter ausgerichtet. Sie erhalten zu streng regulierten Konditionen Zugang zu den Netzen der ehemaligen Staatsbetriebe, um ihnen auch ohne eigene Leitungen Konkurrenz machen zu können. Zugleich soll das Modell des Infrastrukturwettbewerbs Anreize dafür schaffen, dass sich moderne Technik, beispielsweise Glasfaser, gegen zunehmend obsolete Lösungen wie Kupferleitungen durchsetzen kann.

Perfekt war dieser marktgetriebene Ansatz zwar nie. Immerhin hat er jedoch verkrustete Strukturen aufgebrochen und einen Markt mit einer Angebotsvielfalt geschaffen, die zuvor kaum vorstellbar war. In die Kritik ist das Modell mit der Zeit von unterschiedlichen Seiten aus geraten: Inzwischen subventionieren etwa viele EU-Länder, darunter Deutschland, den Netzausbau in ländlichen Regionen, in denen sich das teure Verbuddeln von Leitungen für die Betreiber finanziell nicht rechnet.

Dieses Internet der Zukunft wünschen sich die mächtigen Telekom-Konzerne

An anderer Stelle zeigt das sogenannte Überbau-Phänomen die Grenzen des Marktes auf, indem volkswirtschaftlich fragwürdig wiederholt Straßen aufgerissen werden, um neue Leitungen zu verlegen, anstatt kooperativ bereits vorhandene zu nutzen. Auf EU-Ebene wiederum wollen die Stimmen nicht verhallen, die sich „europäische Champions“ wünschen – also möglichst große Netzbetreiber, die auf einem harmonisierten EU-Markt und letztlich auf dem Weltmarkt mitmischen können. Was sich die ehemaligen Monopolisten vom DNA erwarten, haben wir hier zusammengefasst.

Ambitionierte Ausbauziele der EU

Über all dem steht das Ziel der Kommission, bis Ende des Jahrzehnts ganz Europa auf moderne Gigabit- und Mobilfunk-Verbindungen aufzurüsten. Ein Selbstzweck ist das nicht: Ohne schnelle und flächendeckend verfügbare Internetverbindungen ist ein modernes Leben kaum vorstellbar. Außerdem steigert eine bessere Breitbandversorgung das Wirtschaftswachstum, wie Studien immer wieder belegen. Letzteres hat die Kommission zu einer ihrer Prioritäten für die laufende Legislaturperiode erklärt.

Regulatorisch hat die Politik in den vergangenen Jahren bereits an einigen Stellschrauben gedreht: Seit der letzten Überarbeitung der EU-Regeln durch den sogenannten TK-Kodex sind selbst marktdominante Betreiber von besonders strenger Vorab-Regulierung befreit, solange sie in Zusammenarbeit mit anderen Anbietern oder Investoren moderne Netze neu bauen.

Noch weiter gingen manche EU-Länder, Frankreich etwa. Diese schwenken immer mehr auf sogenannte symmetrische Regulierung um, bei der alle Marktakteure, unabhängig von ihrer Größe, gleich behandelt werden. Auch die Strategie Deutschlands, den Ausbau mit öffentlichen Mitteln zu unterstützen, war alles andere als eine Selbstverständlichkeit: Ihr waren zähe Verhandlungen mit der EU-Kommission vorangegangen, die Sorge vor Marktverzerrungen hatte.

Bretons Weißbuch gibt Richtung vor

In dieses Umfeld platzte der inzwischen aus der Kommission ausgeschiedene Thierry Breton. Im Vorjahr stellte der damalige EU-Binnenmarktkommissar ein Weißbuch mit teils detaillierten Visionen zur Zukunft digitaler Infrastrukturen in Europa vor. Darin enthalten und potenziell wegweisend für den DNA: Vorschläge einer umfassenden Deregulierung und Konsolidierung des Marktes, einer Abschwächung der Netzneutralität unter dem Schlagwort „Fair Share“ sowie die Vorhersage eines weiteren Zusammenwachsens von Netz- und Diensteebene, was sich entsprechend in der Regulierung des Bereichs widerspiegeln müsse.

Schon damals musste Breton saftige Kritik für seine großindustrie-freundliche Sicht einstecken, sowohl aus der Zivilgesellschaft als auch von EU-Ländern. Künftige Regulierungspolitik müsse den Wettbewerb fördern und den Verbraucherschutz hochhalten, zudem müsse in bestimmten Zugangsmärkten die bewährte Vorab-Regulierung nicht leichtfertig aufgehoben werden, hieß es etwa in einer Erklärung des EU-Rats zu seinem Weißbuch.

Hinzu kommt die Sorge vor allzu harmonisierten Vorschriften, die der zersplitterten Betreiberlandschaft in der EU kaum gerecht werden könnten. So gibt sich der deutsche Glasfaser-Verband BUGLAS, der rund 180 deutsche Anbieter vertritt, überzeugt davon, dass „einheitliche Regelungen angesichts der Heterogenität der Märkte in den Mitgliedsstaaten nicht zielführend sind“.

Tatsächlich bringt jedes EU-Land unterschiedliche politische, regulatorische und wirtschaftliche Voraussetzungen mit: Der Ausbau verhält sich in Flächenländern anders als in gebirgigen Gegenden. In manchen Ländern ist die Marktkonsolidierung weiter fortgeschritten als in anderen, und einige Länder haben etwa den Zwischenschritt Vectoring übersprungen und gleich auf Glasfaser gesetzt, weil es keine dicht verlegte Kupferinfrastruktur gab, die sich wie in Deutschland hätte aufmöbeln lassen.

EU-Länder sind nicht gleich

Wie teils fundamental unterschiedlich die Ausgangslagen und Bedürfnisse innerhalb der EU sind, zeigt beispielsweise die Stellungnahme von Epic Communications, eines kleinen Anbieters aus Malta. Generell sei das Land in vielen Bereichen dysfunktional, erklärt der Anbieter: Bis heute seien schon vor Jahren verabschiedete EU-Gesetze wie die Kostensenkungsrichtlinie oder der Gigabit Infrastructure Act nicht umgesetzt. Außerdem sei die Wettbewerbsbehörde des Landes seit über einem Jahr nicht mehr handlungsfähig.

Eine Abschaffung der Vorab-Regulierung und Umstellung auf nachträgliche Kontrolle würde schnell an ihre Grenzen stoßen und wohl zu einer Remonopolisierung des Sektors führen, warnt der Anbieter: „Malta ist als kleiner Inselstaat mit erheblichen Hindernissen konfrontiert, darunter eine schwache Durchsetzungskapazität, begrenzte institutionelle Ressourcen, dominante Marktakteure und im Verhältnis zu seiner Wirtschaftsgröße unverhältnismäßig hohe Kapitalausgaben.“

Ganz anders die Situation in Schweden, das zumindest in Ballungsgebieten, wo der überwiegende Teil der Bevölkerung lebt, schon früh auf Glasfaser gesetzt hatte und heute über eine entsprechend gute und über dem EU-Schnitt liegende Versorgung verfügt. Basierend auf eigenen Erfahrungen dämpft etwa der schwedische Anbieter Stokab die Erwartungen der EU-Kommission, dass eine Konsolidierung des Marktes und Reduzierung des Wettbewerbs große Effekte hätte.

Infrastruktur und Netzwerke wie Glasfasernetze hätten den „gleichen lokalen Charakter“ wie Wasserleitungen und Straßen, führt Stokab in seiner Stellungnahme aus. Dies gelte für das Verlegen neuer Leitungen sowie für den Betrieb und Wartung. „Der landesweite oder multinationale Ausbau und die Bereitstellung solcher Infrastrukturen und Netzwerke bieten grundsätzlich keine Skalenvorteile – die Hauptkosten (Erdarbeiten) bleiben die gleichen.“

Lob für TK-Kodex

Demnach würde eine Abkehr vom bisherigen Regulierungsrahmen kaum den Ausbau beschleunigen oder billiger machen. Der Ansatz sei „weder passend noch angebracht“, so Stokab, zumal die im TK-Kodex enthaltenen Regulierungserleichterungen für Wholesale-Anbieter wie Stokab „positive Auswirkungen auf Investitionen und die Marktentwicklung“ gehabt haben sollen. Solche Wholesale-Unternehmen bieten ihre Dienste üblicherweise nicht Endkund:innen an, sondern Netzanbietern ohne eigene Infrastruktur. Gleichwohl würden diese Einwände nicht bei der grenzüberschreitenden Bereitstellung von Diensten gelten, wo sich die erwünschten Skaleneffekte mittels harmonisierter Regeln vermutlich umsetzen ließen, so der Netzbetreiber.

In eine ähnliche Kerbe schlägt der französische Wholesale-Anbieter Altitude. Der gegenwärtige Regulierungsrahmen samt der im TK-Kodex enthaltenen Anreize zur Kooperation habe das Ausrollen von Glasfasernetzen begünstigt und sollte schon allein aus Gründen der Rechtssicherheit beibehalten werden, schreibt Altitude. Und der Anbieter erinnert daran, wer eigentlich den initialen Ausbau bezahlt hat – bevor der einstige Monopolist France Télécom teilprivatisiert und zu Orange umbenannt wurde: „Die Leitungen und Schächte von Orange, die größtenteils von der öffentlichen Hand für den Bau des Kupfernetzes finanziert werden, umfassen das gesamte Gebiet und sind nicht replizierbar. Sie sind die Hauptstütze für die Netze der nächsten Generation, und daher ist es notwendig, die asymmetrische Regulierung dieser Infrastruktur aufrechtzuerhalten.“


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Impression: GTK4-Tool zum Flashen von ISO-Images

07. Juni 2023 um 08:16

Zum Flashen von ISO-Images auf USB-Sticks nutze ich in der Regel das Kommando dd. Die Syntax dd if=foo.iso of=/dev/sdx bs=1M; sync ist mir nach langen Jahren des Rumspielens mit Linux-Distributionen für PC, Raspberry Pi und Co. schon in Fleisch und Blut übergegangen. Irgendwie habe ich aber immer ein etwas mulmiges Gefühl: Eines Tages werde ich beim Eintippen der Geräte-ID sicher einen Fehler machen. Eines Tages werde ich mal aus Versehen wichtige Daten praktisch unwiederbringlich überschreiben. Ich denke, mit diesem Gefühl werde ich nicht alleine sein.

Von daher finde ich Tools wie die in Gnome eingebaute Funktion zum Flashen von ISOs oder Tools wie Etcher von der Idee sehr gut. Über die grafische Oberfläche hat man als Nutzer doch ein wenig mehr Übersicht und Kontrolle. Die Laufwerksverwaltung von Gnome versteckt die Funktion zum Flashen von ISOs allerdings recht gut und bei Etcher stoße ich mich an Electron. Auch wenn es für Entwickler praktisch sein mag: Nur dafür einen zig MByte großen und per se nutzlosen Software-Blob auf das System zu spülen, finde ich doch ein wenig übertrieben.

Für Nutzer von KDE Plasma gibt es als Alternative den ISO Image Writer. Das Programm fügt sich sauber in die Desktopumgebung ein und trägt nicht sonderlich dick auf. Für Gnome gab es ein solch kleines Programm bisher nicht. Bisher. Seit ein paar Tagen gibt es mit Impression (Github, Flatpak) eine moderne Option auf Basis von GTK4 zum Schreiben von ISO-Images für Anhänger von GTK-Desktops. Die Bedienung ist einfach: Programm starte, ISO-Image und Ziel auswählen, Image schreiben, Fertig. Fehler können hier nicht passieren, da Impression nur USB-Sticks und Speicherkarten, aber keine Festplatten als Zielort anbietet.

Aktuell findet ihr Impression noch nicht in den Paketquellen der üblichen Linux-Distributionen. Via Flatpak klappt die Installation allerdings problemlos. Der Versionszähler der Anwendung steht gerade bei 1.0.0 und der Quellcode ist erst seit ein paar Tagen online, auch die Übersetzung ins Deutsche fehlt noch. Das wird sich aber sicherlich schnell ändern. Und es dauert sicherlich nicht lange, bis Gnome das Projekt in seinen stetig wachsenden Gnome Circle aufnimmt und ihm so deutlich mehr Bekanntheit liefert.

Ventoy Multiboot USB Creator Adds A New WebUI Plugin Configurator

03. Dezember 2021 um 12:40
Von: Logix
Ventoy Plugson

Ventoy, a tool to create bootable USB drives by simply copying the ISO to the USB (with support for as many ISOs as you want, even mixed Linux and Windows ISO files), has been updated with a new webUI plugin configurator which makes it easy to configure the powerful Ventoy plugins.

You install this tool to a USB drive, then simply copy some ISO files to the USB drive, and you can boot from it with no other changes (so without having to reformat the USB drive every time you want to create a bootable USB drive, and without having to extract the ISO file contents). You can also continue using the USB stick for other things, and it will continue to work as a bootable USB. The application is available for Microsoft Windows and Linux.

Read more »

[[ This is a content summary only. Please visit Linux Uprising for the full article ]]

--------------------------------------------------------------------------
Originally posted on Linux Uprising Blog.

USB-Sticks und SD-Karten auf Fehler prüfen

08. Dezember 2021 um 18:10

Über die Jahre haben sich bei mir hier unzählige USB-Sticks und SD-Speicherkarten angesammelt. Oft stammen diese nicht von Markenherstellern, sondern aus der Ramschkiste von Werbematerialprovidern — Pressekonferenzen und Produktpräsentationen sei Dank. In der Praxis merke ich jedoch, dass es durchaus einen Unterschied macht, ob ein Speicherstick von Sandisk, Samsung und einem anderen renommierten Hersteller stammt oder ob das Werbematerial aus irgendeiner asiatischen Hinterhofbude zusammengeschustert wurde. Und dabei rede ich nicht einmal von Fälschungen, die mehr Kapazität vortäuschen, sondern einfach nur von schlechter Qualität und Schreib-/Lesefehlern.

Ich hatte in der letzten Zeit häufig das Problem, dass sich diese miesen Sticks immer oben im Stapel ansammelten und somit beim Griff in die Grabbelkiste immer als erste in meiner Hand lagen. Spätestens beim Schreiben größerer Datenmengen, etwa eines ISO-Images einer Linux-Distribution, kommt es dann zu Problemen. Die Schreib-/Leserate bricht ein oder es gibt gleich aussagekräftigere IO-Fehler. Um diese Problematik auszuschließen, möchte ich also alle meine USB-Sticks und SD-Speicherkarten einmal auf Fehler überprüfen und defekte Datenträger für immer aussortieren. Unter Linux geht das mit Bordmitteln.

USB-Sticks auf Fehler prüfen

Im ersten Schritt müsst ihr die Geräte-ID des USB-Sticks oder der Speicherkarte herausfinden. Steckt den Datenträger daher an den Rechner an oder legt die SD-Karte in das entsprechende Lesegerät und gebt im Terminal lsblk ein. Das Kommando listet euch sämtliche am Rechner angeschlossene Datenträger auf. Anhand der Größe des Datenträgers lässt sich in der Regel die Geräte-ID erkennen. In meinem Beispiel bindet das System meinen 8 GByte großen USB-Stick unter sdc (also /dev/sdc in der vollständigen Syntax) ein. Seid ihr euch nicht sicher, dann zieht den zu kontrollierenden Datenträger ab und wiederholt lsblk. Fehlt sdc in der ausgegebenen Liste, dann habt ihr die richtige Kennung. Alternativ lässt sich die Kennung auch mit grafischen Tools wie der Laufwerksverwaltung von Gnome ermitteln.

$ lsblk
[...]
sdc           8:32   1   7,5G  0 disk 
├─sdc1        8:33   1   2,9G  0 part /run/media/toff/Ubuntu 21.10 amd64
├─sdc2        8:34   1   4,1M  0 part 
└─sdc3        8:35   1   300K  0 part 
[...]
Auch die in Gnome integrierte Laufwerksverwaltung zeigt die Geräte-IDs von Festplatten, SSDs, USB-Sticks und anderen in das System eingebundenen Datenträgern an.

Für die eigentliche Fehlersuche kommt nun das Kommando badblocks aus dem Paket e2fsprogs zum Einsatz, das zur Grundausstattung der üblichen Distributionen gehört. Es kann vorkommen, dass sich Badblocks erst einmal weigert, die Überprüfung zu starten, da das Laufwerk bereits vom System benutzt sei. In der Regel kommt das davon, dass das Betriebssystem den Datenträger automatisch einbindet, sobald ihr den USB-Stick ansteckt. Auf meinem System genügt das Antippen des Icons zum Aushängen des Laufwerks im Dateimanager nicht, ich muss die Geräte-ID des Laufwerks und der dazugehörigen Partitionen gezielt mit umount aushängen.

$ sudo badblocks -wsv /dev/sdc
/dev/sdc wird offensichtlich vom System genutzt; es ist zu unsicher, Badblocks zu starten!
$ sudo umount /dev/sdc*
umount: /dev/sdc: nicht eingehängt.
umount: /dev/sdc2: nicht eingehängt.
umount: /dev/sdc3: nicht eingehängt.

An dieser Stelle muss ich eine Warnung schreiben: Beim Prüfen auf Fehler überschreibt Badblocks sämtliche Daten und Partitionen auf dem angegebenen Datenträger. Stellt daher auf jeden Fall sicher, dass ihr die richtige Geräte-ID an das Kommando übergibt und sichert vor der Aktion wichtige Daten vom betroffenen USB-Stick oder der SD-Speicherkarte. Im Fall der Fälle könnt die Daten nach der Fehlerüberprüfung nicht wiederherstellen.

Beim Aufruf von Badblocks übergebt ihr dem Kommando die Parameter -wsv sowie die Geräte-ID. Die Parameter weisen das Programm an, einen destruktiven Schreibtest auszuführen (-w), den Fortschritt anzuzeigen (-s) und generell mehr Informationen auszugeben (-v). Der ausführliche Test beschreibt jeden Block des Datenträgers viermal hintereinander mit unterschiedlichen Mustern (0xaa, 0x55, 0xff und 0x00). Je nach Geschwindigkeit und Kapazität müsst ihr dafür eine längere Zeit einplanen. Die Prüfung des von mir im Beispiel benutzten USB-Sticks nach dem USB-2.0-Standard und 8 GByte Kapazität benötigte über eine Stunde.

$ sudo badblocks -wsv /dev/sdc
Es wird getestet Mit Muster 0xaa:   0.00% erledigt, 0:00 verstrichen. (0/0/0 Fehler) erledigt                                             
Lesen und Vergleichen:erledigt
Es wird getestet Mit Muster 0x55:   0.00% erledigt, 23:47 verstrichen. (0/0/0 Fehler) erledigt                                             
Lesen und Vergleichen:erledigt
Es wird getestet Mit Muster 0xff:   0.00% erledigt, 47:33 verstrichen. (0/0/0 Fehler) erledigt                                             
Lesen und Vergleichen:erledigt
Es wird getestet Mit Muster 0x00:   0.00% erledigt, 1:11:26 verstrichen. (0/0/0 Fehler) erledigt                                             
Lesen und Vergleichen:erledigt

Neben der destruktiven Prüfmethode unterstützt Badblocks einen zerstörungsfreien Lesen+Schreiben-Modus. Diesen aktiviert ihr mit dem Parameter -n anstatt von -w. In dieser Variante sichert Badblocks die Daten des geprüften Speicherblocks zuerst in den Arbeitsspeicher, überschreibt dann den Datenblock mit Zufallsdaten und prüft, ob die Daten korrekt geschrieben werden konnten. Abschließend schreibt Badblocks die Sicherung wieder auf den Datenträger zurück. Auf den ersten Blick erscheint die Prüfroutine schneller, da es nur einen Prüfdurchlauf gibt, in der Praxis brauch das Sichern und Zurückschreiben der bestehenden Daten allerdings wesentlich mehr Zeit. In meinem Beispiel anstatt nur etwas mehr als einer Stunde über 2,5 Stunden.

$ sudo badblocks -nsv /dev/sdc
Es wird nach defekten Blöcken im zerstörungsfreien Lesen+Schreiben-Modus gesucht
Von Block 0 bis 7812607
Es wird nach defekten Blöcken gesucht (zerstörungsfreier Lesen+Schreiben-Modus)
Es wird mit zufälligen Mustern getestet:  94.36% erledigt, 2:35:18 verstrichen. (0/0/0 Fehler)

Gefälschte USB-Sticks ermitteln

Einen Schritt weiter geht das Tool F3 oder etwas länger Fight Flash Fraud. Das Open-Source-Programm prüft ausführlich, ob ein Datenträger wirklich die Kapazität besitzt, die er vorgibt zu haben. Ein Thema, das leider immer noch aktuell ist, besonders wenn man super günstige Angebote aus dem Internet kauft. Um gefälschte USB-Sticks oder SD-Speicherkarten aufzudecken, müsst ihr das Programm aus dem Paketquellen installieren. Debian, Ubuntu, Fedora und Co. führen das Konsolenwerkzeug in den offiziellen Repositories, das Paket nennt sich in der Regel f3. Arch Linux führt das Programm nur im AUR, zur Installation braucht ihr daher einen AUR-Helper.

### Installation unter Arch Linux oder Manjaro:
$ yay -S f3
### Installation unter Debian, Ubuntu oder Raspberry Pi OS:
$ sudo apt install f3

Die Kommandos zum Prüfen von USB-Datenträgern lauten nun f3write, f3read und f3probe. Die ersten zwei Befehle müsst ihr in Kombination nutzen. Als Option übergebt ihr den Kommandos jeweils den Mountpunkt des Datenträgers. f3write schreibt nun so lange ein Gigabyte große Dateien auf den eingebundenen Datenträger, bis der Platz ausgeht. Anschließend prüft ihr mit f3read, ob die geschriebenen Daten auch wirklich wieder gelesen werden können. Falls es sich um einen gefälschten USB-Stick oder eine manipulierte SD-Speicherkarte handeln sollte, dann würde f3read korrupte Sektoren ausgeben. Bei dieser Prüfung bleiben alle Daten auf dem Datenträger erhalten, ihr müsst am Ende nur wieder die h2w-Dateien löschen, sonst habt ihr keinen Platz mehr auf dem Stick.

$ f3write /run/media/toff/291E-6F9C
[...]
Free space: 3.72 GB
Creating file 1.h2w ... OK!
Creating file 2.h2w ... OK!
Creating file 3.h2w ... OK!
Creating file 4.h2w ... OK!
Free space: 0.00 Byte
Average writing speed: 3.91 MB/s
$ f3read /run/media/toff/291E-6F9C
[...]
                  SECTORS      ok/corrupted/changed/overwritten
Validating file 1.h2w ... 2097152/        0/      0/      0
Validating file 2.h2w ... 2097152/        0/      0/      0
Validating file 3.h2w ... 2097152/        0/      0/      0
Validating file 4.h2w ... 1518736/        0/      0/      0

  Data OK: 3.72 GB (7810192 sectors)
Data LOST: 0.00 Byte (0 sectors)
	       Corrupted: 0.00 Byte (0 sectors)
	Slightly changed: 0.00 Byte (0 sectors)
	     Overwritten: 0.00 Byte (0 sectors)
Average reading speed: 14.73 MB/s
$ ls -al /run/media/toff/291E-6F9C
insgesamt 3907596
drwxr-xr-x  3 toff toff       4096  1. Jan 1970   .
drwxr-x---+ 4 root root         80  7. Dez 16:27  ..
-rw-r--r--  1 toff toff 1073741824  7. Dez 18:35  1.h2w
-rw-r--r--  1 toff toff 1073741824  7. Dez 18:40  2.h2w
-rw-r--r--  1 toff toff 1073741824  7. Dez 18:44  3.h2w
-rw-r--r--  1 toff toff  777592832  7. Dez 18:47  4.h2w
[...]

Ein wenig schneller arbeitet f3probe --destructive. Die Option --destructive ist optional, die beschleunigt die Aktion jedoch ganz wesentlich. Bei diesem Test beschreibt F3 nur die nötigsten Sektoren und kümmert sich auch nicht um eine Datensicherung. Da die Probe direkt auf die Hardware zugreif, gebt ihr als Parameter nicht den Mountpunkt sondern die Geräte-ID (hier /dev/sdg) an. Der Test mit meinem 4 GByte großen USB-2.0-Stick dauert so nur ein wenig mehr als sieben Minuten. Habt aber bei dieser Prüfung wieder im Hinterkopf, dass die Routine sämtliche Datenblöcke auf dem Datenträger überschreibt.

$ f3probe --destructive --time-ops /dev/sdg
[...]
Good news: The device `/dev/sdg' is the real thing

Device geometry:
	         *Usable* size: 3.73 GB (7831552 blocks)
	        Announced size: 3.73 GB (7831552 blocks)
	                Module: 4.00 GB (2^32 Bytes)
	Approximate cache size: 0.00 Byte (0 blocks), need-reset=no
	   Physical block size: 512.00 Byte (2^9 Bytes)

Probe time: 7'17"
 Operation: total time / count = avg time
      Read: 2.73s / 4812 = 568us
     Write: 7'13" / 3637313 = 119us
     Reset: 1us / 1 = 1us

Sowohl Badblocks als auch F3 helfen beim Analysieren von Fehlern auf Datenträgern. Bei der Prüfung müsst ihr allerdings immer ein wenig Zeit mitbringen. Die ausführliche Analyse eines 8 GByte großen USB-Sticks kann schonmal zwei Stunden dauern, besonders wenn bei der Prüfung die Daten erhalten bleiben sollen und der USB-Stick nur mit dem langsamen USB-2.0-Protokoll arbeitet. Danach könnt ihr aber davon ausgehen, dass der USB-Stick oder die SD-Speicherkarte auch wirklich funktionieren und die Kapazität besitzen, die auf dem Aufdruck steht.

  • Es gibt keine weiteren Artikel
❌