So., 22.06.25 | 23:20 Uhr
"ttt" investigativ: Wie Datenarbeiter für KI ausgebeutet werden
Das Buch "Feeding the Machine" und eine Recherche in Kenia
Künstliche Intelligenz. Wird sie die Menschheit revolutionieren? Sie ist längst schon Teil unseres Alltags. Allein ChatGPT benutzen wohl schon zehn Prozent der Weltbevölkerung. Aber hinter KI verbirgt sich eine Geschichte der Ausbeutung, die bisher kaum erzählt ist.
"Diese Dinge, die du lesen und bearbeiten musst: sie dringen in deinen Kopf ein – das ist sehr viel Stress. Das Trauma, das ich durch Content Moderation erlitten habe, habe ich immer noch. Es ist etwas, das erstmal nicht weggehen wird", sagt der ehemalige Content Moderator Mophat Okinyi. Und die Klickarbeiterin Rachel (Name v. d. Redaktion geändert) sagt: "Wir werden ausgebeutet und wir haben keine Alternative. Es gibt sonst keine Jobs in Kenia."
Klickarbeit unter fragwürdigen Arbeitsbedingungen
Bei KI denken wohl die meisten an Silicon Valley. Dabei sollte man auch Silicon Savannah kennen. In Nairobi, Kenia, haben wir recherchiert. Denn hier arbeiten in großer Zahl Datenarbeiter für KI-Subunternehmen. Ihr Job ist es, Künstliche Intelligenzen zu trainieren. Sie möglichst menschenähnlich zu machen. Diese Arbeit findet unter extrem fragwürdigen Bedingungen statt.
Wir treffen Rachel. Ihren Namen haben wir geändert. Sie muss anonym bleiben, darf nicht über ihre Arbeit sprechen. Im Moment macht sie sie ohne vertragliche Absicherung, sagt sie. Sie müsse hundert Videos am Tag bearbeiten. Sie erzählt uns: "Wenn du die Zielvorgabe nicht erreichst, wirst du zu einem Meeting gerufen und du wirst aggressiv angegangen mit Worten wie: 'Du wirst gefeuert, wenn du die Zielvorgabe nicht erreichst' und sowas. Das ist mir passiert. Ich bin einbestellt worden und da waren auch noch andere. Wir alle haben die Zielvorgabe nicht geschafft. Es war mein erster Tag, an dem ich Videos bearbeitet habe, und die meisten habe ich nicht vollständig geschafft. Ich hatte Angst, dass ich vielleicht meinen Job verlieren würde. Also musste ich mich noch mehr anstrengen, um die Videos noch schneller zu analysieren."
Sie muss in Sportvideos die Werbeauftritte von Sponsoren markieren: wie groß und wie lange, sie zu sehen sind. Sie trainiert damit wahrscheinlich eine KI für Sportmarketing. Der genaue Zweck wird ihr vorenthalten. Sie arbeitet unter enormem Zeitdruck und permanenter Kontrolle. Rachel, die eigentlich Lehrerin ist, bekommt dafür weniger als einen Dollar die Stunde. Davon lebt sie mit ihrem Baby, unterstützt die Mutter, bezahlt Schulgebühren für zwei Geschwister. An manchen Tagen reicht es nicht fürs Essen.
Hinter der KI-Revolution: ein System globaler Ungleichheit
Mark Graham erforscht mit seinem Team seit zehn Jahren die Strukturen hinter der Entwicklung von KI. Er beschreibt Künstliche Intelligenz als "Extraktionsmaschine", die viele Ressourcen ausbeutet, für die hohen Gewinne der großen KI-Firmen. Er sagt: "Wann immer du KI nutzt, spuckt die Technik dir ein Ergebnis aus. Einen sichtbaren Output. Das KI-Sprachmodell erstellt dir einen Text. Das autonom fahrende Auto fährt dich herum. Aber die Inputs, die das überhaupt erst ermöglichen, die sind unsichtbar. Und deshalb wollen wir nicht nur die Geschichte der Outputs erforschen, sondern auch die der Inputs in die Maschine. Das sind viele natürliche Ressourcen. Das sind Wissensressourcen, die KI trainieren. Und: es ist sehr viel menschliche Arbeit, menschliche Intelligenz – nicht einfach künstliche Intelligenz."
Das Buch "Feeding the Machine" ist das Ergebnis ihrer Forschung. Darin beschreiben sie ein System globaler Ungleichheit, das die KI-Revolution überhaupt erst ermöglicht. Denn es sind die Klickarbeiter in Billiglohnländern, die der KI beibringen, zu unterscheiden, zwischen Lastwagen und Auto. Zwischen: Was ist Krieg? Was ist Mord? Was ist Folter? Was extremistisch?
Okinyi: Trauma durch Content Moderation
Mophat Okinyi hat das als Content Moderator gemacht. Er traut sich, öffentlich darüber zu sprechen, dass er für ein Subunternehmen wohl massenhaft Texte für ChatGPT bearbeitet hat. Uns erzählt er: "Meine Aufgabe war es, sexuelle Inhalte zu klassifizieren und sexuelle Inhalte, das ist ein sehr breites Feld. Die meisten Texte, die ich bearbeiten musste, waren Fälle von Kindesmisshandlung. Als Vater liest du dann Texte über Kinder, die belästigt werden, Kinder, die sexuell missbraucht werden. Wenn du dann nach Hause gehst und deine Tochter siehst, dann fängst du an, über die Dinge auf der Arbeit nachzudenken. Und dann versuchst du zu verhindern, dass dein Kind dir zu nahekommt. Wenn du das jeden Tag, wochenlang, monatelang liest, bleibt es dir im Kopf hängen und man kann nicht mal schlafen. Manchmal, wenn ich schlafen gegangen bin, habe ich Bilder von Menschen in der Leichenhalle vor mir gesehen. Ich sehe schreckliche Dinge über Kinder, die belästigt werden. Das Trauma, das ich durch Content Moderation erlitten habe, es begleitet mich immer noch."
Wir haben OpenAI mit den Vorwürfen konfrontiert. In einer Stellungnahme heißt es, man sei dankbar für die "wichtige und manchmal herausfordernde Arbeit” der KI-Trainer. Man habe außerdem einen "klaren Verhaltenskodex”, dem Subunternehmer verpflichtet seien.
Festgelegte Zielvorgaben, enormer Stress
Mittlerweile ist Mophat Okinyi Gewerkschafter. Er setzt sich für Datenarbeiterinnen wie Rachel ein. Versucht auf die Subunternehmen Druck auszuüben, um bessere Arbeitsbedingungen durchzusetzen. Und das ausbeuterische Machtverhältnis abzuschaffen, von dem uns Rachel erzählt: "Wenn du das Ziel für den Tag nicht geschafft hast und es ist vielleicht schon nach elf Uhr abends, dann musst du Überstunden machen. Dann stellst du den Timer, der deine Leistung misst, aus, und machst die Extra-Videos, um die vorgegebene Anzahl zu erreichen. Das ist Zeit, die nicht bezahlt wird, nur um die Zielvorgabe zu erreichen."
Rachel arbeitet zuhause. Die meisten anderen sitzen außerhalb des Stadtzentrums in Großraumbüros. Mark Graham hat eines auf den Philippinen besucht. Er sagt: "Auf dem Bildschirm hatten sie zwei Bilder – von einem Shoppingportal. Ihr Job ist es, das System zu trainieren, in dem sie ihm sagen: Sind diese Bilder gleich oder unterschiedlich? Das Problem ist, sie haben nur 20 Sekunden pro Aufgabe. Also haben alle ihre Handys auf dem Tisch, und ihren Wecker auf 20 Sekunden eingestellt. Stell dir jetzt mal vor, in einen Raum mit 200 Menschen zu gehen und durchgehend klingeln Wecker. Ich war nur fünf Minuten da, aber mein Kopf dröhnte. Manche klingen wie Glocken, andere nehmen diese Töne von Hühnern – weil sie die Glocken nicht mehr hören können. Stell dir vor, in diesem Raum zehn Stunden am Tag zu sein, sechs Tage die Woche, nur Weckertöne und Klingeln. Ich glaube, dass ist das Schwere an diesen Jobs. Dass sie ermüdend und langweilig sind, aber gleichzeitig Angst und Stress produzieren, weil du diese Zielvorgaben konstant erreichen musst."
"Menschen arbeiten wie Maschinen, um die Maschinen zu trainieren"
Die prekären und gefährlichen Arbeiten werden in den sogenannten Globalen Süden ausgelagert. Von den gigantischen Gewinnen, die im Westen gemacht werden, bleibt nur ein geringer Prozentsatz an Orten wie Nairobi. Dieses Geschäftsmodell vieler großer Tech-Firmen ist für Mophat Okinyi neokolonial: "Ich nenne es tatsächlich 'Digitalen Kolonialismus', weil es strukturell eine Art Sklaverei ist. Diese Arbeiter sind in einer Situation, in der sie nicht kündigen können, es gibt keine anderen Jobs. Sie können sich nicht beschweren. Sie machen diese Arbeit immer weiter. Sie bekommen psychische Schäden und keiner kündigt. So ist diese Arbeit und es ist eine ausweglose Situation, in der sich die Menschen befinden."
Künstliche Intelligenz lernt nicht einfach von selbst. Sie funktioniert, weil es Menschen gibt, wie hier in Kenia, die in repressiven Systemen wie Roboter dafür arbeiten. "Das ist die Ironie", sagt Graham, "dass du diese Menschen dazu bringen musst wie eine Maschine zu arbeiten, um die Maschine dazu zu bringen, wie ein Mensch zu sein.
Beitrag: Carla Reitter/Anne Fleischmann
Stand: 23.06.2025 08:22 Uhr
Kommentare